Hay un video de un robot en el laboratorio de Figure haciendo café. No es el tipo de hacer café en el que “el brazo robótico sigue un camino preprogramado para operar una Keurig”. Es el tipo en el que dices “hey, hazme un café” y él se encarga de los pasos: encontrar la taza, identificar la cafetera, presionar los botones correctos y traértelo. Es el tipo de hacer café que requiere entender qué es el café.
Hemos tenido robots industriales durante décadas. Robots de soldadura en fábricas de automóviles. Máquinas de recoger y colocar en la fabricación de electrónica. Brazos de línea de ensamblaje que repiten el mismo movimiento 10,000 veces al día con precisión submilimétrica. Esos robots son impresionantes pero tontos. Hacen exactamente lo que están programados para hacer y nada más.
Lo que es diferente ahora es la parte de IA. Los robots están aprendiendo a ver, entender y adaptarse. Y eso cambia todo sobre lo que los robots pueden hacer.
Las Tres Cosas que la IA Ofrece a los Robots
Ojos que entienden. La visión por computadora combinada con sensores de profundidad permite a los robots construir un modelo 3D de su entorno en tiempo real. No solo “hay un objeto en las coordenadas (3, 4, 2)”, sino “esa es una taza de café, está vertical, está al borde de la mesa y parece frágil.” Esta comprensión semántica es lo que hace a un robot útil en un entorno desestructurado como tu cocina frente a uno estructurado como el suelo de una fábrica.
Un cerebro que planea. Aquí es donde entran los LLMs, y honestamente, me sorprendió lo bien que funciona esto. El RT-2 de Google toma una instrucción en lenguaje natural como “recoge la lata de Coca-Cola y ponla en el reciclaje” y determina los comandos motoras para hacerlo, incluso para objetos y situaciones en los que no fue entrenado explícitamente. La misma comprensión del lenguaje que impulsa a ChatGPT resulta ser realmente útil para decirle a los robots qué hacer.
Manos que aprenden. Los robots tradicionales necesitan cada movimiento preprogramado. Los robots impulsados por IA aprenden de la demostración: les muestras cómo doblar una toalla y ellos comprenden el principio general de doblar toallas y luego lo adaptan a toallas de diferentes tamaños y formas. El sistema Mobile ALOHA de Stanford aprendió tareas de cocinar, limpiar y organizar al observar a los humanos. No perfectamente, pero lo suficientemente bien como para ser útil.
Dónde Trabajan Realmente los Robots Hoy en Día
Los almacenes son la historia de éxito. Amazon tiene más de 750,000 robots en sus centros de cumplimiento. Estos no son robots humanoides paseando — son principalmente plataformas planas que transportan unidades de estanterías a los recolectores humanos, además de brazos robóticos que clasifican y empacan artículos. La IA maneja la navegación en un entorno dinámico donde miles de robots y humanos comparten espacio. Es el despliegue más grande de robots de IA en el mundo, y funciona.
La cirugía ha avanzado más de lo que la mayoría de la gente se da cuenta. El sistema quirúrgico da Vinci ha sido utilizado en más de 12 millones de procedimientos. La IA proporciona filtrado de temblores (más estable que cualquier mano humana), visualización 3D ampliada y asistencia con la posición de los instrumentos. Los cirujanos siguen estando al mando: el robot mejora sus capacidades en lugar de reemplazarlas.
La agricultura está sorprendentemente avanzada. Hay robots que seleccionan fresas de forma selectiva — solo las maduras, dejando la fruta inmadura para más tarde. Otros robots identifican y eliminan malas hierbas sin herbicidas. El desafío aquí es la variabilidad: cada campo es diferente, cada planta es ligeramente diferente y la iluminación cambia a lo largo del día. La IA maneja esta variabilidad de formas que la programación tradicional simplemente no puede.
La Carrera de los Humanoides
Todos están construyendo robots humanoides ahora, y las opiniones varían muchísimo sobre si esto es genial o soberbio.
Figure 01 y 02 son las demostraciones más impresionantes que he visto. Interacción en lenguaje natural, comportamiento adaptativo y manipulación que realmente se ve fluida en lugar de entrecortada. La colaboración con OpenAI significa que los robots de Figure entienden el contexto y las instrucciones de una manera que se siente genuinamente inteligente.
El Optimus de Tesla recibe más atención porque es Tesla. El progreso ha sido más rápido de lo que los críticos esperaban: las demostraciones recientes muestran a Optimus caminando, recogiendo objetos y realizando tareas simples. Si las promesas de cronograma de Elon son realistas es una pregunta aparte (spoiler: probablemente no lo sean).
Atlas de Boston Dynamics es el robot humanoide original, y la versión eléctrica es realmente impresionante atléticamente. Saltos hacia atrás, parkour, navegación dinámica de obstáculos. Pero la brecha entre “demostración impresionante” y “producto útil” sigue siendo amplia.
Mi opinión honesta sobre los humanoides: la pregunta no es si eventualmente funcionarán — lo harán. La pregunta es si un factor de forma humanoide es el enfoque correcto. ¿Por qué construir un robot con forma humana para operar un lavavajillas cuando podrías construir un mejor lavavajillas? Los robots humanoides tienen sentido para entornos diseñados para humanos (hogares, oficinas, tiendas). Los robots diseñados para propósitos específicos tienen sentido para tareas específicas (almacenes, cirugía, agricultura).
Los Problemas No Resueltos
La generalización sigue siendo la parte difícil. Un robot entrenado para hacer café en la Cocina A tiene dificultades en la Cocina B, donde la cafetera es diferente y las tazas están en un armario diferente. Los humanos manejan esto sin esfuerzo. Los robots necesitan o un extenso reentrenamiento o modelos base que puedan generalizar, y todavía no estamos allí.
Seguridad alrededor de los humanos. Un robot de almacén que choca con una estantería es molesto. Un robot doméstico que choca con un niño pequeño es inaceptable. Los requisitos de seguridad para robots cercanos a humanos son órdenes de magnitud más altos que para robots industriales, y todavía estamos desarrollando los estándares y tecnologías para cumplir con ellos.
El costo es prohibitivo para los consumidores. Figure no ha anunciado precios para consumidores, pero las estimaciones sitúan a los robots humanoides entre 50,000 y 100,000 dólares inicialmente. Eso es un coche, no un electrodoméstico. La robótica de consumo necesita llegar a la gama de 5,000 a 10,000 dólares para lograr una adopción masiva.
Mi Predicción a Cinco Años
Los robots de almacén y logística estarán en todas partes. Los robots quirúrgicos se expandirán a más tipos de procedimientos. Los robots agrícolas se volverán comunes en grandes granjas. Los robots domésticos seguirán siendo novedades caras: lo suficientemente útiles como para justificar el precio para los adinerados adoptantes tempranos, pero aún no el tipo de electrodoméstico habitual como el Roomba.
La incógnita es si los modelos base para robótica lograrán un avance en la generalización. Si un robot puede aprender una nueva tarea de una demostración de 30 segundos en lugar de horas de entrenamiento, la economía cambia por completo. Varios grupos de investigación se están acercando. Los próximos años serán fascinantes.
🕒 Published: