Robot de Google manipulando objetos físicos como una taza y piezas de construcción en un entorno de laboratorio tecnológico

Google DeepMind lanza Gemini Robotics-ER 1.6: el robot que ya razona en el mundo físico

Ayer, 15 de abril de 2026, Google DeepMind publicó Gemini Robotics-ER 1.6. No es una actualización menor. Es el modelo de IA que permite a un robot cuadrúpedo leer un manómetro analógico en una planta industrial con el 93% de precisión —cuando su versión anterior ni siquiera tenía esa capacidad. Spot, el robot de Boston Dynamics, tiene ahora algo que hasta hace muy poco solo tenían los humanos: la capacidad de razonar sobre lo que ve.

De la robótica programada al razonamiento físico

Durante décadas, los robots industriales han funcionado como máquinas de instrucciones. Les dices exactamente qué hacer, en qué orden y en qué condiciones. Si algo cambia, el robot falla. Así de sencillo, y así de limitante. El salto que propone Google DeepMind con Gemini Robotics-ER 1.6 es diferente: el modelo no solo ejecuta, razona.

Y eso no es solo semántica. Gemini Robotics-ER 1.6 actúa como el cerebro de alto nivel del robot: planifica tareas, detecta si las ha completado con éxito y llama a herramientas externas —como Google Search o modelos de visión especializados— para tomar decisiones en tiempo real. Puede sintetizar información de varias cámaras a la vez, incluidas una vista cenital y una cámara montada en la muñeca del robot, para confirmar que una tarea está terminada incluso en entornos con poca luz o con objetos que bloquean la vista. Lo que antes requería que un ingeniero revisara en persona, ahora lo valida el robot por sí solo.

Personalmente, llevaba tiempo esperando que alguien juntara razonamiento genuino con un cuerpo físico que tuviera que moverse en el mundo real. Esto se parece bastante a eso. Y da un poco de vértigo, en el buen sentido.

El número que lo cambia todo: del 23% al 93%

Hay un dato en el anuncio de Google DeepMind que me parece el más revelador de todo. La precisión para leer instrumentos analógicos industriales ha pasado del 23% al 93% de una versión a la siguiente.

La versión anterior, Gemini Robotics-ER 1.5, ni siquiera tenía esta función como capacidad establecida. Ahora, gracias a lo que Google llama «visión agéntica», el modelo hace algo que recuerda poderosamente al proceso humano de mirar con atención: primero amplía la imagen para ver mejor los detalles del medidor, luego utiliza razonamiento visual y ejecución de código para estimar proporciones e intervalos, y finalmente aplica su conocimiento del mundo para interpretar qué significa esa lectura. Todo en tiempo real. Todo en un robot que pesa lo que pesa y que tiene que moverse por una fábrica sin chocar con nada.

Pero el detalle de contexto que más me llama la atención es el origen de este caso de uso. No surgió en un laboratorio de Google mirando papers académicos, sino de la colaboración directa con Boston Dynamics, que usa el robot Spot en instalaciones donde el acceso humano es complejo o directamente peligroso: tuberías, plantas de procesamiento, zonas con gases. El robot ahora no solo navega esos espacios —ya lo hacía antes—, sino que comprende lo que los instrumentos le están contando.

Disponible hoy para cualquier desarrollador

Algo que vale la pena mencionar por encima de los titulares técnicos: Google ha decidido publicar Gemini Robotics-ER 1.6 a través de la API de Gemini y Google AI Studio desde el primer día. No es un proyecto de investigación cerrado ni una beta privada para socios seleccionados. Cualquier desarrollador puede empezar a construir sobre este modelo ahora mismo.

¿Cuántas empresas industriales hay ahí fuera con robots que inspeccionan instalaciones pero que todavía dependen de un técnico humano para interpretar las lecturas? La respuesta es: muchas. Las aplicaciones van desde la supervisión de fábricas hasta la gestión de almacenes, pasando por refinerías, plantas químicas o redes de distribución energética donde el coste de un error es enorme.

Y vale la pena añadir que el modelo también ha mejorado en seguridad. Google afirma que Gemini Robotics-ER 1.6 es el modelo de robótica más seguro que han publicado hasta la fecha, con mejor cumplimiento de políticas ante tareas de razonamiento espacial adversarial. Cuando un robot toma decisiones físicas en el mundo real, que el modelo tenga restricciones bien definidas no es un detalle menor: es parte de la razón por la que esto puede desplegarse industrialmente con cierta confianza.

Para cerrar: el mundo físico empieza a hablar con la IA

La robótica siempre ha vivido con una promesa incumplida. Los robots llevan décadas siendo herramientas potentes pero frágiles, que fallan en cuanto la realidad se desvía del guion. Gemini Robotics-ER 1.6 no resuelve todo eso de golpe, que quede claro. Pero apunta a algo que sí es un cambio importante: el robot que razona sobre lo que ve, que detecta si ha fallado y que busca cómo solucionarlo.

Para la mayoría de nosotros esto todavía suena lejano. Pero para los ingenieros que trabajan en plantas industriales, para los técnicos que hacen inspecciones en zonas de riesgo, para las empresas que buscan reducir accidentes laborales, esta actualización publicada ayer puede cambiar los procesos de trabajo en los próximos meses. No años. Meses. Eso es lo que me parece realmente interesante de este lanzamiento.

El mundo físico empieza a entender a la IA. O, mejor dicho, la IA empieza —por fin— a entender el mundo físico.

Fuentes:
Google DeepMind – Gemini Robotics ER 1.6: Enhanced Embodied Reasoning
MarkTechPost – Google DeepMind Releases Gemini Robotics-ER 1.6
SiliconAngle – DeepMind launches Gemini Robotics-ER 1.6
Interesting Engineering – Google’s new AI helps robots understand and act in real world
Humanoids Daily – Google DeepMind Unveils Gemini Robotics-ER 1.6

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *