- El exresponsable de seguridad de Figure AI acusa a la empresa de ignorar riesgos graves en el robot humanoide Figure 02.
- La demanda sostiene que el robot puede generar fuerza suficiente para fracturar el cráneo de un adulto y que faltaban protocolos de seguridad básicos.
- Figure AI niega las acusaciones, defiende sus estándares de seguridad y atribuye el despido del ingeniero a bajo rendimiento.
- El caso reabre el debate en EE. UU. y Europa sobre la regulación, la responsabilidad y la seguridad de los robots humanoides domésticos.

Los robots humanoides llevan tiempo prometiendo una revolución tranquila en casa: máquinas con aspecto humano preparadas para encargarse de tareas del día a día, moverse por el salón y convivir con las personas casi como si fueran un electrodoméstico más. En este contexto, la californiana Figure AI se había convertido en uno de los proyectos más llamativos del sector.
La compañía, fundada por Brett Adcock, se ha posicionado como uno de los referentes de la nueva ola de humanoides asistenciales, con una hoja de ruta que va desde prototipos de laboratorio hasta robots pensados para hogares y fábricas. Pero una nueva denuncia interna ha encendido todas las alarmas sobre la seguridad real de estos sistemas.
Figure AI organiza su catálogo en tres generaciones de robots humanoides: Figure 01, un primer experimento funcional; Figure 02, el modelo intermedio centrado en la manipulación precisa; y Figure 03, concebido para producción masiva y uso extendido en entornos domésticos y profesionales. La visión corporativa es clara: que estos dispositivos se integren en la vida cotidiana sin fricciones visibles.
Tras esa apariencia de ayudante discreto, la denuncia sugiere que la potencia mecánica oculta bajo el chasis metálico puede llegar a convertirse en un riesgo serio si algo falla o si no se aplican controles estrictos. El caso ha estallado justo cuando el interés por los humanoides y la IA generativa está en máximos, también en Europa y España.
con un exdirectivo apuntando directamente a la cúpula de Figure AI y al diseño de su modelo estrella para tareas de precisión, el conflicto ha salido a la luz desde dentro de la propia empresa.
La demanda del exjefe de seguridad: un robot capaz de romper un cráneo humano
El 21 de noviembre de 2025, Robert Gruendel, que había sido responsable de seguridad de producto en Figure AI, presentó una demanda federal en California. En el escrito acusa a la empresa de haber hecho caso omiso a advertencias cruciales sobre la fuerza real de sus robots, en especial del modelo Figure 02.
Según la versión de Gruendel, el Figure 02 es un humanoide con capacidad de generar suficiente fuerza de impacto como para fracturar el cráneo de una persona adulta en determinadas condiciones. No se trata de un simple cálculo teórico: el ingeniero cita incidentes en pruebas internas para respaldar sus advertencias.
En una de esas pruebas, el robot habría golpeado accidentalmente un frigorífico con tal intensidad que llegó a abollar la superficie. Para el denunciante, el mismo tipo de golpe sobre la cabeza de un ser humano podría resultar letal. Ese episodio se convirtió en uno de los ejemplos clave que, afirma, presentó a la dirección como muestra del peligro potencial.
Gruendel sostiene que elevó estos riesgos a los máximos responsables de la empresa, entre ellos el CEO Brett Adcock y el ingeniero jefe Kyle Edelberg. Su propuesta de hoja de ruta de seguridad, con medidas adicionales y protocolos internos más exigentes, habría sido ignorada y finalmente eliminada de los planes oficiales después de una ronda de financiación millonaria.
Poco tiempo después de insistir en estas advertencias, el exjefe de seguridad fue despedido. Él lo califica de represalia directa por su insistencia en reforzar la seguridad del proyecto, mientras que la compañía alega que fue una simple decisión por supuesto bajo rendimiento.
Qué recoge la denuncia sobre la seguridad interna de Figure AI
En la documentación presentada ante el tribunal, Gruendel describe un entorno en el que faltaban procedimientos formales de seguridad desde el inicio del desarrollo del humanoide. Asegura que no había un sistema sólido de informes de incidentes ni un análisis de riesgos específico para cada fase de las pruebas.
El exresponsable también sostiene que el único perfil externo vinculado a la seguridad era un contratista sin experiencia real en robótica. En un sector donde los robots colaborativos y los humanoides comparten espacio físico con trabajadores y usuarios, la ausencia de especialistas con trayectoria en seguridad robótica sería, a su juicio, especialmente preocupante.
Otro punto delicado de la denuncia se refiere al diseño físico del robot. Gruendel afirma que, en etapas tempranas, se planteó incorporar botones de parada de emergencia visibles (E-Stop) y otros elementos de corte rápido de la energía, pero que algunos de esos componentes se descartaron por motivos puramente estéticos, al no encajar con la apariencia minimalista que la empresa buscaba.
Además, el exjefe de seguridad asegura que el plan de seguridad que había preparado fue modificado antes de ser compartido con inversores, lo que él interpreta como un intento de ofrecer una imagen más pulida y menos problemática del proyecto. Para Gruendel, esto podría rozar prácticas engañosas de cara a quienes han aportado capital.
En conjunto, el relato dibuja una cultura corporativa en la que plazos y la captación de financiación habrían pesado más que la implementación de barreras de seguridad robustas, al menos en la fase de desarrollo del Figure 02.
La respuesta de Figure AI: acusaciones falsas y total confianza en sus procesos
Figure AI ha reaccionado de forma tajante y rechaza completamente la versión ofrecida por su exjefe de seguridad. En sus comunicados oficiales, la compañía califica las acusaciones de falsas y avanza que se defenderá con firmeza en los tribunales.
La empresa insiste en que la seguridad forma parte del diseño de todos sus modelos desde la primera fase de ingeniería y que los equipos de hardware y software trabajan bajo estándares rigurosos. Según su postura, el relato de Gruendel muestra una imagen sesgada del funcionamiento interno del proyecto Figure 02.
Respecto al despido, la firma mantiene que la salida del trabajador no tuvo ninguna relación con sus advertencias, sino con un supuesto bajo rendimiento y con evaluaciones internas negativas. Para la compañía, vincular la ruptura de la relación laboral con las preocupaciones de seguridad sería una forma de reforzar una narrativa que no se corresponde con la realidad.
Figure AI también subraya que se encuentra en un contexto de innovación acelerada en el ámbito de la robótica humanoide, con una fuerte presión competitiva internacional. En este escenario, sostiene que nunca ha recortado controles esenciales ni ha relegado la seguridad a un segundo plano, pese a lo que afirman los documentos judiciales.
En resumen, el choque entre ambas partes se centra en si la empresa ha priorizado, o no, la seguridad por encima del diseño y la velocidad de desarrollo en el Figure 02, un modelo clave en su estrategia para llegar tanto a fábricas como, a medio plazo, a hogares de todo el mundo.
Un catálogo ambicioso y un plan para llevar humanoides a hogares y fábricas
Más allá del conflicto legal, la denuncia llega en un momento en el que Figure AI trabaja para desplegar decenas de miles de robots en entornos reales. El plan de la compañía incluye tanto plantas industriales como posibles aplicaciones domésticas con el futuro Figure 03.
El primer modelo, Figure 01, fue concebido como prototipo inicial para validar locomoción y capacidades básicas. Con el Figure 02, la empresa dio el salto a un humanoide centrado en manipulación fina y tareas más complejas, lo que exige motores más potentes y algoritmos de control más sofisticados.
Figure 03, la tercera iteración, se plantea ya como plataforma escalable para producción en serie, destinada a operar en grandes volúmenes tanto en entornos industriales como, en una fase posterior, en viviendas. La visión de la empresa es que estos robots sean capaces de trabajar en almacenes, líneas de montaje o cocinas domésticas con relativa autonomía.
El problema de fondo que refleja la denuncia es precisamente esa tensión: cuanto más capaces y fuertes son estos humanoides, más importante se vuelve blindar su interacción con las personas. En Europa y España, donde el despliegue de robótica colaborativa crece con rapidez, esta discusión no es ajena.
Los reguladores europeos ya han empezado a estudiar marcos específicos para sistemas de IA de alto riesgo, y el auge de los humanoides introduce una pieza nueva en el puzzle: máquinas con apariencia casi humana y fuerza industrial moviéndose entre personas en oficinas, hospitales o domicilios.
Seguridad, regulación y el impacto potencial en Europa y España
El caso Figure AI ha despertado inquietud más allá de Estados Unidos, especialmente en mercados como el europeo, donde España y otros países comunitarios observan con atención el avance de la robótica humanoide. Aunque la demanda se tramita en California, las lecciones que deje el proceso pueden influir en cómo se diseñan futuras normativas en la UE.
Si se confirma que un humanoide doméstico puede, sin las salvaguardas adecuadas, ejecutar movimientos con fuerza potencialmente letal, el debate regulatorio se intensificará. Se abren cuestiones sobre quién asume la responsabilidad en caso de accidente: el fabricante, el integrador, el propietario o incluso el desarrollador del software de control.
En el ámbito europeo, el nuevo marco regulatorio sobre inteligencia artificial ya contempla obligaciones más estrictas para sistemas considerados de alto riesgo. La robótica humanoide, especialmente cuando comparte espacio físico con ciudadanos, encaja de lleno en las categorías que pueden requerir auditorías periódicas, certificaciones técnicas y trazabilidad de decisiones algorítmicas.
Para España, donde ya se experimenta con robots colaborativos en logística, comercio y servicios, una polémica como la de Figure AI funciona como aviso a navegantes. Las empresas que quieran introducir humanoides en supermercados, centros logísticos o incluso en viviendas deberán demostrar no solo rendimiento, sino niveles de seguridad equiparables a los de cualquier otra máquina industrial.
En paralelo, la opinión pública europea suele ser más sensible a los riesgos tecnológicos que otros mercados. Casos como este podrían influir en la aceptación social de tener un humanoide compartiendo espacio en el hogar, sobre todo si se percibe que la industria no está alineada con unas reglas de juego claras y exigentes.
Al margen de cómo termine la batalla legal, la denuncia contra Figure AI y la defensa férrea de la compañía ponen sobre la mesa un dilema que afecta al conjunto del sector: hasta qué punto se puede acelerar la llegada de robots humanoides a la vida cotidiana sin que la seguridad, la transparencia y la supervisión independiente se queden atrás.
