- Un exjefe de seguridad acusa a Figure AI de ignorar riesgos críticos en el robot humanoide Figure 02
- Las pruebas internas habrían demostrado una fuerza "aproximadamente el doble" de la necesaria para fracturar un cráneo
- La empresa niega las acusaciones, defiende sus protocolos y atribuye el despido del ingeniero a bajo rendimiento
- El caso reabre el debate en Europa sobre seguridad, regulación y despliegue masivo de robots humanoides

Los robots humanoides se han vendido durante años como la próxima gran revolución doméstica: máquinas con apariencia humana capaces de limpiar, ordenar y colaborar con las personas en su día a día casi como si fueran un electrodoméstico avanzado. La estadounidense Figure AI, muy presente en el debate global sobre robótica, se ha situado en el centro de esa carrera con una familia de modelos pensados para entornos industriales y, en el futuro, para el hogar.
Sin embargo, lo que debía ser una historia de innovación se ha convertido en un caso delicado sobre seguridad, fuerza “letal” y presuntos recortes en los controles internos. Una demanda federal presentada en Estados Unidos por su anterior responsable de seguridad de producto asegura que uno de sus robots, el Figure 02, tendría potencia suficiente como para fracturar el cráneo de un adulto, y que la empresa habría desoído advertencias explícitas sobre estos riesgos.
Del sueño del asistente universal al foco judicial
Figure AI, con sede en California y fundada por Brett Adcock, estructura su apuesta en tres generaciones de humanoides: Figure 01, Figure 02 y el reciente Figure 03. El primero fue un prototipo inicial; el segundo, un modelo de propósito general orientado a trabajos físicos en fábricas; y el tercero, una versión más compacta y ligera, concebida para tareas domésticas como recoger habitaciones, cargar el lavavajillas o doblar la ropa.
La compañía presume de un desarrollo apoyado en su propio sistema de inteligencia artificial, Helix, y de unos planes de fabricación ambiciosos que apuntan a decenas de miles de unidades anuales. Figure 02, pese a no venderse al público, ya ha trabajado en una planta de BMW en Estados Unidos, donde colaboró en líneas de montaje y ayudó a producir más de 30.000 vehículos en un despliegue de unos once meses.
Este contexto de crecimiento acelerado y valoración millonaria —la firma alcanzó una tasación de alrededor de 39.000 millones de dólares (unos 33.600 millones de euros) tras una ronda liderada por Parkway Venture Capital, con inversores de peso como Jeff Bezos, Nvidia o Microsoft— es el telón de fondo de la demanda que ha destapado las dudas sobre la seguridad real de sus robots.
Lo que debería ser un escaparate de tecnología puntera se ha transformado en un ejemplo de hasta qué punto la fuerza de un humanoide puede chocar con la ausencia de controles y supervisión externa, un asunto que también preocupa a reguladores europeos mientras se plantean normas para robots que convivan con personas.

La denuncia: un robot capaz de fracturar un cráneo humano
El 21 de noviembre de 2025, Robert Gruendel, exingeniero principal de seguridad en robótica de Figure AI, presentó una demanda ante un tribunal federal del Distrito Norte de California. En el escrito legal sostiene que la empresa ignoró riesgos graves asociados al modelo Figure 02 y que, tras insistir en sus advertencias, terminó siendo despedido.
La acusación central es directa: las pruebas internas habrían demostrado que el robot Figure 02 puede generar una fuerza aproximadamente el doble de la necesaria para fracturar el cráneo de una persona adulta. Durante uno de los ensayos, el humanoide habría impactado accidentalmente contra un frigorífico de acero, dejando una abolladura de unos seis milímetros. Según el ingeniero, si ese golpe hubiera alcanzado a un trabajador, el resultado podría haber sido catastrófico.
En los documentos presentados al juez se describen movimientos a “velocidad sobrehumana” y golpes hasta veinte veces por encima del umbral del dolor medido en las pruebas. A partir de esos datos, Gruendel concluyó que el robot poseía una potencia con capacidad potencialmente letal si algo fallaba o se producía un malentendido en su funcionamiento.
El demandante asegura que elevó estas preocupaciones de forma formal y documentada a la cúpula, incluyendo al CEO Brett Adcock y al ingeniero jefe, Kyle Edelberg. Pocos días después de trasladar sus advertencias de manera más contundente, fue despedido en septiembre, algo que él interpreta como una represalia por insistir en la seguridad. Sus abogados hablan de “despido improcedente” y solicitan compensaciones económicas, daños punitivos y un juicio con jurado.
Ausencia de protocolos y hoja de ruta de seguridad modificada
Uno de los puntos más espinosos del caso tiene que ver con la supuesta falta de procedimientos formales de seguridad en los primeros compases del desarrollo. Según la demanda, no había un sistema robusto para registrar incidentes, analizar riesgos específicos ni establecer controles claros en la interacción entre los robots y los empleados.
Gruendel describe que el único apoyo externo en materia de seguridad era un contratista sin experiencia real en robótica, y que muchas de las medidas que él consideraba esenciales se trataron más como un estorbo que como un requisito. Entre los ejemplos citados figura la eliminación, en una fase previa, de ciertos controles críticos como un botón de parada de emergencia (E‑Stop) porque, supuestamente, no encajaba con la estética del diseño del robot.
El exresponsable de seguridad también cuestiona el uso que la empresa hizo de una “hoja de ruta de seguridad” presentada a potenciales inversores. Según su versión, ese plan habría sido un elemento clave para convencer a fondos que luego aportarían cientos de millones de dólares, pero parte de las medidas recogidas se fueron recortando después de cerrar la inversión, algo que, a su juicio, podría interpretarse como engañoso.
En el relato de la demanda, las preocupaciones de seguridad “fueron tratadas como obstáculos, no como obligaciones”. Cuando el ingeniero insistió en que no se rebajasen los estándares que se habían mostrado a los inversores, se encontró —siempre según su versión— con una respuesta defensiva de la empresa y, finalmente, con su salida alegando un “cambio de dirección del negocio”.
La versión de Figure AI: acusaciones falsas y despido por bajo rendimiento
Figure AI, por su parte, rechaza de plano las acusaciones de Gruendel y defiende que el despido se debe únicamente a bajo rendimiento. Un portavoz de la compañía ha afirmado que los señalamientos del exingeniero son “falsedades” y que la firma está preparada para rebatirlos en los tribunales.
En sus comunicados públicos, la empresa insiste en que sus equipos trabajan con “estándares rigurosos” y que la seguridad está integrada en el diseño de cada modelo, desde el prototipo Figure 01 hasta el más avanzado Figure 03. La dirección sostiene que el relato de la demanda presenta una imagen distorsionada de los procesos internos y no refleja cómo se gestionan realmente los ensayos, los incidentes y la evaluación de riesgos.
La compañía también subraya que se encuentra en un contexto de innovación muy rápida, con múltiples iteraciones de hardware y software, y que eso no implica, en ningún caso, recortar controles esenciales. De hecho, remarcan que el Figure 02 no se comercializará y que buena parte de lo aprendido en su despliegue se ha volcado en el diseño y la arquitectura del nuevo Figure 03.
En este choque de versiones, el procedimiento judicial será el encargado de dilucidar si hubo realmente negligencia, recortes de seguridad injustificados o fraude hacia los inversores, o si, como sostiene la empresa, todo responde a un conflicto laboral particular magnificado por el contexto mediático en torno a los robots humanoides.
Figure 02: potencia industrial y retirada tras el estreno de Figure 03
Más allá del litigio, el modelo en el centro del huracán, Figure 02, se diseñó como un humanoide de propósito general para trabajos físicos intensivos. Su fuerza se describe oficialmente como “equivalente a la humana”, suficiente para manipular piezas de fabricación, cargar objetos pesados y operar herramientas en entornos industriales.
Durante su periodo de pruebas, este robot se desplegó en una fábrica de BMW en Estados Unidos, donde trabajó en una línea de montaje de vehículos durante aproximadamente once meses. Allí habría colaborado en la producción de más de 30.000 coches, lo que la empresa presentó como una demostración de que los humanoides pueden integrarse en procesos reales sin interrumpir la cadena productiva.
Tras anunciar el lanzamiento del Figure 03 —más bajo (aprox. 1,68 metros), más ligero (alrededor de 61 kilos) y orientado a tareas domésticas—, Figure AI comunicó que retiraba progresivamente el modelo 02 y que aprovecharía ese bagaje para mejorar la seguridad, la eficiencia y el control de la nueva generación.
Aunque el Figure 02 no llegará al mercado de consumo, las dudas generadas por la demanda se proyectan sobre cualquier humanoide que pueda compartir espacio con personas en hogares, comercios u hospitales, un escenario que también se empieza a estudiar en Europa ante el posible despliegue de este tipo de robots en centros logísticos, residencias o servicios públicos.
Un debate que también mira a Europa: fuerza, convivencia y regulación
El caso Figure AI llega en un momento en el que la industria global de los humanoides está en plena ebullición, con actores como Tesla, Agility o Sanctuary compitiendo por colocar robots en fábricas, almacenes y, a medio plazo, en casas particulares. En la Unión Europea, donde la regulación tecnológica tiende a ser más estricta, este tipo de situaciones se observa con especial atención.
La cuestión clave es cómo garantizar que un robot con fuerza suficiente para manipular cargas o realizar tareas complejas pueda convivir con personas sin ponerlas en riesgo. En un entorno doméstico, un fallo de software, una mala calibración o un error al interpretar una orden podrían tener consecuencias muy diferentes a las de un fallo en una máquina fija y aislada.
Los reguladores europeos ya han puesto el foco en los sistemas de IA, pero los humanoides añaden una capa física de riesgo: no solo procesan datos, también mueven brazos, giran el torso, caminan y pueden impulsar objetos con gran energía. Esto obliga a repensar certificaciones, auditorías independientes y protocolos de parada de emergencia específicos para máquinas diseñadas para estar cerca de las personas.
Desde el punto de vista de la política industrial, el viejo dilema entre competitividad e innovación rápida, por un lado, y seguridad y supervisión exhaustiva, por otro, vuelve a la mesa. Europa aspira a beneficiarse de la automatización avanzada en fábricas, centros logísticos o servicios, pero también quiere evitar que un accidente grave con un humanoide erosione la confianza pública y frene la adopción de la tecnología.
Mientras el caso se dirime en Estados Unidos, no es descabellado pensar que las autoridades europeas y españolas utilicen este ejemplo como referencia a la hora de perfilar futuros marcos normativos sobre robots móviles y humanoides, especialmente aquellos con fuerza suficiente para causar daños graves si algo sale mal.
Una industria prometedora bajo la lupa de la seguridad
Los planes de Figure AI son ambiciosos: con la IA Helix al mando del control y la planificación de tareas, la empresa prevé alcanzar ritmos de producción de unas 12.000 unidades al año y llegar a las 100.000 en apenas cuatro años, cifra que, de lograrse, situaría a sus humanoides como un actor importante en la robotización global.
Sin embargo, la denuncia de Gruendel recuerda que, si se pasan por alto los límites, una innovación prometedora puede convertirse en una fuente de riesgo para los propios equipos que la desarrollan. El incidente del frigorífico abollado, aun sin daños personales, es un ejemplo de cómo una combinación de fuerza elevada y falta de protecciones puede disparar las alarmas.
Para que estos robots puedan operar en hogares, hospitales, comercios o fábricas europeas con tranquilidad, no bastará con mensajes tranquilizadores de las empresas. Serán necesarias normas claras sobre paros de emergencia, zonas de exclusión, sensores redundantes, evaluación continua de riesgos y, probablemente, seguros específicos que cubran daños derivados de fallos mecánicos o de software.
El debate no gira solo en torno a Figure AI: plantea una pregunta de alcance más amplio para todo el sector robótico. ¿Cómo se equilibra la presión por sacar cuanto antes un humanoide competitivo al mercado con la obligación de garantizar que un robot capaz de levantar peso o moverse a gran velocidad no se convierta, por error, en una amenaza para quien tiene al lado?
El caso del robot de Figure AI con fuerza para fracturar un cráneo humano sirve como recordatorio incómodo de que la robótica avanzada no es solo cuestión de algoritmos brillantes y rondas de financiación espectaculares: también exige una cultura de seguridad sólida, controles independientes y una regulación a la altura antes de que estas máquinas compartan de forma masiva espacios con las personas en España, en Europa y en el resto del mundo.