- Caitlin Kalinowski dimite como jefa de robótica de OpenAI por desacuerdos de principios con el acuerdo con el Pentágono.
- La directiva critica la falta de salvaguardas claras frente a vigilancia masiva y autonomía letal sin control humano.
- OpenAI defiende el pacto como vía “responsable” para usar IA en seguridad nacional, con líneas rojas contra armas autónomas.
- La polémica provoca boicot de usuarios a ChatGPT y refuerza el debate ético sobre el uso militar de la inteligencia artificial.
La salida de Caitlin Kalinowski, responsable de hardware y robótica en OpenAI, ha encendido todas las alarmas en el sector tecnológico global. Su dimisión se produce pocos días después de que la compañía de Sam Altman anunciara un polémico acuerdo con el Departamento de Defensa de Estados Unidos para desplegar sus modelos de inteligencia artificial en entornos militares.
Este movimiento ha generado una reacción en cadena entre empleados, investigadores y usuarios, que cuestionan hasta qué punto es compatible la promesa de una IA “beneficiosa para la humanidad” con su integración en sistemas de defensa y operaciones clasificados. El caso ha llegado también a Europa, donde crece el escrutinio regulatorio y social sobre el uso de tecnologías de IA en contextos bélicos y de vigilancia.

Quién es Caitlin Kalinowski y por qué se marcha de OpenAI
Caitlin Kalinowski se incorporó a OpenAI en 2024 procedente de Meta, donde lideró equipos de hardware y realidad aumentada. En la empresa de Altman asumió la jefatura de hardware y robótica, un área estratégica que incluye desde brazos robóticos para tareas domésticas hasta el diseño de futuros dispositivos físicos impulsados por IA.
En un mensaje publicado en la red social X, la directiva explicó que su decisión fue “por principios” y no por conflictos personales con la cúpula de la compañía. Subrayó que mantiene un “profundo respeto” por Sam Altman y por el equipo con el que ha trabajado en el laboratorio de robótica de San Francisco y en los proyectos que la empresa tenía previstos en otras localizaciones.
La ingeniera insiste en que la inteligencia artificial puede desempeñar un papel relevante en la seguridad nacional, pero considera que hay límites que no se han debatido lo suficiente. Entre ellos cita con claridad la vigilancia de ciudadanos estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana, dos líneas rojas que en su opinión no recibieron la deliberación necesaria antes de anunciar el acuerdo con el Pentágono.
En mensajes adicionales, Kalinowski apuntó que se trata “ante todo, de una cuestión de gobernanza”: no ve aceptable cerrar acuerdos de este calibre de forma apresurada, sin contar con un proceso sólido de análisis interno ni con un debate público más amplio sobre sus consecuencias éticas y legales.
El acuerdo entre OpenAI y el Pentágono, en el centro de la tormenta
El detonante de la dimisión es el pacto entre OpenAI y el Departamento de Defensa de Estados Unidos para que los modelos de la compañía se utilicen en redes en la nube clasificadas del Pentágono. Según ha reconocido la propia empresa, la colaboración se orienta a ámbitos como la ciberseguridad, el análisis de inteligencia y la logística militar.
Este acuerdo llega después de que el Departamento de Defensa rompiera su relación con Anthropic, desarrolladora de Claude, por las fuertes restricciones que la compañía quería imponer al uso de sus modelos. Anthropic había fijado límites explícitos frente a la vigilancia masiva y el empleo de IA en armas autónomas, algo que el Pentágono llegó a describir como un “riesgo en la cadena de suministro”.
El movimiento abrió la puerta a que OpenAI asumiera un papel más protagonista en proyectos de seguridad nacional, en un contexto de competencia feroz entre gigantes tecnológicos por contratos con las fuerzas armadas estadounidenses. En paralelo, empresas como Google, Microsoft, Amazon o xAI mantienen también acuerdos de colaboración, aunque con matices distintos en cuanto a restricciones y usos permitidos.
El anuncio del entendimiento con el Pentágono fue duramente criticado por parte de la plantilla de OpenAI y por investigadores en IA, que alertan del riesgo de que estos sistemas se deslicen hacia aplicaciones de vigilancia masiva o capacidades bélicas autónomas si no existen controles claros y verificables.
La posición oficial de OpenAI: seguridad nacional con “líneas rojas”
Tras conocerse la renuncia de Kalinowski, OpenAI defendió públicamente su estrategia y aseguró que el acuerdo con el Pentágono incluye salvaguardas adicionales. En un comunicado, la compañía sostuvo que la colaboración “crea una vía viable para usos responsables de la IA en la seguridad nacional”.
La empresa insiste en que mantiene líneas rojas explícitas: sus modelos no deben emplearse para vigilancia doméstica de ciudadanos estadounidenses ni para desarrollar o desplegar armas autónomas letales. Según OpenAI, estas restricciones forman parte integral del pacto y se han trasladado al cliente gubernamental.
Sam Altman ha reconocido, no obstante, que el anuncio público del acuerdo se percibió como “apresurado” y “oportunista”, lo que alimentó la sensación de que la compañía ponía por delante la oportunidad de negocio frente a la reflexión ética. Ante la presión interna y externa, OpenAI afirma que seguirá dialogando con empleados, administraciones, organizaciones de la sociedad civil y comunidades internacionales.
En este contexto, la empresa se esfuerza por transmitir la idea de que la IA puede reforzar la seguridad nacional en campos como la defensa frente a ciberataques o la protección de infraestructuras críticas, sin cruzar la frontera de la vigilancia interna ni de la autonomía letal. Sin embargo, buena parte del debate gira en torno a la credibilidad y verificabilidad real de esas promesas.
Dimisión con eco global: reacción de usuarios, ONG y comunidad técnica
La renuncia de la jefa de robótica ha vuelto a poner el foco en el uso militar de la IA y ha alimentado campañas de boicot contra ChatGPT. Plataformas como QuitGPT.org animan a dejar de utilizar el asistente conversacional, alegando su cercanía a agencias gubernamentales estadounidenses y el riesgo de que sus capacidades se integren en sistemas de seguridad agresivos.
Según datos citados en medios tecnológicos, las desinstalaciones de la app móvil de ChatGPT se dispararon tras el anuncio del acuerdo con el Pentágono, mientras aumentaban las descargas de servicios alternativos como Claude. Este trasvase refleja una creciente polarización entre usuarios que priorizan el rendimiento y quienes dan más peso a la gobernanza ética de los proveedores.
En la comunidad técnica, varias voces llevan tiempo advirtiendo de que los equipos de seguridad y salvaguardas trabajan bajo una presión creciente, a menudo por detrás del ritmo de despliegue de modelos cada vez más potentes. Investigadores que han abandonado empresas del sector señalan que el impulso comercial y la carrera geopolítica por liderar la IA están relegando a un segundo plano las preocupaciones sobre derechos humanos y estabilidad global.
Organizaciones de la sociedad civil, incluidas ONG europeas defensoras de la privacidad y de la regulación estricta de la IA, han aprovechado el caso Kalinowski para reclamar que la UE mantenga un listón muy alto en la aplicación del Reglamento de Inteligencia Artificial y en la supervisión de los usos militares o de vigilancia de estos sistemas, incluso cuando se desarrollan fuera del territorio comunitario.
Impacto en la estrategia de robótica de OpenAI y contexto europeo
La salida de la responsable de robótica supone un golpe a las ambiciones de OpenAI en el terreno del hardware. La compañía llevaba meses experimentando con brazos robóticos para automatizar tareas cotidianas y explorando posibles alianzas industriales para llevar su tecnología más allá del software.
Aunque la robótica no es el núcleo del negocio de OpenAI, su integración con modelos avanzados de lenguaje e imagen se considera clave para la futura generación de sistemas físicos inteligentes. La marcha de Kalinowski podría ralentizar esta hoja de ruta o reorientar prioridades, sobre todo si la polémica con el Pentágono obliga a la empresa a volcar más recursos en gobernanza y comunicación.
En Europa, el debate sobre el uso militar de la IA se da en paralelo a la aprobación del Reglamento de IA de la UE, que clasifica como “alto riesgo” numerosas aplicaciones vinculadas a la seguridad y la vigilancia. Aunque el acuerdo de OpenAI se circunscribe al Departamento de Defensa de Estados Unidos, su caso se observa como un posible anticipo de los dilemas que afrontarán también empresas europeas.
Países de la UE y de la OTAN estudian cómo integrar capacidades de inteligencia artificial en sus ejércitos, pero se enfrentan a límites legales y éticos más estrictos que los de otras potencias. Para muchos reguladores europeos, episodios como la dimisión de Kalinowski confirman que es necesario establecer guardarraíles muy claros frente a la vigilancia masiva y las armas autónomas, incluso cuando se trate de socios estratégicos.
En este contexto, la ciudadanía europea observa con creciente atención hasta qué punto los proveedores de IA que operan globalmente están dispuestos a someterse a normas más exigentes en materia de derechos fundamentales, transparencia y rendición de cuentas, especialmente cuando sus tecnologías se aplican en defensa y seguridad.
La marcha de la jefa de robótica de OpenAI por su oposición al acuerdo con el Pentágono se ha convertido en un símbolo de las tensiones que atraviesan hoy el sector de la inteligencia artificial: por un lado, la promesa de innovación y seguridad; por otro, el temor a cruzar líneas rojas en vigilancia, autonomía letal y gobernanza democrática. Lo que para OpenAI es una “vía responsable” para colaborar con la defensa, para parte de su propio talento y de la comunidad internacional es una señal de alarma que impulsa a revisar, con mayor rigor, cómo y con qué límites se integra la IA en el poder militar.
