Meta permitirá a los padres bloquear sus chatbots de IA para adolescentes

Última actualización: octubre 18, 2025
  • Meta habilitará controles parentales para bloquear chats con chatbots de IA en cuentas de adolescentes.
  • Los tutores verán resúmenes de temas de las conversaciones, sin acceso al contenido completo.
  • El asistente Meta AI no podrá bloquearse, pero tendrá protecciones adecuadas a la edad.
  • Despliegue inicial en Instagram a principios del próximo año en EE. UU., Reino Unido, Canadá y Australia.

Controles parentales para chatbots de IA

Meta ha anunciado nuevos controles parentales para sus experiencias de inteligencia artificial, con el objetivo de que los padres puedan restringir o vetar las conversaciones que mantienen los adolescentes con los chatbots en sus plataformas. La compañía responde así a meses de críticas y a informes que advertían de interacciones inadecuadas entre bots y menores.

Estas funciones llegarán de forma gradual y permitirán a los tutores tomar decisiones más finas sobre el uso de la IA. Según Meta, la idea es ofrecer herramientas que faciliten la supervisión y el diálogo familiar, evitando al mismo tiempo invadir la privacidad de los jóvenes con accesos excesivos al contenido de los chats.

Qué podrán hacer los padres a partir del despliegue

El cambio más visible será la opción de desactivar por completo las conversaciones uno a uno entre adolescentes y los personajes de IA en Instagram. Además, quienes ejerzan la tutela podrán bloquear únicamente a determinados bots si consideran que su temática no es adecuada.

Habrá una excepción relevante: el asistente principal de la compañía, Meta AI (presente también en WhatsApp), no podrá bloquearse. Meta asegura que este asistente incorpora protecciones por defecto ajustadas a la edad y que su comportamiento se limitará a contenidos apropiados para adolescentes.

Otra novedad es un sistema de “resúmenes de temas” que informará a los padres sobre las materias que sus hijos tratan con los chatbots, sin dar acceso al historial completo de mensajes. Con ello, la empresa busca que las familias puedan hablar sobre el uso responsable de la IA sin necesidad de revisar palabra por palabra lo conversado.

En paralelo, la compañía dice que reforzará los criterios de seguridad que ya aplica en las cuentas de menores. Esto incluye el uso de señales automatizadas para detectar posibles cuentas de adolescentes que indiquen una edad falsa, y el bloqueo de respuestas que no encajen con las normas para usuarios jóvenes.

Bloqueo de bots de IA en redes sociales

Disponibilidad, mercados y otras protecciones anunciadas

El despliegue arrancará en Instagram a principios del próximo año, en una primera fase centrada en mercados de habla inglesa como Estados Unidos, Reino Unido, Canadá y Australia. La compañía ha adelantado su intención de extender estas funciones a Facebook y WhatsApp más adelante.

Meta afirma que las experiencias de IA dirigidas a adolescentes se regirán por un enfoque similar a la clasificación PG-13 del cine. De ese modo, los chatbots evitarán contenidos sensibles o inapropiados para esa franja de edad, como autolesiones, suicidio, trastornos alimentarios o interacciones de carácter romántico o sexual.

Funciones de seguridad para adolescentes en IA

En sus comunicaciones, la empresa sostiene que estas medidas se suman a protecciones ya existentes para cuentas jóvenes y que seguirán ajustándolas a medida que evolucionen tanto la tecnología como las preocupaciones de las familias. El objetivo es reducir el riesgo de respuestas inadecuadas y limitar el acceso de los menores a bots que no sean apropiados para su edad.

El anuncio llega después de que reguladores en EE. UU. intensificaran su escrutinio sobre el impacto de los chatbots en menores, y de reportajes que señalaron conversaciones provocativas entre bots y adolescentes en el pasado. Estas controversias han puesto presión sobre las tecnológicas para que aceleren la implantación de controles efectivos.

También se ha señalado que algunas funciones de seguridad aplicadas en años recientes no han funcionado como se esperaba en todos los casos. A la luz de esas críticas, Meta resalta que sus personajes de IA están diseñados para no entrar en temas que no sean aptos para adolescentes y que el comportamiento de los bots se ajustará de forma estricta a las políticas para menores.

Para los padres, la combinación de bloqueo de chats, veto a bots concretos y resúmenes de temas supone un cambio práctico: podrán intervenir cuando lo consideren necesario y, al mismo tiempo, contar con contexto para hablar con sus hijos sobre lo que están consultando sin revisar cada línea de los mensajes.

En la práctica, conviene que los adultos revisen con calma las opciones de supervisión familiar de Instagram cuando estas funciones estén disponibles y acuerden reglas claras con los menores sobre el uso de la inteligencia artificial. Establecer tiempos, temas adecuados y qué hacer ante respuestas dudosas ayuda a reducir riesgos y a generar confianza.

La acogida final dependerá de que las herramientas lleguen en plazo, funcionen bien en el día a día y se amplíen al resto de plataformas del grupo. Si las protecciones y los filtros se aplican de manera consistente, los tutores podrán ejercer un control más preciso sin convertir las redes en un entorno excesivamente restrictivo para los adolescentes.

Con este movimiento, Meta intenta ajustar el equilibrio entre innovación y responsabilidad: más controles para los adultos, límites más claros para los bots y una capa de transparencia que facilite conversaciones en casa, a la espera de su despliegue inicial y de su extensión a otros servicios.

Robot humanoide chino
Artículo relacionado:
El auge de los robots humanoides chinos: innovación, realismo y nuevos desafíos