- La CNMC cifra en más del 35% a los internautas que usan chatbots de IA de forma habitual en España; un 8,2% paga por estos servicios.
- Expertos y estudios alertan de fallos en la prevención del daño y de la facilidad para sortear salvaguardas en chats prolongados.
- Las administraciones avanzan hacia asistentes públicos: de bots informativos a agentes transaccionales y multimodales.
- Europa impulsa el marco del AI Act mientras en EE. UU. se propone la GUARD Act para restringir el acceso de menores a chatbots emocionales.

La conversación pública sobre los chatbots de inteligencia artificial ha dado un salto cualitativo en España: mientras su uso crece con fuerza entre los internautas, también se intensifica el debate sobre su impacto emocional, la protección de menores y el papel que deben asumir las administraciones.
En las últimas semanas se han cruzado datos oficiales, estudios académicos y propuestas normativas que dibujan un escenario complejo: adopción masiva, potencial para mejorar servicios y, a la vez, señales de riesgo cuando estas herramientas simulan empatía o se emplean en contextos de vulnerabilidad.
Uso y adopción en España: los datos que marcan tendencia
Según el Panel de Hogares de la CNMC (II-2025), más del 35% de los usuarios de Internet en España emplea de forma habitual algún chatbot de IA. La herramienta más popular es ChatGPT (30,6%), seguida por Gemini/Notebook LM (5,1%), Perplexity (1,8%), DeepSeek (1,5%) y Grok (1%).
Por primera vez, el regulador recoge información sobre pago por estos servicios: el 8,2% de quienes usan IA declara abonar una suscripción o similar. El contexto digital es masivo: el 93,8% de la población se conectó en los últimos tres meses y la mayoría lo hace varias veces al día.
Aunque el estudio incluye otros hábitos (motores de búsqueda, mensajería o redes), la foto que deja para los asistentes conversacionales es clara: penetración creciente y liderazgo de modelos generalistas, con un mercado que empieza a aceptar versiones de pago.
Estos datos llegan cuando se multiplican también las preguntas sobre seguridad, transparencia y formación de usuarios, elementos que, según expertos, deben ir de la mano de la adopción para evitar usos inadecuados en ámbitos sensibles.

Riesgos y casos que reavivan la discusión
Varias noticias han señalado a los chatbots de IA por su rol potencial en situaciones de autolesión, con especial atención a interacciones largas en las que las salvaguardas podrían diluirse. En un caso ampliamente citado en EE. UU., la familia de un menor demandó a OpenAI al considerar que el sistema no activó protocolos de prevención adecuados durante conversaciones prolongadas.
La compañía ha reconocido que ciertas protecciones pueden volverse menos fiables en intercambios extensos y ha anunciado controles parentales y mejoras para desescalar crisis, además de priorizar derivaciones a recursos profesionales; también indicó que retiró modelos anteriores tras lanzar su siguiente generación.
Desde la academia y la comunicación, voces como las de especialistas en España advierten que la IA, al simular cercanía, puede generar una “falsa empatía” si no comprende el contexto humano, y reclaman sistemas capaces de detectar señales de riesgo y activar derivaciones a profesionales de la salud mental.
Psicólogos clínicos consultados insisten en que, ante ideación autolítica o sufrimiento intenso, la vía prioritaria es la atención profesional. La interacción cara a cara ofrece retroalimentación y contención que una máquina no puede garantizar, especialmente con menores.

Evidencia científica y respuestas de la industria
En paralelo, investigaciones recientes aportan matices. Un trabajo en Psychiatric Services concluye que los principales modelos (ChatGPT, Claude y Gemini) responden razonablemente en consultas de bajo riesgo pero fallan más a medida que aumenta la complejidad. Asimismo, un análisis de la Universidad de Cornell señala que los modelos son “alarmantemente fáciles de eludir”.
OpenAI, por su parte, afirma que realiza actualizaciones continuas para proteger el bienestar de los usuarios, si bien no ha detallado cambios internos concretos ni ha aportado estudios propios recientes sobre la eficacia de sus intervenciones, remitiendo a su Centro de Ayuda.
Este cruce de posiciones refuerza un consenso emergente: los chatbots pueden ser útiles como orientación general o acompañamiento básico, pero no sustituyen a profesionales cuando hay señales de alarma ni deben actuar como terapeutas.
Administraciones públicas: del bot informativo al agente transaccional
Un informe de Anteverti en colaboración con Esade, centrado en 2030, describe la transición del sector público hacia infraestructuras cognitivas en las que chatbots y agentes inteligentes se integran en la atención al ciudadano. El documento plantea tres escenarios: conservador (informativo), disruptivo (personalización y trámites) y sistémico (ecosistema interoperable).
El estudio recoge referencias internacionales: Estonia y su plataforma Bürokratt, el asistente Boti en Buenos Aires (vía WhatsApp) y desarrollos multiservicio en Singapur o Dubái. En España, iniciativas como Línea Madrid, Clara o el servicio compartido de Cataluña muestran un mapa aún incipiente pero con margen de crecimiento.
Las claves que marca la hoja de ruta pasan por la interoperabilidad, la gobernanza del dato, equipos multidisciplinares y trazabilidad de decisiones automatizadas. Sin ello, advierte el informe, la confianza ciudadana y la legitimidad pueden verse afectadas.
La visión apunta a interacciones conversacionales 24/7 que traduzcan normativas a un lenguaje accesible y acompañen al ciudadano en su itinerario vital, pero exige rediseñar estructuras y adoptar estándares abiertos y colaboración público-privada.
Regulación y protección de menores
En Europa, el AI Act avanza de forma progresiva y España ha dado pasos en su despliegue normativo. La mirada internacional incorpora, además, el proyecto de ley GUARD Act en Estados Unidos, que propone restricciones estrictas al acceso de menores a chatbots de IA, con especial foco en los que simulan vínculos emocionales.
La propuesta bipartidista contempla verificación de edad robusta, avisos periódicos de que el interlocutor no es humano y la prohibición de aconsejar en ámbitos profesionales (médico, psicológico, legal) por parte del bot. Prevé multas de hasta 100.000 dólares por infracción y aplica también a proveedores internacionales que operen en EE. UU.
El objetivo, según sus impulsores, es frenar interacciones manipuladoras o peligrosas con menores. En paralelo, en la UE y España se exige más transparencia, responsabilidad algorítmica y claridad sobre la naturaleza no humana de estos sistemas.
Alfabetización digital, privacidad y recursos de ayuda
Expertos en cibercultura y comunicación recomiendan reforzar la educación digital y emocional para distinguir entre utilidad y entretenimiento, entender qué datos se comparten y cómo se procesan, y no confundir un chatbot con un amigo o terapeuta.
Las compañías señalan políticas de privacidad y medidas para proteger información sensible, si bien organizaciones académicas y sociales piden más transparencia y auditorías, además de diálogo entre desarrolladores, psicólogos, educadores y legisladores.
Si aparecen señales de alarma (desesperanza, aislamiento, apatía o verbalización de ideas autolíticas), la recomendación es acudir a profesionales y a recursos de atención. En España existen líneas como el 024 del Ministerio de Sanidad, el Teléfono de la Esperanza (717 003 717) y, para menores, la Fundación ANAR (900 20 20 10 y chat en su web).
El mapa que se dibuja combina uso creciente, potencial público y exigencia regulatoria: España lidera en adopción de chatbots en el entorno europeo, pero el reto está en fortalecer salvaguardas, formar a los usuarios y definir reglas claras para que la innovación llegue a la calle sin dejar atrás la seguridad y los derechos.
