Ethereum impulsa la privacidad de conocimiento cero para chatbots de IA

Última actualización: febrero 15, 2026
  • Nuevo modelo de privacidad para chatbots de IA basado en depósitos únicos y pruebas de conocimiento cero.
  • Separación entre identidad y uso: el proveedor cobra con garantías sin poder vincular peticiones a una persona concreta.
  • Mecanismos antiabuso con rate-limit nullifiers y sistema de doble stake que desincentiva el spam y el uso ilegal.
  • Enfoque alineado con Europa, donde la protección de datos y el cumplimiento normativo son claves en servicios de IA.

Privacidad de conocimiento cero en chatbots de IA

La expansión de los chatbots de inteligencia artificial en servicios públicos y privados ha puesto en el punto de mira un problema delicado: qué ocurre con los datos que los usuarios comparten cada vez que escriben una consulta. En un contexto europeo marcado por normas como el RGPD y el futuro marco de IA de la UE, y en contraste con otras aproximaciones regulatorias como el control sobre chatbots de IA, garantizar que estas conversaciones no se conviertan en un historial rastreable es ya una cuestión prioritaria.

Ante este escenario, Vitalik Buterin y Davide Crapis, figura clave en el área de IA de la Ethereum Foundation, han presentado un modelo técnico que busca ofrecer privacidad de conocimiento cero para las interacciones con chatbots, sin dejar desprotegidos a los proveedores de servicio frente al spam, el doble gasto o los intentos de uso malicioso. Su propuesta plantea una arquitectura donde los usuarios pueden pagar y usar modelos de lenguaje a gran escala, como los que hacen posible convertir asistentes en un chatbot accesible desde cualquier pantalla, sin que sus peticiones queden vinculadas a su identidad.

El problema actual: identidad y uso van de la mano

Hoy en día, la mayoría de servicios de IA conversacional requieren inicios de sesión con correo electrónico, cuentas personales o tarjetas de crédito, lo que convierte cada pregunta al chatbot en un dato potencialmente asociable a una persona concreta. Esta unión entre identidad, método de pago y registros de uso abre la puerta a elaborar perfiles exhaustivos y, en el peor de los casos, a que el historial de consultas se utilice en procedimientos legales.

Los proveedores de IA suelen almacenar de manera sistemática los logs de las llamadas a sus API, tanto por motivos de seguridad como de mejora del servicio. Sin embargo, en entornos donde se tratan datos muy sensibles —por ejemplo, información de salud, situación laboral o financiera—, esta práctica choca de frente con las exigencias de minimización de datos y confidencialidad que marcan las autoridades europeas de protección de datos.

Algunos podrían pensar que la solución pasa por utilizar pagos en blockchain por cada solicitud, pero esta vía tampoco resuelve el problema. Las transacciones on-chain son públicas, más lentas y con comisiones, de modo que cada pago se convierte en un rastro permanente y fácilmente analizable, algo poco compatible con la protección de la intimidad que reclaman tanto los usuarios como los reguladores en España y el resto de la UE.

En la práctica, los proveedores se ven forzados a elegir entre modelos basados en identidad, que concentran riesgos de privacidad, o esquemas de pago por uso en cadena, que son ineficientes, caros y totalmente rastreables. Según Buterin y Crapis, ambos caminos son claramente subóptimos en un entorno donde el volumen de interacciones con IA no deja de crecer.

Un sistema de depósitos para miles de llamadas API privadas

Modelo de depósitos para privacidad en chatbots

La propuesta de los desarrolladores de Ethereum plantea un enfoque distinto: el usuario realiza un único depósito en un contrato inteligente y a partir de ahí puede efectuar miles de consultas a un modelo de lenguaje sin revelar su identidad ni permitir que esas solicitudes queden enlazadas entre sí.

En un ejemplo sencillo, una persona podría ingresar 100 USDC en un smart contract y a continuación realizar, por decir, 500 llamadas a un chatbot de IA alojado por un proveedor. Desde el punto de vista del servidor, solo llegan 500 peticiones válidas y pagadas, pero el sistema no le ofrece ninguna pista para determinar si proceden de un mismo usuario o de cientos distintos.

El truco está en que, en lugar de exponer saldos o identidades, el usuario demuestra mediante pruebas de conocimiento cero que su consumo acumulado no supera el importe que depositó inicialmente ni el que corresponde a posibles reembolsos. Es decir, la plataforma sabe que la cuenta «cuadra» matemáticamente, pero no ve quién está detrás ni qué relación hay entre las consultas.

Este diseño permite que los pagos queden garantizados —algo fundamental para que los proveedores mantengan el servicio sin pérdidas— mientras se preserva una fuerte desvinculación entre las llamadas a la API y el usuario real. Para el usuario europeo preocupado por la privacidad, esto significa poder usar un chatbot de IA de alta calidad sin generar un historial fácilmente asociable a su identidad civil.

Además, el sistema está pensado para que las interacciones sigan siendo eficientes y escalables. En lugar de ejecutar una transacción en una cadena de bloques por cada pregunta al chatbot, el depósito único reduce la fricción y los costes, algo relevante tanto para particulares como para empresas de la UE que integran IA en sus procesos internos.

Rate-limit nullifiers y pruebas ZK-STARK contra el doble gasto

Garantizar el anonimato no basta; el sistema también tiene que ser resistente a intentos de abuso, como el consumo excesivo de recursos, ataques automatizados o intentos de saltarse los límites de uso. Para ello, la propuesta recurre a una herramienta conocida en el ecosistema Ethereum: los rate-limit nullifiers (RLN).

Estos RLN permiten que cada solicitud que se hace al modelo de IA lleve asociado un identificador criptográfico único, generado de tal forma que el servidor puede detectar si alguien intenta reutilizarlo o sobrepasar los topes definidos, sin tener que conocer la identidad del usuario ni su historial real de interacciones.

En paralelo, se emplean pruebas ZK-STARK para demostrar de manera verificable que el gasto acumulado que el usuario declara, representado mediante un índice de ticket, se mantiene dentro de los límites de su depósito inicial y de cualquier devolución que haya podido recibir. El proveedor solo ve que el cálculo es correcto, pero no tiene acceso a datos adicionales que permitan reconstruir la actividad del usuario.

Si alguien intentara realizar un doble gasto o eludir las restricciones, las pruebas dejarían de cuadrar y el sistema podría identificar que se ha producido un comportamiento irregular. Todo esto se ejecuta sin necesidad de fichar al usuario, lo que encaja con las recomendaciones de privacidad por diseño que impulsan tanto la Agencia Española de Protección de Datos como otros reguladores europeos.

Este tipo de enfoque técnico abre la puerta a que servicios de IA utilizados por administraciones públicas, bancos o aseguradoras en Europa puedan apoyarse en mecanismos criptográficos auditables, en lugar de recopilar datos personales masivos, para gestionar la facturación y el control de abusos.

Sistema de doble stake para frenar contenido ilegal y uso malicioso

Sistema de doble stake para controlar abusos

Buterin y Crapis también ponen el foco en otro frente delicado: el uso de chatbots para generar contenido ilegal o dañino, como instrucciones para fabricar armas, intentos de jailbreaking para desactivar las salvaguardas de seguridad o cualquier otro tipo de violación de las políticas de uso fijadas por el proveedor.

Para disuadir este tipo de comportamientos, proponen un sistema de doble stake. La idea es que el usuario, además del depósito que cubre el coste de sus consultas, tenga una cantidad en juego que puede ser reducida o confiscada si se demuestra criptográficamente que ha intentado engañar al protocolo o ha incurrido en conductas prohibidas.

En los supuestos de doble gasto o fraude técnico, cualquiera —incluido el propio servidor— puede reclamar parte del depósito del infractor, de forma que existe un incentivo económico para vigilar y denunciar abusos. Esta lógica de recompensas y penalizaciones está alineada con los sistemas de seguridad que ya se utilizan en otros protocolos de la red Ethereum.

Cuando el problema es una violación de los términos de servicio (por ejemplo, solicitar al modelo que ayude a eludir criterios de seguridad o a preparar actividades ilegales), el diseño prevé que el depósito del usuario sea enviado a una dirección de quema irrecuperable. Esta acción queda registrada en la cadena de bloques como un evento de slashing, pero sin exponer quién está detrás de las consultas.

Aunque la identidad concreta del infractor se mantiene oculta, la comunidad puede auditar públicamente la tasa de quemas de depósitos y los datos criptográficos asociados a esas sanciones. De este modo es posible controlar que el servidor no abuse de su poder, algo especialmente relevante en jurisdicciones como la europea, donde la proporcionalidad y la transparencia en la aplicación de medidas sancionadoras son elementos centrales.

Esta combinación de incentivos y castigos pretende ofrecer un equilibrio: usuarios honestos anónimos y usuarios maliciosos económicamente penalizados, sin obligar a introducir identificadores tradicionales como DNI, correo corporativo o tarjetas bancarias, que tantas tensiones generan desde la óptica de la privacidad.

La arquitectura propuesta por los desarrolladores de Ethereum muestra que es técnicamente viable construir chatbots de IA que cobren por uso, apliquen límites y sancionen abusos sin que el proveedor pueda elaborar expedientes detallados sobre qué ha preguntado cada persona. Para España y el resto de Europa, donde la protección de datos es un pilar regulatorio y social, este tipo de soluciones de conocimiento cero apunta a convertirse en una herramienta clave para desplegar servicios de IA conversacional a gran escala sin renunciar a la confidencialidad ni a la trazabilidad económica necesaria para sostener el modelo de negocio.

chatbots de IA
Artículo relacionado:
Chatbots de IA: auge, riesgos y regulación en España