Así es como puedes usar la IA de forma anónima, según los desarrolladores de Ethereum
Cada vez más personas usan chatbots de IA, pero también existe un lado oscuro. Cada pregunta que formulas suele dejar un rastro. Y si un proveedor de IA vincula tu uso a tu correo electrónico, tu tarjeta de crédito u otros datos personales, eso puede tener grandes consecuencias para tu privacidad.
Vitalik Buterin, fundador de Ethereum, y Davide Crapis, líder de IA de la Ethereum Foundation, presentan ahora una propuesta para resolver este problema. Su idea es que puedas usar IA sin que una empresa sepa quién eres, mientras el proveedor recibe su pago y puede prevenir abusos.
Por qué la privacidad en la IA es importante ahora
Los chatbots de IA procesan a menudo información sensible. Piensa en documentos de trabajo, problemas personales, preguntas médicas o datos confidenciales de empresas. Si esos datos se filtran o si luego se vincula tu uso con tu identidad, puede generar desagradables riesgos legales y de seguridad.
Según Buterin y Crapis, ahí es precisamente donde está el problema actual. Muchos servicios de IA requieren iniciar sesión con datos personales. Eso es útil para el proveedor, pero malo para el usuario.

La opción suele ser mala o aún peor
Los desarrolladores dicen que, en este momento, los proveedores de IA tienen básicamente dos opciones, y ninguna es ideal.
La primera opción es el acceso mediante identidad. Pagas, por ejemplo, con tarjeta de crédito y creas una cuenta con tu correo electrónico. Eso es eficiente, pero también significa que tus preguntas y tu identidad pueden vincularse.
La segunda opción es pagar por pregunta a través de la blockchain. Suena privado, pero según ellos en la práctica es lento, caro y fácil de rastrear. Cada pago queda visible en la blockchain.
Hacer preguntas de forma anónima
La nueva propuesta funciona de otra manera.
En lugar de pagar por cada pregunta por separado, depositas una sola vez fondos en un contrato inteligente. Luego puedes hacer miles de preguntas a un modelo de IA sin que el proveedor sepa quién eres ni qué preguntas haces.
Ponen como ejemplo que alguien deposita 100 USDC y luego realiza 500 preguntas a un chatbot de IA. El proveedor recibe 500 solicitudes pagadas, pero no puede ver que todas vienen de la misma persona. Y eso es precisamente la idea.
La técnica detrás de la idea
Buterin y Crapis quieren usar pruebas de conocimiento cero, una técnica que tal vez conozcas de las criptomonedas. Explicado de forma sencilla, esto permite demostrar que tienes derecho a hacer algo sin revelar quién eres o qué datos usas exactamente.
En este caso demuestras que tienes saldo suficiente para pagar sin que tu identidad ni tus preguntas anteriores queden visibles.
Usar IA de forma anónima suena genial, pero también conlleva un riesgo. Si nadie sabe quién eres, es más fácil cometer abusos.
Por eso, Buterin y Crapis proponen un sistema en el que dejas una especie de fianza. Y si no cumples las normas, pierdes esa fianza.
Incluso quieren una doble protección:
- Si alguien intenta hacer fraude, por ejemplo pagando doble o engañando al sistema, la fianza puede reclamarse por otros, incluso por el servidor.
- Si alguien viola las normas del proveedor de IA, por ejemplo pidiendo contenido prohibido, el dinero depositado se destruye enviándolo a una dirección de quema.
Esa sanción también se registra en la blockchain, para que cualquiera pueda ver con qué frecuencia ocurre.
Anónimo, pero con consecuencias
Un punto destacado es que tu identidad permanece oculta incluso si cometes un abuso. La idea no es desenmascarar a las personas, sino afectarles económicamente si se comportan mal.
Según ellos, la comunidad sí puede verificar cuánto dinero se quema y qué pruebas acompañan cada caso. De ese modo se mantiene el control sin sacrificar la privacidad.