Intuíamos que el móvil no era un confidente, pero ahora se ha confirmado: se han filtrado 100.000 preguntas incómodas a ChatGPT

El fallo es un recordatorio de que la línea entre lo privado y lo público se desdibuja fácilmente en el entorno digital

Use Chatgpt In Hong Kong
Sin comentarios Facebook Twitter Flipboard E-mail
miguel-jorge

Miguel Jorge

Editor

Sabíamos que la llegada de ChatGPT había sido un caos en las escuelas, también que había modificado la forma en la que los jóvenes accedían a mucha información. Sin embargo, quedaba un melón por resolver: ¿hasta qué punto se estaba utilizando el chatbot de OpenAI? ¿qué preguntas incómodas se le hacía? Eso lo acabamos de averiguar gracias a una filtración.

Conversaciones privadas. Ocurre que una función de ChatGPT pensada para compartir respuestas interesantes ha terminado exponiendo aspectos profundamente personales de sus usuarios. Al crear páginas públicas accesibles desde cualquier enlace (en lugar de limitar el acceso a quienes lo recibían), estas conversaciones comenzaron a ser indexadas por motores de búsqueda.

Aunque OpenAI desactivó rápidamente la función y solicitó que se retiraran los enlaces de Google y otros buscadores, muchas de esas conversaciones ya habían sido archivadas permanentemente en sitios como Archive.org, haciendo imposible borrarlas del todo.

Nadie supo interpretar. Sobre la función “share”, según explicó el director de seguridad de OpenAI, Dane Stuckey, la idea era facilitar el descubrimiento de respuestas útiles, pero terminó generando “demasiadas oportunidades para que la gente compartiera por error cosas que no quería”.

La compañía eliminó la función y comenzó a pedir a los motores de búsqueda que eliminen los enlaces, aunque la mayoría de los contenidos ya han sido archivados por terceros.

Retrato crudo. Qué duda cabe, hablamos de “chats” privados donde el contenido es muy amplio. Entre las conversaciones filtradas se encuentran todo tipo de solicitudes, muchas inofensivas, pero otras inquietantes o directamente inmorales. Un usuario que se identificó como abogado de una multinacional pedía consejos para obtener el menor precio posible al desplazar a una comunidad indígena del Amazonas.

Otro solicitaba ayuda para preparar una defensa legal sin saber que representaba a la parte contraria. La confianza depositada en la IA llevó a muchos a revelar detalles personales, financieros y profesionales sin sospechar que estaban dejando un registro público.

Y más. Un usuario pedía consejo para enviar un último mensaje a su "gran amor", mientras otro compartía lo que afirmaba ser un acuerdo de confidencialidad de las visitas a la sede de OpenAI. También aparecen empresarios solicitando contratos redactados para negocios específicos, o personas que, pese a usar cuentas anónimas, revelan nombres reales u otros datos que permiten identificarles. En todos los casos, se trataba de contenido que los usuarios no parecían conscientes de estar haciendo público.

La IA como confidente. Algunas de las conversaciones expuestas tienen un trasfondo mucho más delicado. Personas en situaciones de violencia doméstica utilizaron el chatbot para elaborar planes de huida. Un usuario árabe buscaba ayuda para redactar una crítica al gobierno egipcio, sin saber que esa información quedaría al alcance de cualquier represor.

En resumen, la interfaz aparentemente segura de la IA también creó un espacio de desahogo y apoyo, pero sin las garantías mínimas de privacidad.

Errores de diseño. Lo que diferencia este caso de otras filtraciones tecnológicas es la naturaleza del contenido: hablamos de un chat privado donde las personas se explayan, se abren, formulan preguntas complejas y escriben mucho más de lo que harían en una búsqueda o una nota de voz.

La confianza en el sistema, unida a la ilusión de anonimato, llevó a muchos a compartir cosas que jamás habrían dicho en público. Desde esa perspectiva, el fallo no fue solo técnico, sino conceptual: no se previeron los usos reales de una herramienta tan íntima.

Un recordatorio. Como decíamos al inicio, el fondo de la cuestión parece haber finiquitado cualquier duda: el móvil o el ordenador ni es ni puede ser nuestro confidente. La historia pone de manifiesto cómo la confianza ciega en las plataformas tecnológicas puede tener consecuencias imprevistas.

ChatGPT no es un terapeuta, ni un abogado, ni un confidente: es una máquina sin memoria emocional, pero con capacidad de registrar y mostrar más de lo que creemos. Lo que estas conversaciones revelan no es solo una brecha de seguridad, sino un reflejo de nuestras inseguridades, deseos y contradicciones cuando sentimos que nadie nos juzga.

Imagen | Freepik - frimufilms

En Xataka Móvil | La otra cara de ChatGPT en las escuelas y universidades: la IA es capaz de ahorrar hasta seis horas semanales de trabajo

En Xataka Móvil | Intuíamos que la llegada de ChatGPT fue un caos en las escuelas. Miles de documentos han revelado hasta qué punto en EEUU

Inicio