Con el auge de la IA y de los chatbots, estas aplicaciones han ascendido hasta lo alto de la clasificación en las tiendas móviles. Ahora no buscamos, le preguntamos a ChatGPT. Y lo mismo con la salud, los problemas legales, las inquietudes… ChatGPT se ha convertido en un asesor personal con demasiada información sobre nosotros. Información que puede ser usada en nuestra contra en caso de un juicio.
Los precedentes. En Estados Unidos se sucedieron dos juicios con la IA como centro de las pruebas. En el caso Krafton, el CEO de esta empresa le pidió a ChatGPT cómo esquivar un pago millonario. Tras ejecutar los pasos como el chatbot le dijo, incluyendo algunos despidos, el CEO borró su chat con la IA. Pero no le sirvió de nada: en el juicio, acabó admitiendo que había borrado logs específicos de ChatGPT relevantes para el caso. El contenido de esas conversaciones se reconstruyó a través de mensajes internos de Slack. Y el tribunal interpretó el borrado como indicio de mala fe.
En el segundo de los litigios, uno relacionado con un caso de fraude, el juez consideró como prueba una conversación con Claude en la que se usaba la IA a modo de consulta legal. El juez dictaminó que las conversaciones con la IA no estaban protegidas por el secreto profesional abogado-cliente. Además, los términos de servicio de plataformas como ChatGPT o Claude dicen explícitamente que los datos pueden compartirse con autoridades. Todo un aviso para quienes usamos estos servicios.
Las plataformas de IA pueden compartir las conversaciones. Solemos pensar que esas conversaciones son anónimas y privadas, pero no lo son: las empresas detrás de los chatbots de IA almacenan las conversaciones, incluso aquellas que afirman ser temporales (estas solo durante un espacio de tiempo, 30 días en el caso de ChatGPT).
Según aparece en la política de privacidad de ChatGPT:
“Podemos compartir tus Datos personales, incluida la información sobre tu interacción con nuestros Servicios, con autoridades gubernamentales, empresas del sector o terceros de conformidad con la normativa aplicable”.
Los dos juicios de Estados Unidos, y las distintas políticas de privacidad, dejan claro que, aparte de dejar un rastro al usar la IA, dicho rastro puede ser utilizado contra nosotros. Las conversaciones se almacenan por defecto en sus servidores y, salvo que el usuario lo desactive (usando chats temporales o desde los ajustes de configuración), pueden usarse para entrenar los modelos. Esos chats pueden recuperarse si los piden las autoridades. Incluso pueden obligar a que permanezcan en los servidores.
¿Podría usarse una conversación con ChatGPT en un juicio español? Ya hemos visto que las empresas de IA guardan las conversaciones y que estas son susceptibles de enviarse si alguien con autoridad las solicita. De momento no se ha usado un chat con IA como prueba en un juicio español, pero no sería muy diferente de lo que ya ocurre con los chats de WhatsApp:
Un abogado podría usar una conversación con ChatGPT como prueba y, seguramente, la otra parte impugnaría esa información para que se demostrase su fiabilidad. Ahí entrarían en juego los peritos informáticos, que deberían analizar la conversación para confirmar o no su autenticidad. De ser cierta, valdría como prueba ante el juez.
La moraleja. Hablar con ChatGPT y compañía parece una experiencia íntima, un trato de tú a tú que está diseñado para dar confianza. Parece un intercambio humano, pero del otro lado hay una empresa con un ansia sin fin de datos, con obligaciones legales de cara a los gobiernos y con jueces dispuestos a leer lo que escribimos. Lo mejor es aplicar una regla: si no quieres que tus palabras te persigan, no las escribas. Ni en WhatsApp, ni en ChatGPT.
Imagen de portada | Midjourney editada
En Xataka Móvil | Usar Claude en modo experto ahora es más fácil con estos cursos oficiales y con certificación de Anthropic
Ver 0 comentarios