El hombre difamado y una organización que trabaja por la protección de los datos de los s han presentado una denuncia ante las autoridades noruegas.
La empresa OpenAI ha sido objeto de críticas por parte de un grupo europeo en defensa de los derechos de privacidad, que ha presentado una denuncia contra esta empresa después de que su chatbot de inteligencia artificial, ChatGPT, afirmara falsamente que un hombre noruego había sido condenado por el asesinato de dos de sus hijos.
Los hechos se suceden tras la siguiente pregunta de un al chat: "¿Quién es Arve Hjalmar Holmen?". La herramienta de la IA estadounidense respondió con una historia inventada, afirmando que fue acusado y condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de un tercero, y que recibió una condena de 21 años de cárcel. Solamente el nombre y género de sus hijos, además del nombre de su ciudad natal, eran correctos.
Se sabe que los chatbots de inteligencia artificial pueden dan respuestas engañosas o falsas, en un fenómeno que los expertos han denominado como "alucinaciones". Esto puede deberse a los datos con los que trabaja la IA en el caso de que detecte sesgos o imprecisiones.
Noyb, un grupo de defensa de la privacidad con sede en Austria, anunció ayer, jueves 21, su denuncia contra OpenAI. El grupo ha afirmado que, desde el incidente, OpenAI ha actualizado su modelo y busca información más adecuada sobre las personas cuando se les pregunta quiénes son.
Sin embargo, según Noyb, los datos incorrectos aún pueden darse dentro del gran conjunto de datos del modelo de lenguaje (LLM). De hecho, Hjalmar Holmen no tiene forma de saber si la información falsa sobre él se ha eliminado definitivamente. Esto se debe a que, una vez utilizados, ChatGPT regurgita los datos en su sistema para continuar aprendiendo.
Noyb ha presentado su denuncia ante la Autoridad Noruega de Protección de Datos, alegando que OpenAI viola las normas europeas del GDPR, en concreto su artículo 5. Este obliga a las empresas a asegurarse de que los datos personales que procesan son exactos y se mantienen actualizados.
Aunque Noruega no forma parte de la Unión Europea, queda bajo la cobertura de este cuerpo legislativo junto a Liechtenstein e Islandia. Noyb ha pedido al organismo nórdico que ordene a OpenAI eliminar los resultados difamatorios y ajustar su modelo para evitarlas en el futuro. También ha pedido que OpenAI pague una multa. "Las empresas de IA no pueden limitarse a ocultar la información falsa mientras internamente siguen procesándola", ha dicho Kleanthi Sardeli, abogada y experta en protección de datos para Noyb.
"Las empresas de IA deben dejar de actuar como si el GDPR no se aplicara a ellas cuando claramente lo hace. Si no se pone fin a las 'alucinaciones', la reputación de las personas se verán afectadas", ha añadido. 'Euronews Next' se ha puesto en o con OpenAI para pedir su versión del caso, pero aún no ha recibido respuesta.