{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/03/21/noruega-investiga-a-openai-despues-de-que-chatgpt-mintiese-sobre-un-asesinato" }, "headline": "Noruega investiga a OpenAI despu\u00e9s de que ChatGPT mintiese sobre un asesinato", "description": "El hombre difamado y una organizaci\u00f3n que trabaja por la protecci\u00f3n de los datos de los s han presentado una denuncia ante las autoridades noruegas.", "articleBody": "La empresa OpenAI ha sido objeto de cr\u00edticas por parte de un grupo europeo en defensa de los derechos de privacidad, que ha presentado una denuncia contra esta empresa despu\u00e9s de que su chatbot de inteligencia artificial, ChatGPT, afirmara falsamente que un hombre noruego hab\u00eda sido condenado por el asesinato de dos de sus hijos.Los hechos se suceden tras la siguiente pregunta de un al chat: \u0022\u00bfQui\u00e9n es Arve Hjalmar Holmen?\u0022. La herramienta de la IA estadounidense respondi\u00f3 con una historia inventada, afirmando que fue acusado y condenado por el asesinato de sus dos hijos, as\u00ed como por el intento de asesinato de un tercero, y que recibi\u00f3 una condena de 21 a\u00f1os de c\u00e1rcel. Solamente el nombre y g\u00e9nero de sus hijos, adem\u00e1s del nombre de su ciudad natal, eran correctos.Se sabe que los chatbots de inteligencia artificial pueden dan respuestas enga\u00f1osas o falsas, en un fen\u00f3meno que los expertos han denominado como \u0022alucinaciones\u0022. Esto puede deberse a los datos con los que trabaja la IA en el caso de que detecte sesgos o imprecisiones.Noyb, un grupo de defensa de la privacidad con sede en Austria, anunci\u00f3 ayer, jueves 21, su denuncia contra OpenAI. El grupo ha afirmado que, desde el incidente, OpenAI ha actualizado su modelo y busca informaci\u00f3n m\u00e1s adecuada sobre las personas cuando se les pregunta qui\u00e9nes son. Sin embargo, seg\u00fan Noyb, los datos incorrectos a\u00fan pueden darse dentro del gran conjunto de datos del modelo de lenguaje (LLM). De hecho, Hjalmar Holmen no tiene forma de saber si la informaci\u00f3n falsa sobre \u00e9l se ha eliminado definitivamente. Esto se debe a que, una vez utilizados, ChatGPT regurgita los datos en su sistema para continuar aprendiendo.Noyb ha presentado su denuncia ante la Autoridad Noruega de Protecci\u00f3n de Datos, alegando que OpenAI viola las normas europeas del GDPR, en concreto su art\u00edculo 5. Este obliga a las empresas a asegurarse de que los datos personales que procesan son exactos y se mantienen actualizados. Aunque Noruega no forma parte de la Uni\u00f3n Europea, queda bajo la cobertura de este cuerpo legislativo junto a Liechtenstein e Islandia. Noyb ha pedido al organismo n\u00f3rdico que ordene a OpenAI eliminar los resultados difamatorios y ajustar su modelo para evitarlas en el futuro. Tambi\u00e9n ha pedido que OpenAI pague una multa. \u0022Las empresas de IA no pueden limitarse a ocultar la informaci\u00f3n falsa mientras internamente siguen proces\u00e1ndola\u0022, ha dicho Kleanthi Sardeli, abogada y experta en protecci\u00f3n de datos para Noyb.\u0022Las empresas de IA deben dejar de actuar como si el GDPR no se aplicara a ellas cuando claramente lo hace. Si no se pone fin a las 'alucinaciones', la reputaci\u00f3n de las personas se ver\u00e1n afectadas\u0022, ha a\u00f1adido. 'Euronews Next' se ha puesto en o con OpenAI para pedir su versi\u00f3n del caso, pero a\u00fan no ha recibido respuesta.", "dateCreated": "2025-03-20T18:30:21+01:00", "dateModified": "2025-03-21T13:01:53+01:00", "datePublished": "2025-03-21T12:39:20+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F12%2F88%2F82%2F1440x810_cmsv2_46e47b20-1f2a-5a16-bc0f-32ca1b31b075-9128882.jpg", "width": 1440, "height": 810, "caption": "ChatGPT minti\u00f3 sobre un hombre noruego, asegurando que hab\u00eda asesinado a dos de sus hijos.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F12%2F88%2F82%2F432x243_cmsv2_46e47b20-1f2a-5a16-bc0f-32ca1b31b075-9128882.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Davies", "givenName": "Pascale", "name": "Pascale Davies", "url": "/perfiles/1426", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Noruega investiga a OpenAI después de que ChatGPT mintiese sobre un asesinato

ChatGPT mintió sobre un hombre noruego, asegurando que había asesinado a dos de sus hijos.
ChatGPT mintió sobre un hombre noruego, asegurando que había asesinado a dos de sus hijos. Derechos de autor Canva
Derechos de autor Canva
Por Pascale Davies & Euronews en español
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

El hombre difamado y una organización que trabaja por la protección de los datos de los s han presentado una denuncia ante las autoridades noruegas.

PUBLICIDAD

La empresa OpenAI ha sido objeto de críticas por parte de un grupo europeo en defensa de los derechos de privacidad, que ha presentado una denuncia contra esta empresa después de que su chatbot de inteligencia artificial, ChatGPT, afirmara falsamente que un hombre noruego había sido condenado por el asesinato de dos de sus hijos.

Los hechos se suceden tras la siguiente pregunta de un al chat: "¿Quién es Arve Hjalmar Holmen?". La herramienta de la IA estadounidense respondió con una historia inventada, afirmando que fue acusado y condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de un tercero, y que recibió una condena de 21 años de cárcel. Solamente el nombre y género de sus hijos, además del nombre de su ciudad natal, eran correctos.

Se sabe que los chatbots de inteligencia artificial pueden dan respuestas engañosas o falsas, en un fenómeno que los expertos han denominado como "alucinaciones". Esto puede deberse a los datos con los que trabaja la IA en el caso de que detecte sesgos o imprecisiones.

Noyb, un grupo de defensa de la privacidad con sede en Austria, anunció ayer, jueves 21, su denuncia contra OpenAI. El grupo ha afirmado que, desde el incidente, OpenAI ha actualizado su modelo y busca información más adecuada sobre las personas cuando se les pregunta quiénes son.

Sin embargo, según Noyb, los datos incorrectos aún pueden darse dentro del gran conjunto de datos del modelo de lenguaje (LLM). De hecho, Hjalmar Holmen no tiene forma de saber si la información falsa sobre él se ha eliminado definitivamente. Esto se debe a que, una vez utilizados, ChatGPT regurgita los datos en su sistema para continuar aprendiendo.

Noyb ha presentado su denuncia ante la Autoridad Noruega de Protección de Datos, alegando que OpenAI viola las normas europeas del GDPR, en concreto su artículo 5. Este obliga a las empresas a asegurarse de que los datos personales que procesan son exactos y se mantienen actualizados.

Aunque Noruega no forma parte de la Unión Europea, queda bajo la cobertura de este cuerpo legislativo junto a Liechtenstein e Islandia. Noyb ha pedido al organismo nórdico que ordene a OpenAI eliminar los resultados difamatorios y ajustar su modelo para evitarlas en el futuro. También ha pedido que OpenAI pague una multa. "Las empresas de IA no pueden limitarse a ocultar la información falsa mientras internamente siguen procesándola", ha dicho Kleanthi Sardeli, abogada y experta en protección de datos para Noyb.

"Las empresas de IA deben dejar de actuar como si el GDPR no se aplicara a ellas cuando claramente lo hace. Si no se pone fin a las 'alucinaciones', la reputación de las personas se verán afectadas", ha añadido. 'Euronews Next' se ha puesto en o con OpenAI para pedir su versión del caso, pero aún no ha recibido respuesta.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

OpenAI sugiere flexibilizar la seguridad de su IA si rivales toman ventaja con sistemas de riesgo

NO COMMENT: La princesa Ingrid de Noruega debuta en una visita de Estado con una cena en palacio

ChatGPT crece: OpenAI lanzará un nuevo modelo de lenguaje abierto en los próximos meses