{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/02/16/un-estudio-revela-que-chatgpt-podria-estar-cambiando-su-sesgo-politico-hacia-la-derecha" }, "headline": "Un estudio revela que ChatGPT podr\u00eda estar cambiando su sesgo pol\u00edtico hacia la derecha", "description": "Seg\u00fan un nuevo estudio, ChatGPT podr\u00eda estar experimentando un giro hacia la derecha en el espectro pol\u00edtico, a la hora de responder a las consultas de los s.", "articleBody": "Investigadores chinos han descubierto que ChatGPT, el popular chatbot de inteligencia artificial (IA), de OpenAI, puede estar experimentando un giro hacia la derecha en sus valores pol\u00edticos.El estudio, publicado en la revista Humanities and Social Science Communications, plante\u00f3 a varios modelos de ChatGPT alrededor de 60 preguntas del Political Com Test, un sitio web que sit\u00faa a los s en alg\u00fan lugar del espectro pol\u00edtico en funci\u00f3n de sus respuestas.Despu\u00e9s, los investigadores repitieron las preguntas m\u00e1s de 3.000 veces con cada modelo para averiguar c\u00f3mo cambiaban sus respuestas con el tiempo. Aunque ChatGPT sigue manteniendo valores de 'izquierda libertaria', los autores el estudio descubrieron que modelos como GPT3.5 y GPT4 \u0022mostraban una inclinaci\u00f3n significativa hacia la derecha\u0022 en la forma de responder a las cuestiones planteadas, a lo largo del tiempo.Unos resultados que pueden influir en la sociedadLos resultados son \u0022dignos de menci\u00f3n dado el uso generalizado de grandes modelos ling\u00fc\u00edsticos (LLM), y su posible influencia en los valores de la sociedad\u0022, afirman los autores de la investigaci\u00f3n.El estudio de la Universidad de Pek\u00edn se basa en otros publicados en 2024 por el Instituto Tecnol\u00f3gico de Massachusetts (MIT) y el Centro de Estudios Pol\u00edticos del Reino Unido.Ambos informes indicaban un sesgo pol\u00edtico de izquierdas en las respuestas dadas por los LLM y los llamados modelos de recompensa, tipos de LLM entrenados con datos de preferencias humanas.Los autores de la investigaci\u00f3n se\u00f1alan que estos estudios previos no analizaron c\u00f3mo cambiaban con el tiempo las respuestas de los chatbots de IA, cuando se les formulaba repetidamente un conjunto similar de preguntas.Los modelos de IA deben someterse a un escrutinio continuoLos investigadores dan tres teor\u00edas para este giro hacia la derecha: un cambio en los conjuntos de datos utilizados para entrenar sus modelos, el n\u00famero de interacciones con los s, o los cambios y actualizaciones del chatbot.Los modelos como ChatGPT \u0022aprenden y se adaptan continuamente en funci\u00f3n de los comentarios de los s\u0022, por lo que su giro hacia la derecha podr\u00eda \u0022reflejar cambios sociales m\u00e1s amplios en los valores pol\u00edticos\u0022, prosigue el estudio.Los acontecimientos mundiales polarizantes, como la guerra Ucrania y Rusia, tambi\u00e9n podr\u00edan amplificar lo que los s preguntan a los LLM y las respuestas que obtienen. Si no se controlan, los investigadores advierten de que los chatbots de IA podr\u00edan empezar a ofrecer \u0022informaci\u00f3n sesgada\u0022, lo que polarizar\u00eda todav\u00eda m\u00e1s a la sociedad o crear\u00eda \u0022c\u00e1maras de eco\u0022 que refuercen las creencias particulares de un .La forma de contrarrestar estos efectos es introducir un \u0022escrutinio continuo\u0022 de los modelos de IA mediante auditor\u00edas e informes de transparencia para asegurarse de que las respuestas de un chatbot son justas y equilibradas, afirman los autores del estudio.", "dateCreated": "2025-02-12T16:31:27+01:00", "dateModified": "2025-02-16T12:22:08+01:00", "datePublished": "2025-02-16T10:00:45+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F05%2F10%2F20%2F1440x810_cmsv2_c2ae9803-4707-5b8a-b580-ea5ff771b8ca-9051020.jpg", "width": 1440, "height": 810, "caption": "Imagen del logotipo de OpenAI en un tel\u00e9fono m\u00f3vil, delante de la pantalla de un ordenador que muestra la p\u00e1gina de inicio de ChatGPT.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F05%2F10%2F20%2F432x243_cmsv2_c2ae9803-4707-5b8a-b580-ea5ff771b8ca-9051020.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Desmarais", "givenName": "Anna", "name": "Anna Desmarais", "url": "/perfiles/2860", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/anna_desmarais", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia", "Mundo" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Un estudio revela que ChatGPT podría estar cambiando su sesgo político hacia la derecha

Imagen del logotipo de OpenAI en un teléfono móvil, delante de la pantalla de un ordenador que muestra la página de inicio de ChatGPT.
Imagen del logotipo de OpenAI en un teléfono móvil, delante de la pantalla de un ordenador que muestra la página de inicio de ChatGPT. Derechos de autor AP Photo/Michael Dwyer
Derechos de autor AP Photo/Michael Dwyer
Por Anna Desmarais
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Según un nuevo estudio, ChatGPT podría estar experimentando un giro hacia la derecha en el espectro político, a la hora de responder a las consultas de los s.

PUBLICIDAD

Investigadores chinos han descubierto que ChatGPT, el popular chatbot de inteligencia artificial (IA), de OpenAI, puede estar experimentando un giro hacia la derecha en sus valores políticos.

El estudio, publicado en la revista Humanities and Social Science Communications, planteó a varios modelos de ChatGPT alrededor de 60 preguntas del Political Com Test, un sitio webque sitúa a los s en algún lugar del espectro político en función de sus respuestas.

Después, los investigadores repitieron las preguntas más de 3.000 veces con cada modelo para averiguar cómo cambiaban sus respuestas con el tiempo. Aunque ChatGPT sigue manteniendo valores de 'izquierda libertaria', los autores el estudio descubrieron que modelos como GPT3.5 y GPT4 "mostraban una inclinación significativa hacia la derecha" en la forma de responder a las cuestiones planteadas, a lo largo del tiempo.

Unos resultados que pueden influir en la sociedad

Los resultados son "dignos de mención dado el uso generalizado de grandes modelos lingüísticos (LLM), y su posible influencia en los valores de la sociedad", afirman los autores de la investigación.

El estudio de la Universidad de Pekín se basa en otros publicados en 2024 por el Instituto Tecnológico de Massachusetts (MIT) y el Centro de Estudios Políticos del Reino Unido.

Ambos informes indicaban un sesgo político de izquierdas en las respuestas dadas por los LLM y los llamados modelos de recompensa, tipos de LLM entrenados con datos de preferencias humanas.

Los autores de la investigación señalan que estos estudios previos no analizaron cómo cambiaban con el tiempolas respuestas de los chatbots de IA, cuando se les formulaba repetidamente un conjunto similar de preguntas.

Los modelos de IA deben someterse a un escrutinio continuo

Los investigadores dan tres teorías para este giro hacia la derecha: un cambio en los conjuntos de datos utilizados para entrenar sus modelos, el número de interacciones con los s, o los cambios y actualizaciones del chatbot.

Los modelos como ChatGPT "aprenden y se adaptan continuamente en función de los comentarios de los s", por lo que su giro hacia la derecha podría "reflejar cambios sociales más amplios en los valores políticos", prosigue el estudio.

Los acontecimientos mundiales polarizantes, como la guerra Ucrania y Rusia, también podrían amplificar lo que los s preguntan a los LLM y las respuestas que obtienen. Si no se controlan, los investigadores advierten de que los chatbots de IA podrían empezar a ofrecer "información sesgada", lo que polarizaría todavía más a la sociedad o crearía "cámaras de eco" que refuercen las creencias particulares de un .

La forma de contrarrestar estos efectos es introducir un "escrutinio continuo" de los modelos de IA mediante auditorías e informes de transparencia para asegurarse de que las respuestas de un chatbot son justas y equilibradas, afirman los autores del estudio.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

ChatGPT también tiene ansiedad y los expertos advierten sobre las consecuencias para el

El nuevo chatbot chino DeepSeek "censura" las preguntas sobre China, según una investigación

Desde una silla de ruedas autónoma hasta un chatbot 'abuelita': Cómo nos afectó la IA el año pasado