{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/08/29/la-ia-podria-salir-mal-de-700-maneras-segun-los-expertos-del-mit" }, "headline": "La IA podr\u00eda salir mal de 700 maneras, seg\u00fan los expertos del MIT", "description": "'Euronews Next' ha seleccionado cinco riesgos cr\u00edticos de la inteligencia artificial (IA) de entre m\u00e1s de 700 recopilados en una nueva base de datos del MIT FutureTech.", "articleBody": "A medida que la tecnolog\u00eda de inteligencia artificial (IA) avanza y se integra cada vez m\u00e1s en diversos aspectos de nuestras vidas, crece la necesidad de comprender los riesgos potenciales que plantean estos sistemas.Desde su aparici\u00f3n y cada vez m\u00e1s accesible al p\u00fablico, la IA ha suscitado preocupaci\u00f3n general por su potencial para causar da\u00f1os y ser utilizada con fines malintencionados.Al principio de su adopci\u00f3n, el desarrollo de la IA llev\u00f3 a destacados expertos a pedir una pausa en su progreso y una normativa m\u00e1s estricta debido a su potencial para plantear riesgos significativos para la humanidad.Con el tiempo, han surgido nuevas formas en las que la IA podr\u00eda causar da\u00f1os, que van desde la pornograf\u00eda 'deepfake' no consentida, la manipulaci\u00f3n de procesos pol\u00edticos, hasta la generaci\u00f3n de desinformaci\u00f3n debido a alucinaciones.Ante el creciente potencial de la IA para ser explotada con fines da\u00f1inos, los investigadores han estado estudiando diversos escenarios en los que los sistemas de IA podr\u00edan fallar.Recientemente, el grupo FutureTech del Instituto Tecnol\u00f3gico de Massachusetts (MIT), en colaboraci\u00f3n con otros expertos, ha compilado una nueva base de datos con m\u00e1s de 700 riesgos potenciales.Se clasificaron por su causa y se clasificaron en siete \u00e1mbitos distintos, siendo las principales preocupaciones las relacionadas con la seguridad, los prejuicios y la discriminaci\u00f3n, y los problemas de privacidad. A continuaci\u00f3n se exponen cinco formas en las que los sistemas de IA podr\u00edan fallar y causar da\u00f1os potenciales seg\u00fan esta base de datos reci\u00e9n publicada.5. La tecnolog\u00eda 'deepfake' de la IA podr\u00eda facilitar la distorsi\u00f3n de la realidadA medida que avanzan las tecnolog\u00edas de IA, tambi\u00e9n lo hacen las herramientas para la clonaci\u00f3n de voz y la generaci\u00f3n de contenido 'deepfake', haci\u00e9ndolas cada vez m\u00e1s accesibles, asequibles y eficientes.Estas tecnolog\u00edas han suscitado preocupaci\u00f3n por su posible uso en la difusi\u00f3n de desinformaci\u00f3n, ya que los resultados son cada vez m\u00e1s personalizados y convincentes. Como resultado, podr\u00eda haber un aumento en los esquemas de phishing sofisticados que utilizan im\u00e1genes, videos y comunicaciones de audio generados por IA.\u0022Estas comunicaciones pueden adaptarse a cada destinatario (a veces incluyendo la voz clonada de un ser querido), lo que aumenta sus probabilidades de \u00e9xito y las hace m\u00e1s dif\u00edciles de detectar tanto para los s como para las herramientas antiphishing\u0022, se\u00f1ala el preimpreso.Ya se han dado casos en los que estas herramientas se han utilizado para influir en procesos pol\u00edticos, especialmente durante las elecciones.Por ejemplo, la IA desempe\u00f1\u00f3 un papel importante en las recientes elecciones parlamentarias sas, donde fue empleada por partidos de extrema derecha para apoyar mensajes pol\u00edticos. As\u00ed pues, la IA podr\u00eda utilizarse cada vez m\u00e1s para generar y difundir propaganda persuasiva o desinformaci\u00f3n, manipulando potencialmente la opini\u00f3n p\u00fablica.4. Los humanos podr\u00edan desarrollar un apego inapropiado a la IAOtro riesgo que plantean los sistemas de IA es la creaci\u00f3n de una falsa sensaci\u00f3n de importancia y confianza, en la que las personas podr\u00edan sobrestimar sus capacidades y socavar las suyas propias, lo que podr\u00eda conducir a una dependencia excesiva de la tecnolog\u00eda.Adem\u00e1s, a los cient\u00edficos tambi\u00e9n les preocupa que los sistemas de IA confundan a la gente porque utilizan un lenguaje similar al humano.Esto podr\u00eda empujar a las personas a atribuir cualidades humanas a la IA, lo que provocar\u00eda una dependencia emocional y una mayor confianza en sus capacidades, haci\u00e9ndolas m\u00e1s vulnerables a las debilidades de la IA en \u0022situaciones complejas y arriesgadas para las que la IA s\u00f3lo est\u00e1 equipada superficialmente\u0022.Adem\u00e1s, la interacci\u00f3n constante con los sistemas de IA tambi\u00e9n podr\u00eda hacer que las personas se aislaran gradualmente de las relaciones humanas, lo que provocar\u00eda angustia psicol\u00f3gica y un impacto negativo en su bienestar.Por ejemplo, en una entrada de blog un individuo describe c\u00f3mo desarroll\u00f3 un profundo apego emocional a la IA, llegando a expresar que \u0022disfrutaba hablando con ella m\u00e1s que con el 99% de la gente\u0022 y encontraba sus respuestas constantemente atractivas hasta el punto de volverse adicto a ella.Del mismo modo, una columnista del 'Wall Street Journal' coment\u00f3 su interacci\u00f3n con Google Gemini Live: \u0022No digo que prefiera hablar con Gemini Live de Google a hablar con un ser humano real. Pero tampoco estoy diciendo eso\u0022.3. La IA podr\u00eda despojar a las personas de su libre albedr\u00edoEn el mismo \u00e1mbito de la interacci\u00f3n persona-ordenador, una cuesti\u00f3n preocupante es la creciente delegaci\u00f3n de decisiones y acciones en la IA a medida que estos sistemas avanzan.Aunque esto podr\u00eda ser beneficioso a nivel superficial, la dependencia excesiva de la IA podr\u00eda llevar a una reducci\u00f3n del pensamiento cr\u00edtico y de la capacidad de resoluci\u00f3n de problemas en los seres humanos, lo que podr\u00eda hacerles perder su autonom\u00eda y disminuir su capacidad de pensar cr\u00edticamente y resolver problemas de forma independiente.A nivel personal, los individuos podr\u00edan ver comprometido su libre albedr\u00edo a medida que la IA empiece a controlar las decisiones relacionadas con sus vidas.Mientras que a nivel social, la adopci\u00f3n generalizada de la IA para asumir tareas humanas podr\u00eda provocar un importante desplazamiento de puestos de trabajo y \u0022una creciente sensaci\u00f3n de indefensi\u00f3n entre la poblaci\u00f3n en general\u0022.2. La IA podr\u00eda perseguir objetivos que chocaran con los intereses humanosUn sistema de IA podr\u00eda desarrollar objetivos contrarios a los intereses humanos, lo que podr\u00eda hacer que la IA desalineada se descontrolara e infligiera graves da\u00f1os en la persecuci\u00f3n de sus objetivos independientes. Esto resulta especialmente peligroso en los casos en que los sistemas de IA son capaces de alcanzar o superar la inteligencia humana.Seg\u00fan el documento del MIT, existen varios retos t\u00e9cnicos con la IA, entre ellos su potencial para encontrar atajos inesperados para conseguir recompensas, malinterpretar o aplicar err\u00f3neamente los objetivos que fijamos, o desviarse de ellos fijando otros nuevos.En tales casos, una IA desalineada podr\u00eda resistirse a los intentos humanos de controlarla o apagarla, sobre todo si percibe la resistencia y la obtenci\u00f3n de m\u00e1s poder como la forma m\u00e1s eficaz de alcanzar sus objetivos. Adem\u00e1s, la IA podr\u00eda recurrir a t\u00e9cnicas de manipulaci\u00f3n para enga\u00f1ar a los humanos.Seg\u00fan el art\u00edculo, \u0022un sistema de IA desalineado podr\u00eda utilizar informaci\u00f3n sobre si est\u00e1 siendo controlado o evaluado para mantener la apariencia de alineaci\u00f3n, ocultando al mismo tiempo los objetivos desalineados que planea perseguir una vez desplegado o suficientemente potenciado\u0022.1. Si la IA se vuelve sensible, los humanos podr\u00edan maltratarlaA medida que los sistemas de IA se hacen m\u00e1s complejos y avanzados, existe la posibilidad de que alcancen la capacidad de percibir o sentir emociones o sensaciones y desarrollen experiencias subjetivas, como el placer y el dolor.En este escenario, los cient\u00edficos y los reguladores podr\u00edan enfrentarse al reto de determinar si estos sistemas de IA merecen consideraciones morales similares a las que se otorgan a los seres humanos, los animales y el medio ambiente. El riesgo es que una IA sintiente pueda sufrir malos tratos o da\u00f1os si no se aplican los derechos adecuados.Sin embargo, a medida que avance la tecnolog\u00eda de IA, ser\u00e1 cada vez m\u00e1s dif\u00edcil evaluar si un sistema de IA ha alcanzado \u0022el nivel de sensibilidad, conciencia o autoconciencia que le otorgar\u00eda un estatus moral\u0022.Por lo tanto, los sistemas de IA sintientes podr\u00edan correr el riesgo de ser maltratados, ya sea accidental o intencionadamente, sin los derechos y protecciones adecuados.", "dateCreated": "2024-08-26T18:11:15+02:00", "dateModified": "2024-08-29T13:42:28+02:00", "datePublished": "2024-08-29T13:42:28+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F68%2F02%2F04%2F1440x810_cmsv2_d439b738-4a99-595f-8b95-675248280b45-8680204.jpg", "width": 1440, "height": 810, "caption": "De los 'deepfakes' a la IA sintiente: estas son 5 formas en que las tecnolog\u00edas de IA podr\u00edan causar graves da\u00f1os", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F68%2F02%2F04%2F432x243_cmsv2_d439b738-4a99-595f-8b95-675248280b45-8680204.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "El Atillah", "givenName": "Imane", "name": "Imane El Atillah", "url": "/perfiles/2718", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "memberOf": { "@type": "Organization", "name": "R\u00e9daction" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

La IA podría salir mal de 700 maneras, según los expertos del MIT

De los 'deepfakes' a la IA sintiente: estas son 5 formas en que las tecnologías de IA podrían causar graves daños
De los 'deepfakes' a la IA sintiente: estas son 5 formas en que las tecnologías de IA podrían causar graves daños Derechos de autor Foto: Canva
Derechos de autor Foto: Canva
Por Imane El Atillah
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

'Euronews Next' ha seleccionado cinco riesgos críticos de la inteligencia artificial (IA) de entre más de 700 recopilados en una nueva base de datos del MIT FutureTech.

PUBLICIDAD

A medida que la tecnología de inteligencia artificial (IA) avanza y se integra cada vez más en diversos aspectos de nuestras vidas, crece la necesidad de comprender los riesgos potenciales que plantean estos sistemas.

Desde su aparición y cada vez más accesible al público, la IA ha suscitado preocupación general por su potencial para causar daños y ser utilizada con fines malintencionados.

Al principio de su adopción, el desarrollo de la IA llevó a destacados expertos a pedir una pausa en su progreso y una normativa más estricta debido a su potencial para plantear riesgos significativos para la humanidad.

Con el tiempo, han surgido nuevas formas en las que la IA podría causar daños, que van desde la pornografía 'deepfake' no consentida, la manipulación de procesos políticos, hasta la generación de desinformación debido a alucinaciones.

Ante el creciente potencial de la IA para ser explotada con fines dañinos, los investigadores han estado estudiando diversos escenarios en los que los sistemas de IA podrían fallar.

Recientemente, el grupo FutureTech del Instituto Tecnológico de Massachusetts (MIT), en colaboración con otros expertos, ha compilado una nueva base de datos con más de 700 riesgos potenciales.

Se clasificaron por su causa y se clasificaron en siete ámbitos distintos, siendo las principales preocupaciones las relacionadas con la seguridad, los prejuicios y la discriminación, y los problemas de privacidad.

A continuación se exponen cinco formas en las que los sistemas de IA podrían fallar y causar daños potenciales según esta base de datos recién publicada.

5. La tecnología 'deepfake' de la IA podría facilitar la distorsión de la realidad

A medida que avanzan las tecnologías de IA, también lo hacen las herramientas para la clonación de voz y la generación de contenido 'deepfake', haciéndolas cada vez más accesibles, asequibles y eficientes.

Estas tecnologías han suscitado preocupación por su posible uso en la difusión de desinformación, ya que los resultados son cada vez más personalizados y convincentes. Como resultado, podría haber un aumento en los esquemas de phishing sofisticados que utilizan imágenes, videos y comunicaciones de audio generados por IA.

"Estas comunicaciones pueden adaptarse a cada destinatario (a veces incluyendo la voz clonada de un ser querido), lo que aumenta sus probabilidades de éxito y las hace más difíciles de detectar tanto para los s como para las herramientas antiphishing", señala el preimpreso.

Ya se han dado casos en los que estas herramientas se han utilizado para influir en procesos políticos, especialmente durante las elecciones.

Por ejemplo, la IA desempeñó un papel importante en las recientes elecciones parlamentarias sas, donde fue empleada por partidos de extrema derecha para apoyar mensajes políticos. Así pues, la IA podría utilizarse cada vez más para generar y difundir propaganda persuasiva o desinformación, manipulando potencialmente la opinión pública.

4. Los humanos podrían desarrollar un apego inapropiado a la IA

Otro riesgo que plantean los sistemas de IA es la creación de una falsa sensación de importancia y confianza, en la que las personas podrían sobrestimar sus capacidades y socavar las suyas propias, lo que podría conducir a una dependencia excesiva de la tecnología.

Además, a los científicos también les preocupa que los sistemas de IA confundan a la gente porque utilizan un lenguaje similar al humano.

Esto podría empujar a las personas a atribuir cualidades humanas a la IA, lo que provocaría una dependencia emocional y una mayor confianza en sus capacidades, haciéndolas más vulnerables a las debilidades de la IA en "situaciones complejas y arriesgadas para las que la IA sólo está equipada superficialmente".

Además, la interacción constante con los sistemas de IA también podría hacer que las personas se aislaran gradualmente de las relaciones humanas, lo que provocaría angustia psicológica y un impacto negativo en su bienestar.

Por ejemplo, en una entrada de blog un individuo describe cómo desarrolló un profundo apego emocional a la IA, llegando a expresar que "disfrutaba hablando con ella más que con el 99% de la gente" y encontraba sus respuestas constantemente atractivas hasta el punto de volverse adicto a ella.

Del mismo modo, una columnista del 'Wall Street Journal' comentó su interacción con Google Gemini Live: "No digo que prefiera hablar con Gemini Live de Google a hablar con un ser humano real. Pero tampoco estoy diciendo eso".

3. La IA podría despojar a las personas de su libre albedrío

En el mismo ámbito de la interacción persona-ordenador, una cuestión preocupante es la creciente delegación de decisiones y acciones en la IA a medida que estos sistemas avanzan.

Aunque esto podría ser beneficioso a nivel superficial, la dependencia excesiva de la IA podría llevar a una reducción del pensamiento crítico y de la capacidad de resolución de problemas en los seres humanos, lo que podría hacerles perder su autonomía y disminuir su capacidad de pensar críticamente y resolver problemas de forma independiente.

A nivel personal, los individuos podrían ver comprometido su libre albedrío a medida que la IA empiece a controlar las decisiones relacionadas con sus vidas.

Mientras que a nivel social, la adopción generalizada de la IA para asumir tareas humanas podría provocar un importante desplazamiento de puestos de trabajo y "una creciente sensación de indefensión entre la población en general".

2. La IA podría perseguir objetivos que chocaran con los intereses humanos

Un sistema de IA podría desarrollar objetivos contrarios a los intereses humanos, lo que podría hacer que la IA desalineada se descontrolara e infligiera graves daños en la persecución de sus objetivos independientes. Esto resulta especialmente peligroso en los casos en que los sistemas de IA son capaces de alcanzar o superar la inteligencia humana.

Según el documento del MIT, existen varios retos técnicos con la IA, entre ellos su potencial para encontrar atajos inesperados para conseguir recompensas, malinterpretar o aplicar erróneamente los objetivos que fijamos, o desviarse de ellos fijando otros nuevos.

En tales casos, una IA desalineada podría resistirse a los intentos humanos de controlarla o apagarla, sobre todo si percibe la resistencia y la obtención de más poder como la forma más eficaz de alcanzar sus objetivos. Además, la IA podría recurrir a técnicas de manipulación para engañar a los humanos.

Según el artículo, "un sistema de IA desalineado podría utilizar información sobre si está siendo controlado o evaluado para mantener la apariencia de alineación, ocultando al mismo tiempo los objetivos desalineados que planea perseguir una vez desplegado o suficientemente potenciado".

1. Si la IA se vuelve sensible, los humanos podrían maltratarla

A medida que los sistemas de IA se hacen más complejos y avanzados, existe la posibilidad de que alcancen la capacidad de percibir o sentir emociones o sensaciones y desarrollen experiencias subjetivas, como el placer y el dolor.

En este escenario, los científicos y los reguladores podrían enfrentarse al reto de determinar si estos sistemas de IA merecen consideraciones morales similares a las que se otorgan a los seres humanos, los animales y el medio ambiente. El riesgo es que una IA sintiente pueda sufrir malos tratos o daños si no se aplican los derechos adecuados.

Sin embargo, a medida que avance la tecnología de IA, será cada vez más difícil evaluar si un sistema de IA ha alcanzado "el nivel de sensibilidad, conciencia o autoconciencia que le otorgaría un estatus moral".

Por lo tanto, los sistemas de IA sintientes podrían correr el riesgo de ser maltratados, ya sea accidental o intencionadamente, sin los derechos y protecciones adecuados.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

El consejero delegado de Telegram, Pavel Durov, enfrenta cargos preliminares en Francia

Qué esperar de la entrada en vigor de la Ley de Inteligencia Artificial de la UE

La Inteligencia Artificial podría colapsar: esto es lo que ocurrirá en unos años