{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2023/09/25/los-expertos-pidieron-hace-seis-meses-una-pausa-en-la-ia-donde-estamos-ahora" }, "headline": "Los expertos pidieron hace seis meses una pausa en la IA. \u00bfD\u00f3nde estamos ahora?", "description": "Los l\u00edderes tecnol\u00f3gicos firmaron una carta abierta en la que ped\u00edan una pausa en la IA, pero \u00bfse han tenido en cuenta sus advertencias?", "articleBody": "\u00bfConstituye la inteligencia artificial (IA) un riesgo potencialmente existencial para la humanidad? Esa es la opini\u00f3n del Future of Life Institute (FLI), que hace seis meses public\u00f3 una carta abierta en la que ped\u00eda una \u0022pausa inmediata\u0022 a los grandes experimentos con IA. La carta lleg\u00f3 en medio de una oleada de inter\u00e9s p\u00fablico por la IA generativa, cuando aplicaciones como ChatGPT y Midjourney mostraron c\u00f3mo la tecnolog\u00eda est\u00e1 cada vez m\u00e1s cerca de replicar la capacidad humana en la escritura y el arte. Para los firmantes de la carta -entre los que se encuentran Elon Musk, consejero delegado de X, Tesla y SpaceX, Steve Wozniak, cofundador de Apple, y el escritor Yuval Noah Harari-, el auge aparentemente repentino de la IA generativa hace necesaria una pausa . Se pidi\u00f3 a empresas como OpenAI de ChatGPT y Google que consideraran los \u0022profundos riesgos para la sociedad y la humanidad\u0022 que su tecnolog\u00eda podr\u00eda estar creando. Es justo decir que los principales actores no pulsaron el bot\u00f3n de pausa. En su lugar, m\u00e1s empresas se han unido a la carrera de la IA generativa con sus propios modelos de lenguaje de gran tama\u00f1o (LLM), con Meta lanzando Llama 2 y Anthropic mostrando su rival de ChatGPT Claude 2. Independientemente de que los gigantes tecnol\u00f3gicos hayan hecho caso o no a las advertencias, la carta del FLI marca un hito en lo que se perfila como el a\u00f1o de la IA. Mark Brakel, director de pol\u00edtica del instituto, afirma que no esperaban obtener la respuesta que recibi\u00f3 su carta, una amplia cobertura de prensa y una renovada urgencia en los gobiernos por averiguar qu\u00e9 hacer ante el r\u00e1pido progreso de la IA. La carta fue citada en una audiencia del Senado estadounidense y recibi\u00f3 una respuesta formal del Parlamento Europeo. Brakel explica a Euronews Next que la pr\u00f3xima cumbre mundial sobre seguridad de la IA, que se celebrar\u00e1 en Bletchley Park (Reino Unido), ser\u00e1 una buena oportunidad para que los gobiernos den un paso al frente all\u00ed donde las empresas se niegan a poner el freno. Seg\u00fan \u00e9l, la palabra de moda hasta ahora ha sido \u0022IA generativa\u0022, pero pronto podr\u00eda convertirse en \u0022IA ag\u00e9ntica\u0022, en la que la IA pueda realmente tomar decisiones y actuar de forma aut\u00f3noma. \u0022Creo que \u00e9sa es quiz\u00e1 la l\u00ednea de tendencia que observamos, y tambi\u00e9n vemos c\u00f3mo OpenAI casi ha raspado todo Internet de texto. Estamos empezando a ver v\u00eddeos, podcasts y Spotify como fuentes alternativas de datos, v\u00eddeo y voz\u0022, afirma. \u00bfCerca del desastre? Brakel se\u00f1ala que, aunque \u0022nos hemos convertido un poco en 'la organizaci\u00f3n de las cartas'\u0022, la FLI se fund\u00f3 en 2014 y ha trabajado en tres grandes \u00e1reas de riesgo a nivel civilizacional: IA, biotecnolog\u00eda y armas nucleares. En su p\u00e1gina web hay un v\u00eddeo especialmente llamativo, un relato ficticio de una cat\u00e1strofe mundial de la IA en el a\u00f1o 2032. En medio de las tensiones entre Taiw\u00e1n y China, la dependencia militar de la IA para la toma de decisiones conduce a una guerra nuclear total, y el v\u00eddeo termina con el planeta iluminado con armas nucleares. Brakel cree que nos hemos acercado a ese tipo de escenario. \u0022La integraci\u00f3n de la IA en el mando y control militar sigue avanzando, especialmente en las grandes potencias. Sin embargo, tambi\u00e9n observo un mayor deseo de regulaci\u00f3n por parte de los Estados, sobre todo en lo que respecta a la autonom\u00eda de los sistemas de armas convencionales\u0022, afirma. El pr\u00f3ximo a\u00f1o tambi\u00e9n parece prometedor para la regulaci\u00f3n de la autonom\u00eda en sistemas como drones, submarinos y tanques, asegura. \u0022Espero que eso tambi\u00e9n permita a las grandes potencias llegar a acuerdos para evitar accidentes en el mando y control nuclear, que es un nivel m\u00e1s sensible que el de las armas convencionales\u0022. Regulaci\u00f3n inminente Aunque las grandes empresas de IA no han puesto pausa a su experimentaci\u00f3n, sus l\u00edderes han reconocido abiertamente los profundos riesgos que la IA y la automatizaci\u00f3n suponen para la humanidad. Sam Altman, consejero delegado de OpenAI, hizo un llamamiento a los pol\u00edticos estadounidenses a principios de este a\u00f1o para que establecieran una regulaci\u00f3n gubernamental de la IA, revelando que sus \u0022peores temores son que nosotros... la industria tecnol\u00f3gica, causemos un da\u00f1o significativo al mundo\u0022. Esto podr\u00eda ocurrir de \u0022muchas maneras diferentes\u0022, a\u00f1adi\u00f3. Abog\u00f3 por la creaci\u00f3n de una agencia estadounidense o mundial que conceda licencias a los sistemas de IA m\u00e1s potentes. Sin embargo, Europa puede convertirse en el l\u00edder de la regulaci\u00f3n, con la hist\u00f3rica Ley de IA de la Uni\u00f3n Europea en preparaci\u00f3n. Las instituciones de la Uni\u00f3n a\u00fan est\u00e1n ultimando los detalles, pero el Parlamento Europeo vot\u00f3 a favor por abrumadora mayor\u00eda, con 499 votos a favor, 28 en contra y 93 abstenciones. De acuerdo con la ley, los sistemas de inteligencia artificial se clasificar\u00e1n en distintos niveles en funci\u00f3n de su nivel de riesgo: los m\u00e1s arriesgados estar\u00e1n prohibidos y los de riesgo limitado requerir\u00e1n ciertos niveles de transparencia y supervisi\u00f3n. \u0022En general, estamos bastante satisfechos con la ley\u0022, afirma Brakel. \u0022Una cosa que hemos defendido desde el principio, cuando la Comisi\u00f3n propuso por primera vez la ley, es que tiene que regular los sistemas basados en GPT. En aquel momento habl\u00e1bamos de GPT3 en lugar de 4 [los modelos de transformador de OpenAI], pero el principio sigue siendo el mismo y nos enfrentamos a muchos grupos de presi\u00f3n de las grandes tecnol\u00f3gicas en contra\u0022. \u0022La idea es la misma en Estados Unidos que en la UE: que s\u00f3lo los s de los sistemas de IA, los que los despliegan, saben en qu\u00e9 contexto se utilizan\u0022. Pone el ejemplo de un hospital que utiliza un chatbot para ar con los pacientes. \u0022Van a comprar el chatbot a OpenAI, no lo van a construir ustedes. Y si luego hay un error del que se te hace responsable porque has dado un consejo m\u00e9dico que no deber\u00edas haber dado, entonces est\u00e1 claro que tienes que entender qu\u00e9 tipo de producto has comprado. Y parte de esa responsabilidad deber\u00eda ser compartida\u0022. Mientras Europa espera la formulaci\u00f3n final de la Ley de IA de la UE, la cumbre mundial sobre seguridad de la IA del 1 de noviembre deber\u00eda ser el pr\u00f3ximo acontecimiento que ofrezca una idea de c\u00f3mo abordar\u00e1n los l\u00edderes de todo el mundo la regulaci\u00f3n de la IA en un futuro pr\u00f3ximo. ", "dateCreated": "2023-09-20T16:28:52+02:00", "dateModified": "2023-09-25T10:59:31+02:00", "datePublished": "2023-09-25T10:59:27+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F90%2F90%2F60%2F1440x810_cmsv2_c00f0636-5430-50a5-9a2f-cfabcbd7ade0-7909060.jpg", "width": 1440, "height": 810, "caption": "\u00bfSuponen las m\u00e1quinas y la IA un riesgo existencial para la humanidad?", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F90%2F90%2F60%2F432x243_cmsv2_c00f0636-5430-50a5-9a2f-cfabcbd7ade0-7909060.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Hurst", "givenName": "Luke", "name": "Luke Hurst", "url": "/perfiles/1742", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/@lukekhurst", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Los expertos pidieron hace seis meses una pausa en la IA. ¿Dónde estamos ahora?

¿Suponen las máquinas y la IA un riesgo existencial para la humanidad?
¿Suponen las máquinas y la IA un riesgo existencial para la humanidad? Derechos de autor Canva
Derechos de autor Canva
Por Luke Hurst
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Los líderes tecnológicos firmaron una carta abierta en la que pedían una pausa en la IA, pero ¿se han tenido en cuenta sus advertencias?

PUBLICIDAD

¿Constituye la inteligencia artificial (IA) un riesgo potencialmente existencial para la humanidad? Esa es la opinión del Future of Life Institute (FLI), que hace seis meses publicó una carta abierta en la que pedía una "pausa inmediata" a los grandes experimentos con IA.

La carta llegó en medio de una oleada de interés público por la IA generativa, cuando aplicaciones como ChatGPT y Midjourney mostraron cómo la tecnología está cada vez más cerca de replicar la capacidad humana en la escritura y el arte.

Para los firmantes de la carta -entre los que se encuentran Elon Musk, consejero delegado de X, Tesla y SpaceX, Steve Wozniak, cofundador de Apple, y el escritor Yuval Noah Harari-, el auge aparentemente repentino de la IA generativa hace necesaria una pausa. Se pidió a empresas como OpenAI de ChatGPT y Google que consideraran los "profundos riesgos para la sociedad y la humanidad" que su tecnología podría estar creando.

Es justo decir que los principales actores no pulsaron el botón de pausa.

En su lugar, más empresas se han unido a la carrera de la IA generativa con sus propios modelos de lenguaje de gran tamaño (LLM), con Meta lanzando Llama 2 y Anthropic mostrando su rival de ChatGPT Claude 2.

Independientemente de que los gigantes tecnológicos hayan hecho caso o no a las advertencias, la carta del FLI marca un hito en lo que se perfila como el año de la IA.

Mark Brakel, director de política del instituto, afirma que no esperaban obtener la respuesta que recibió su carta, una amplia cobertura de prensa y una renovada urgencia en los gobiernos por averiguar qué hacer ante el rápido progreso de la IA.

La carta fue citada en una audiencia del Senado estadounidense y recibió una respuesta formal del Parlamento Europeo.

Brakel explica a Euronews Next que la próxima cumbre mundial sobre seguridad de la IA, que se celebrará en Bletchley Park (Reino Unido), será una buena oportunidad para que los gobiernos den un paso al frente allí donde las empresas se niegan a poner el freno.

Según él, la palabra de moda hasta ahora ha sido "IA generativa", pero pronto podría convertirse en "IA agéntica", en la que la IA pueda realmente tomar decisiones y actuar de forma autónoma.

"Creo que ésa es quizá la línea de tendencia que observamos, y también vemos cómo OpenAI casi ha raspado todo Internet de texto. Estamos empezando a ver vídeos, podcasts y Spotify como fuentes alternativas de datos, vídeo y voz", afirma.

¿Cerca del desastre?

Brakel señala que, aunque "nos hemos convertido un poco en 'la organización de las cartas'", la FLI se fundó en 2014 y ha trabajado en tres grandes áreas de riesgo a nivel civilizacional: IA, biotecnología y armas nucleares.

En su página web hay un vídeo especialmente llamativo, un relato ficticio de una catástrofe mundial de la IA en el año 2032. En medio de las tensiones entre Taiwán y China, la dependencia militar de la IA para la toma de decisiones conduce a una guerra nuclear total, y el vídeo termina con el planeta iluminado con armas nucleares.

Brakel cree que nos hemos acercado a ese tipo de escenario.

"La integración de la IA en el mando y control militar sigue avanzando, especialmente en las grandes potencias. Sin embargo, también observo un mayor deseo de regulación por parte de los Estados, sobre todo en lo que respecta a la autonomía de los sistemas de armas convencionales", afirma.

El próximo año también parece prometedor para la regulación de la autonomía en sistemas como drones, submarinos y tanques, asegura.

"Espero que eso también permita a las grandes potencias llegar a acuerdos para evitar accidentes en el mando y control nuclear, que es un nivel más sensible que el de las armas convencionales".

Regulación inminente

Aunque las grandes empresas de IA no han puesto pausa a su experimentación, sus líderes han reconocido abiertamente los profundos riesgos que la IA y la automatización suponen para la humanidad.

Sam Altman, consejero delegado de OpenAI, hizo un llamamiento a los políticos estadounidenses a principios de este año para que establecieran una regulación gubernamental de la IA, revelando que sus "peores temores son que nosotros... la industria tecnológica, causemos un daño significativo al mundo". Esto podría ocurrir de "muchas maneras diferentes", añadió. Abogó por la creación de una agencia estadounidense o mundial que conceda licencias a los sistemas de IA más potentes.

Sin embargo, Europa puede convertirse en el líder de la regulación, con la histórica Ley de IA de la Unión Europea en preparación.

Las instituciones de la Unión aún están ultimando los detalles, pero el Parlamento Europeo votó a favor por abrumadora mayoría, con 499 votos a favor, 28 en contra y 93 abstenciones.

De acuerdo con la ley, los sistemas de inteligencia artificial se clasificarán en distintos niveles en función de su nivel de riesgo: los más arriesgados estarán prohibidos y los de riesgo limitado requerirán ciertos niveles de transparencia y supervisión.

"En general, estamos bastante satisfechos con la ley", afirma Brakel. "Una cosa que hemos defendido desde el principio, cuando la Comisión propuso por primera vez la ley, es que tiene que regular los sistemas basados en GPT. En aquel momento hablábamos de GPT3 en lugar de 4 [los modelos de transformador de OpenAI], pero el principio sigue siendo el mismo y nos enfrentamos a muchos grupos de presión de las grandes tecnológicas en contra".

"La idea es la misma en Estados Unidos que en la UE: que sólo los s de los sistemas de IA, los que los despliegan, saben en qué contexto se utilizan".

Pone el ejemplo de un hospital que utiliza un chatbot para ar con los pacientes. "Van a comprar el chatbot a OpenAI, no lo van a construir ustedes. Y si luego hay un error del que se te hace responsable porque has dado un consejo médico que no deberías haber dado, entonces está claro que tienes que entender qué tipo de producto has comprado. Y parte de esa responsabilidad debería ser compartida".

Mientras Europa espera la formulación final de la Ley de IA de la UE, la cumbre mundial sobre seguridad de la IA del 1 de noviembre debería ser el próximo acontecimiento que ofrezca una idea de cómo abordarán los líderes de todo el mundo la regulación de la IA en un futuro próximo.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

La guerra de drones en Ucrania podría ser clave para defender Taiwán

Reddit demanda a Anthropic por el uso ilegal de datos para entrenar a la IA

Las 100 medidas de Trump que beneficiaron a Elon Musk y sus empresas