{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/04/23/openai-dice-que-podria-ajustar-la-seguridad-de-su-ia-si-un-competidor-hace-que-la-suya-sea" }, "headline": "OpenAI sugiere flexibilizar la seguridad de su IA si rivales toman ventaja con sistemas de riesgo", "description": "Si un competidor lanza un modelo de IA con un alto nivel de riesgo, OpenAI dice que considerar\u00e1 ajustar sus requisitos de seguridad para que tambi\u00e9n pueda hacerlo.", "articleBody": "OpenAI dijo que considerar\u00e1 ajustar sus requisitos de seguridad si una empresa competidora publica un modelo de inteligencia artificial de alto riesgo sin protecciones. La compa\u00f1\u00eda escribi\u00f3 en su informe 'Marco de preparaci\u00f3n' que si otra empresa lanza un modelo que supone una amenaza, podr\u00eda hacer lo mismo tras confirmar \u0022rigurosamente\u0022 que el \u0022panorama de riesgo\u0022 ha cambiado.El documento explica c\u00f3mo la empresa rastrea, eval\u00faa, prev\u00e9 y protege contra los riesgos catastr\u00f3ficos que plantean los modelos de IA. \u0022Si otro desarrollador de IA fronteriza lanza un sistema de alto riesgo sin salvaguardas comparables, podr\u00edamos ajustar nuestros requisitos\u0022, escribi\u00f3 OpenAI en una entrada de blog publicada el martes.\u0022Sin embargo, primero confirmar\u00edamos rigurosamente que el panorama de riesgo realmente ha cambiado, reconocer\u00edamos p\u00fablicamente que estamos haciendo un ajuste, evaluar\u00edamos que el ajuste no aumenta significativamente el riesgo general de da\u00f1o grave y a\u00fan mantendr\u00edamos las salvaguardas en un nivel m\u00e1s protector\u0022.Antes de hacer p\u00fablico un modelo, OpenAI eval\u00faa si puede causar da\u00f1os graves identificando riesgos plausibles, mensurables, nuevos, graves e irremediables, y estableciendo salvaguardias contra ellos. A continuaci\u00f3n, clasifica estos riesgos como bajos, medios, altos o cr\u00edticos.Algunos de los riesgos que la empresa ya rastrea son las capacidades de sus modelos en los campos de la biolog\u00eda, la qu\u00edmica, la ciberseguridad y su superaci\u00f3n. La empresa dice que tambi\u00e9n est\u00e1 evaluando nuevos riesgos, como si su modelo de IA puede funcionar durante mucho tiempo sin intervenci\u00f3n humana, la autorreplicaci\u00f3n y qu\u00e9 amenaza podr\u00eda suponer en los campos nuclear y radiol\u00f3gico.Los \u0022riesgos de persuasi\u00f3n\u0022, como el uso de ChatGPT para campa\u00f1as pol\u00edticas o grupos de presi\u00f3n, se tratar\u00e1n fuera del marco y, en su lugar, se estudiar\u00e1n a trav\u00e9s del Model Spec, el documento que determina el comportamiento de ChatGPT.Reducci\u00f3n silenciosa de los compromisos de seguridadSteven Adler, antiguo investigador de OpenAI, afirm\u00f3 en X que las actualizaciones del informe de preparaci\u00f3n de la empresa demuestran que est\u00e1 \u0022reduciendo silenciosamente sus compromisos de seguridad\u0022. En su mensaje, se\u00f1al\u00f3 un compromiso de diciembre de 2023 por parte de la compa\u00f1\u00eda para probar \u0022versiones afinadas\u0022 de sus modelos de IA, pero se\u00f1al\u00f3 que OpenAI ahora cambiar\u00e1 a solo probar modelos cuyos par\u00e1metros entrenados o \u0022pesos\u0022 se publicar\u00e1n.\u0022La gente puede estar totalmente en desacuerdo sobre si es necesario probar modelos afinados, y mejor para OpenAI eliminar un compromiso que mantenerlo y simplemente no cumplirlo\u0022, dijo. \u0022Pero en cualquier caso, me gustar\u00eda que OpenAI fuera m\u00e1s clara sobre haber dado marcha atr\u00e1s en este compromiso previo\u0022.La noticia llega despu\u00e9s de que OpenAI lanzara esta semana una nueva familia de modelos de IA, denominada GPT-4.1, al parecer sin tarjeta de sistema ni informe de seguridad. 'Euronews Next' ha preguntado a OpenAI por el informe de seguridad, pero no ha recibido respuesta en el momento de la publicaci\u00f3n.La noticia llega despu\u00e9s de que 12 antiguos empleados de OpenAI presentaran la semana pasada un escrito en el caso presentado por Elon Musk contra OpenAI, en el que se alega que el cambio a una empresa con \u00e1nimo de lucro podr\u00eda dar lugar a recortes en materia de seguridad.", "dateCreated": "2025-04-20T12:29:04+02:00", "dateModified": "2025-04-23T04:01:45+02:00", "datePublished": "2025-04-23T04:00:36+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F21%2F48%2F42%2F1440x810_cmsv2_e84a1733-0038-5dc9-9be4-e928c2e8673f-9214842.jpg", "width": 1440, "height": 810, "caption": "El logotipo de OpenAI se muestra en un tel\u00e9fono m\u00f3vil con una imagen en el monitor de un ordenador generada por el modelo de conversi\u00f3n de texto a imagen Dall-E de ChatGPT.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F21%2F48%2F42%2F432x243_cmsv2_e84a1733-0038-5dc9-9be4-e928c2e8673f-9214842.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Desmarais", "givenName": "Anna", "name": "Anna Desmarais", "url": "/perfiles/2860", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/anna_desmarais", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

OpenAI sugiere flexibilizar la seguridad de su IA si rivales toman ventaja con sistemas de riesgo

El logotipo de OpenAI se muestra en un teléfono móvil con una imagen en el monitor de un ordenador generada por el modelo de conversión de texto a imagen Dall-E de ChatGPT.
El logotipo de OpenAI se muestra en un teléfono móvil con una imagen en el monitor de un ordenador generada por el modelo de conversión de texto a imagen Dall-E de ChatGPT. Derechos de autor AP Photo/Michael Dwyer
Derechos de autor AP Photo/Michael Dwyer
Por Anna Desmarais
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Si un competidor lanza un modelo de IA con un alto nivel de riesgo, OpenAI dice que considerará ajustar sus requisitos de seguridad para que también pueda hacerlo.

PUBLICIDAD

OpenAI dijo que considerará ajustar sus requisitos de seguridad si una empresa competidora publica un modelo de inteligencia artificial de alto riesgo sin protecciones. La compañía escribió en su informe 'Marco de preparación' que si otra empresa lanza un modelo que supone una amenaza, podría hacer lo mismo tras confirmar "rigurosamente" que el "panorama de riesgo" ha cambiado.

El documento explica cómo la empresa rastrea, evalúa, prevé y protege contra los riesgos catastróficos que plantean los modelos de IA. "Si otro desarrollador de IA fronteriza lanza un sistema de alto riesgo sin salvaguardas comparables, podríamos ajustar nuestros requisitos", escribió OpenAI en una entrada de blog publicada el martes.

"Sin embargo, primero confirmaríamos rigurosamente que el panorama de riesgo realmente ha cambiado, reconoceríamos públicamente que estamos haciendo un ajuste, evaluaríamos que el ajuste no aumenta significativamente el riesgo general de daño grave y aún mantendríamos las salvaguardas en un nivel más protector".

Antes de hacer público un modelo, OpenAI evalúa si puede causar daños graves identificando riesgos plausibles, mensurables, nuevos, graves e irremediables, y estableciendo salvaguardias contra ellos. A continuación, clasifica estos riesgos como bajos, medios, altos o críticos.

Algunos de los riesgos que la empresa ya rastrea son las capacidades de sus modelos en los campos de la biología, la química, la ciberseguridad y su superación. La empresa dice que también está evaluando nuevos riesgos, como si su modelo de IA puede funcionar durante mucho tiempo sin intervención humana, la autorreplicación y qué amenaza podría suponer en los campos nuclear y radiológico.

Los "riesgos de persuasión", como el uso de ChatGPT para campañas políticas o grupos de presión, se tratarán fuera del marco y, en su lugar, se estudiarán a través del Model Spec, el documento que determina el comportamiento de ChatGPT.

Reducción silenciosa de los compromisos de seguridad

Steven Adler, antiguo investigador de OpenAI, afirmó en X que las actualizaciones del informe de preparación de la empresa demuestran que está "reduciendo silenciosamente sus compromisos de seguridad". En su mensaje, señaló un compromiso de diciembre de 2023 por parte de la compañía para probar "versiones afinadas" de sus modelos de IA, pero señaló que OpenAI ahora cambiará a solo probar modelos cuyos parámetros entrenados o "pesos" se publicarán.

"La gente puede estar totalmente en desacuerdo sobre si es necesario probar modelos afinados, y mejor para OpenAI eliminar un compromiso que mantenerlo y simplemente no cumplirlo", dijo. "Pero en cualquier caso, me gustaría que OpenAI fuera más clara sobre haber dado marcha atrás en este compromiso previo".

La noticia llega después de que OpenAI lanzara esta semana una nueva familia de modelos de IA, denominada GPT-4.1, al parecer sin tarjeta de sistema ni informe de seguridad. 'Euronews Next' ha preguntado a OpenAI por el informe de seguridad, pero no ha recibido respuesta en el momento de la publicación.

La noticia llega después de que 12 antiguos empleados de OpenAI presentaran la semana pasada un escrito en el caso presentado por Elon Musk contra OpenAI, en el que se alega que el cambio a una empresa con ánimo de lucro podría dar lugar a recortes en materia de seguridad.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

ChatGPT crece: OpenAI lanzará un nuevo modelo de lenguaje abierto en los próximos meses

"Nuestros procesadores gráficos se están fundiendo": OpenAI restringe la nueva herramienta de ChatGPT

Noruega investiga a OpenAI después de que ChatGPT mintiese sobre un asesinato