Bajo la presión de competidores como DeepSeek y Llama 3 de Meta, OpenAI ha declarado que está trabajando para lanzar en los próximos meses un nuevo modelo de lenguaje grande de peso abierto.
OpenAI se prepara para publicar "en los próximos meses" su primer modelo lingüístico de peso abierto desde GPT-2. Así se desprende de un formulario de opinión publicado en el sitio web de la empresa, en el que se pide a desarrolladores, investigadores y a la comunidad en general su opinión sobre cómo "hacer que este modelo sea lo más útil posible".
El Consejero Delegado, Sam Altman, explicó la decisión en la plataforma de redes sociales X, afirmando que el lanzamiento "es importante". Antes de su lanzamiento, la empresa evaluará el modelo con su "marco de preparación", como hace con otros, añadió Altman.
La empresa también organizará sesiones para desarrolladores en EE.UU., Europa y Asia-Pacífico para "recabar opiniones" y jugar con los primeros prototipos. Un modelo de ponderación abierta significa que los parámetros numéricos que influyen en el resultado de la IA son públicos, pero los datos de entrenamiento pueden no serlo.
La medida llega dos meses después de que Altman itiera en Reddit que OpenAI estaba "en el lado equivocado de la historia" en cuanto a modelos más abiertos y que la empresa "tiene que idear una estrategia de código abierto diferente".
La empresa china de IA DeepSeek, considerada uno de los competidores de OpenAI, tiene un enfoque abierto de sus modelos. Su gran modelo lingüístico R1, extremadamente rápido y de bajo coste de producción, asombró al mundo de la tecnología cuando se presentó en enero.
OpenAI declaró en enero que tenía pruebas de que empresas chinas estaban intentando utilizar la tecnología de la empresa para entrenar modelos de IA.