En una conversación sobre las amenazas que plantean los sistemas de IA, el CEO y co-fundador de OpenAI, Sam Altman, ha confirmado que actualmente no están entrenando a GPT-5, el posible sucesor de su modelo de lenguaje de IA GPT-4 lanzado en marzo pasado.
Durante un evento en el MIT, Altman fue preguntado acerca de una reciente carta abierta que circuló en el mundo de la tecnología, la cual solicitaba que los laboratorios como OpenAI detuvieran el desarrollo de sistemas de IA “más potentes que GPT-4”. La carta destacó preocupaciones sobre la seguridad de los sistemas futuros, pero ha sido criticada por muchos en la industria, incluyendo algunos de sus firmantes. Los expertos no se ponen de acuerdo sobre la naturaleza de la amenaza que plantea la IA (¿es existencial o más mundana?) y sobre cómo la industria podría “pausar” el desarrollo en primer lugar.
Durante el evento en el MIT, Altman señaló que la carta “carecía de sutilezas técnicas sobre dónde necesitamos la pausa” y destacó que una versión previa afirmaba que OpenAI estaba actualmente entrenando a GPT-5. “No lo estamos haciendo y no lo haremos por un tiempo”, afirmó Altman. “Así que, en ese sentido, fue un poco tonto”.
Sin embargo, el hecho de que OpenAI no esté trabajando en GPT-5 no significa que no estén ampliando las capacidades de GPT-4, o como Altman hizo hincapié, considerando las implicaciones de seguridad de dicho trabajo. “Estamos haciendo otras cosas sobre GPT-4 que creo que tienen todo tipo de cuestiones de seguridad que son importantes abordar y que fueron totalmente omitidas en la carta”, dijo.
La falsa emoción de los números de versión en el mundo de la IA
Los comentarios de Altman son interesantes, aunque no necesariamente por lo que revelan sobre los planes futuros de OpenAI. En cambio, destacan un desafío significativo en el debate sobre la seguridad de la IA: la dificultad de medir y rastrear el progreso. Altman puede decir que OpenAI no está entrenando actualmente a GPT-5, pero esa afirmación no es particularmente significativa.
La emoción generada en torno a la Inteligencia Artificial (IA) a menudo se debe a la idea de que los nuevos modelos de lenguaje de la IA, como GPT-3 y GPT-4, son cada vez más avanzados. Sin embargo, la numeración de estos modelos de lenguaje no es una medida precisa de la capacidad de un modelo de lenguaje de IA.
Es fácil pensar que un modelo de lenguaje con un número de versión más alto es automáticamente mejor que uno con un número de versión más bajo. Pero esto no es necesariamente cierto. En cambio, los modelos de lenguaje de IA deben ser evaluados por su capacidad para abordar tareas específicas y su capacidad para mitigar sesgos y errores.
Es cierto que los modelos de lenguaje de la IA se están desarrollando rápidamente y pueden tener implicaciones importantes para la seguridad. Sin embargo, es importante comprender que estos modelos no son la solución para todos los problemas del lenguaje natural. Tienen limitaciones significativas y pueden ser propensos a sesgos y errores.
Aunque GPT-5 es el modelo de lenguaje de IA que se espera suceda a GPT-4, el CEO de OpenAI ha confirmado que la compañía no está actualmente trabajando en GPT-5. Esto no significa que OpenAI no esté trabajando en mejorar GPT-4 o que otros en la industria no estén trabajando en sistemas igualmente avanzados.
En lugar de centrarse en los números de versión, es importante evaluar los modelos de lenguaje de la IA en función de su capacidad para abordar tareas específicas y su capacidad para mitigar sesgos y errores. La IA es una tecnología emocionante con el potencial de ayudarnos a resolver muchos problemas importantes, pero debemos ser conscientes de sus limitaciones y seguir evaluando cuidadosamente sus avances.