CEO de OpenAI no se impacienta por la potencia de su inteligencia artificial

Sam Altman también aseguró que no están trabajando en GPT-5 y se están concentrando en su actual LLM. | Fuente: Foto de Zac Wolff en Unsplash

Sam Altman asegura que “no estamos aquí para masturbarnos por el número de parámetros”. También opinó sobre la carta de Elon Musk que pide una pausa a la investigación de la inteligencia artificial.

El CEO de OpenAI, Sam Altman, asegura que el mundo se acerca al límite de tamaño de los grandes modelos de lenguaje (LLM), pero que aún es posible mejorar estas inteligencias artificiales.

Para la mente detrás de ChatGPT, “no estamos aquí para masturbarnos por el número de parámetros” y se muestra sorprendido de la gran capacidad de las alternativas open source en alcanzar estadísticas cercanas con mucho menor presupuesto.

Te recomendamos

Los parámetros de la IA

De acuerdo con Altman en el evento ‘Imagination in Action’ organizado por el MIT, los LLM ya están llegando a su máximo tamaño, pero aún pueden seguir siendo mejorados y optimizados. Él compara esta carrera con la carrera de las fabricantes de chip por conseguir más megahercios de potencia.

"La mayoría de ustedes no sabe cuántos gigahercios tiene su iPhone, pero sí que es rápido. Lo que realmente nos importa son las capacidades, y creo que es importante que nos mantengamos centrado en aumentar rápidamente la capacidad [de los LLM]", refiere.

Incluso, el ejecutivo señala que, si fuese necesario, le reduciría la cantidad de parámetros a la inteligencia artificial para mejorar su calidad.

“Creo que es importante que nos mantengamos enfocados en aumentar rápidamente la capacidad. Y si hay alguna razón por la que el número de parámetros deba disminuir con el tiempo, o si debemos tener varios modelos trabajando juntos, cada uno de los cuales es más pequeño, lo haríamos. Lo que queremos entregar al mundo son los modelos más capaces, útiles y seguros. No estamos aquí para masturbarnos con el conteo de parámetros”, dijo.

Según estadísticas oficiales, GPT-3, el modelo anterior al actual, mantenía 175 mil millones de parámetros. Sin confirmación oficial, se cree que GPT-4 llega a 1.6 billones de parámetros.

Su premisa también se da por el cierre de las brechas entre las grandes y pequeñas tecnológicas en este campo: Altman cree que las empresas pueden lograr 13 mil millones de parámetros con solo 100 dólares mientras que a OpenAI le costó 10 millones de dólares lograr 540 mil millones de ellos.

Te recomendamos

La carta de Musk

Por otro lado, Sam Altman también opinó sobre la carta firmada por 1000 personalidades tecnológicas, incluidas Elon Musk, en los que se pedía detener la investigación de la inteligencia artificial para poder crear regulaciones al respecto.

"Estoy realmente de acuerdo con algunas partes del enfoque [de esa carta]. Nosotros pasamos más de seis meses estudiando GPT-4 desde que terminamos de entrenarlo hasta que lo lanzamos, […] sometiéndolo a auditorías externas para mitigar todo lo posible. Eso es importante", refirió.

"Desafortunadamente, creo que a la carta le faltan los matices más técnicos sobre dónde debemos poner el límite", refiere, para también señalar que “no están entrenando” el modelo GPT-5.

Altman dice que está siendo abierto sobre los problemas de seguridad y las limitaciones del modelo actual porque cree que es lo correcto. Reconoce que a veces él y otros representantes de la empresa dicen “tonterías”, lo que resulta ser un error, pero está dispuesto a correr ese riesgo porque es importante tener un diálogo sobre esta tecnología.

Te recomendamos

Tags

Suscribirte al newsletter de tus noticias preferidas

Suscríbete a nuestros newsletter y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola