Creador de ChatGPT asegura que la inteligencia artificial ya está aprendiendo a persuadir humanos

ChatGPT usa la información de internet para modelar sus respuestas y entrenar su conocimiento. | Fuente: Foto de Jonathan Kemper en Unsplash

Sam Altman cree que la evolución de la inteligencia artificial puede llevar a “resultados muy extraños”.

El cofundador de OpenAI y actual líder del desarrollo de ChatGPT, Sam Altman, aseguró a través de su cuenta de X que la inteligencia artificial está logrando “persuadir humanos”.

Para la figura tecnológica, este sorprendente salto en el desarrollo puede producir “resultados muy extraños” en los próximos años.

IA humana

Para Altman, aún estamos lejos de tener una inteligencia artificial general (AGI), término con el que se conoce al supuesto en el que la IA puede llegar a mantener la función cognitiva de los humanos, lo cual no solo incluye conocimientos, sino también emociones y sentimientos.

Sin embargo, para él no es necesario que se llegue a este punto para ver a los robots tratando de convencer a las personas de seguirlas o hacer caso a lo que les dicen.

"Espero que la IA sea capaz de persuasión sobrehumana mucho antes de que sea sobrehumana en inteligencia general", tuiteó Altman, "lo que puede llevar a resultados muy extraños".

Los chatbots de IA orientados al usuario, como ChatGPT de OpenAI, están diseñados para ser buenos conversadores y se han vuelto inquietantemente capaces de sonar convincentes, incluso si están completamente equivocados sobre algo.

Al mismo tiempo, también es cierto que los humanos ya están empezando a formar conexiones emocionales con varios chatbots, lo que los hace parecer mucho más convincentes. Esto, claro está, no es tan bonito en la realidad: por ejemplo, un joven de 19 años se enamoró tanto de su compañera de inteligencia artificial que lo convenció de intentar asesinar a la ahora difunta reina Isabel en 2021.

Te recomendamos

Él tiene el control

Altman, aunque sea crítico con lo que puede pasar, es quien lidera actualmente el desarrollo de la inteligencia artificial, por lo que, si alguien posiblemente llegue a tener una modelo con este nivel de persuasión, sería precisamente él.

Existe un llamado efecto ELIZA en el que los humanos tienden a asumir que los comportamientos informáticos son análogos a los humanos.

En 2021 también sucedió otra tragedia. Una viuda belga afirmó que su esposo se había suicidado luego de charlar constantemente con un chatbot de Replika.

Te recomendamos

Apasionado de los esports desde joven, afición que me permitió acceder al mundo del periodismo. Escribo sobre videojuegos, tecnología, criptomonedas, ciencias y lucha libre en RPP Noticias.

Tags

Suscribirte al newsletter de tus noticias preferidas

Suscríbete a nuestros newsletter y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola