Un nuevo reporte señala que uno de los empleados de Samsung pidió a ChatGPT que generara notas a partir de una reunión grabada.
ChatGPT ha cambiado el paradigma de lo que un sistema de inteligencia artificial de consumo masivo puede lograr y resulta sumamente útil para una amplia variedad de tareas. No obstante, una gran parte de sus millones de usuarios olvidan que, al pedirle al chatbot que resuma notas importantes o que compruebe si hay errores en sus trabajos, este puede utilizar dicha información para entrenar su sistema y hasta puede mostrarla en las respuestas de otros usuarios. Esto se ha puesto en manifiesto con el más reciente caso que involucra a trabajadores de Samsung.
Tal como señala el portal The Economist Korea, vía Mashable, varios empleados de Samsung no fueron conscientes sobre el detalle antes mencionado antes de compartir información confidencial de la empresa con ChatGPT. Poco después de que la división de semiconductores de la empresa permitiera a sus ingenieros utilizar el chatbot, los trabajadores le filtraron datos secretos en al menos tres ocasiones.
Te recomendamos
Problemas con ChatGPT y la confidencialidad de las empresas
Aparentemente, un empleado pidió a ChatGPT, chatbot de OpenAI, que comprobara si había errores en el código fuente de una base de datos confidencial, otro solicitó la optimización de un código y un tercero introdujo una reunión confidencial grabada en la plataforma para solicitarle que generara un documento en base a ella.
Los informes sugieren que, tras conocer dichas filtraciones, Samsung intentó limitar el alcance de futuros errores restringiendo la longitud de las solicitudes de ChatGPT de los empleados a un kilobyte, o 1024 caracteres de texto. También se dice que la empresa está investigando a los tres empleados en cuestión y hasta habría decidido crear su propio chatbot para evitar percances de esta magnitud.
Una delicada situación que involucra a ChatGPT
La política de datos de ChatGPT establece que, a menos que los usuarios lo excluyan explícitamente, el sistema puede utilizar sus mensajes para entrenar sus modelos de lenguaje. OpenAI, empresa dueña del chatbot, insta a los usuarios a no compartir información confidencial con ChatGPT en las conversaciones, ya que "no puede eliminar mensajes específicos del historial".
El soporte de la plataforma de inteligencia artificial indica que la única forma de eliminar la información personal de ChatGPT es borrar la cuenta, un proceso que puede llevar hasta cuatro semanas. El caso de los empleados de Samsung es un ejemplo más de por qué es importante ser precavido al utilizar chatbots, algo que cada usuario debería extender a toda su actividad en línea ya que uno nunca sabe realmente dónde acabarán estos datos.
Te recomendamos
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.
Comparte esta noticia
Siguenos en