Google está impulsando su propia inteligencia artificial, pero le pide a sus trabajadores que no compartan información confidencial con ellas.
Google se ha convertido en una de las empresas más activas en el desarrollo de la inteligencia artificial en el mundo, pero, pese a ello, no quiere que sus empleados utilicen los chatbots que incluso ellos mismo están probando.
La dueña de Bard está advirtiendo a los trabajadores que no envíen información confidencial a estos servicios, incluyendo el suyo.
Te recomendamos
Precauciones con los chatbots
Un chatbot es un programa informático que, mediante la inteligencia artificial y el procesamiento del lenguaje natural, comprende las palabras y frases de las personas para responderles como si fuese un humano.
Con la popularidad de las IA, los chatbots se han convertido en servicios masivos. El ejemplo más claro es el de ChatGPT, de la compañía OpenAI. Pero Google también tiene el suyo: Bard.
El problema es que las conversaciones que mantienen los usuarios con los chatbots se almacenan con el fin de seguir enseñando a las IA a mejorar su lenguaje y sus respuestas. Eso conlleva un riesgo mayor: la filtración de data en otras conversaciones.
La matriz de Google, Alphabet, aconsejó a los empleados que no ingresen información confidencial en los chatbots, citaron fuentes de Reuters. La compañía confirmó posteriormente el comunicado.
La empresa también alertó a los ingenieros para evitar el uso directo del código de computadora que puedan generar los sistemas de IA. Alphabet señala que Bard puede hacer sugerencias de código no deseadas.
Te recomendamos
Mucho dinero de por medio
Las preocupaciones muestran cómo Google desea evitar daños comerciales por el software que lanzó en competencia con ChatGPT. En la carrera de Google contra los patrocinadores de ChatGPT, OpenAI y Microsoft, están en juego miles de millones de dólares de inversión y publicidad e ingresos en la nube aún no revelados de los nuevos programas de la inteligencia artificial.
Pero muchas empresas están siguiendo un mismo camino de regulación en el uso de chatbots.
El mes pasado, el Wall Street Journal informó que Apple prohibió a sus empleados ChatGPT, así como otro servicio impulsado por inteligencia artificial llamado Github's Copilot, que se usa para ayudar a los desarrolladores a escribir código. Samsung implementó una prohibición similar en ChatGPT en mayo, luego de descubrir una fuga accidental de código confidencial por parte de un ingeniero que lo subió a esta empresa. Amazon también prohibió alos empleados de compartir cualquier código o información confidencial con el producto de OpenAI después de que la compañía afirmara que descubrió ejemplos de respuestas de ChatGPT que se parecían a los datos internos de la empresa.
Varios bancos, incluidos JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank, Wells Fargo y Goldman Sachs, también han prohibido el uso de chatbots de inteligencia artificial por parte de los empleados preocupados de que puedan compartir información financiera confidencial.
Hace algunos días, Politico informó que Google estaba posponiendo el lanzamiento de Bard en la Unión Europea debido a preocupaciones sobre el impacto del chatbot en la privacidad. Bard actualmente está disponible a nivel mundial, pero solo en inglés. La compañía busca implementar el servicio de 180 países en 40 idiomas.
Te recomendamos
Comparte esta noticia
Siguenos en