El chatbot de IA puede dar algún buen consejo, pero lo mezcla con información incorrecta.
ChatGPT puede ser útil para muchas cosas, pero definitivamente no para elaborar tratamientos médicos.
Un estudio hecho por la Escuela de Medicina de Harvard ha revelado errores en tratamientos contra el cáncer elaborados por el chatbot de OpenAI.
El estudio, publicado por JAMA Oncology encontró recomendaciones de tratamiento inapropiadas que estaban mezcladas con consejos correctos. Esto es tal vez lo más preocupante, puede ser difícil distinguir una recomendación correcta de una inadecuada.
“ChatGPT habla en algunas ocasiones de una manera que refleja seguridad y que parece tener sentido. La manera en la que mezcla información correcta e incorrecta es potencialmente peligrosa”, explicó Danielle Bitterman, una oncóloga especializada en el estudio de la inteligencia artificial (IA) y su potencial aplicación en la medicina.
“Es difícil, incluso para un experto, identificar una recomendación incorrecta”, recalcó.
ChatGPT y sus errores para tratar el cáncer
El estudio encontró que ChatGPT podía dar al menos una recomendación acertada de acuerdo con los lineamientos de tratamientos contra el cáncer, pero estas se mezclaban con sugerencias incorrectas.
Un 12% de las respuestas de ChatGPT tenían “alucinaciones”, un problema latente en la inteligencia artificial.
Para Bitterman, igual sigue siendo impresionante que ChatGPT pueda dar algunas buenas recomendaciones.
“Pareciera que ChatGPT estudió Medicina, pero no hizo su residencia”.
Comparte esta noticia
Siguenos en