ChatGPT supera a los médicos en hacer diagnósticos clínicos más precisos, según un estudio

El modelo de lenguaje de inteligencia artificial de OpenAI supera a los médicos en precisión diagnóstica, según un sorprendente estudio | Fuente: Unsplash

Un reciente estudio destacó el potencial de ChatGPT-4 para revolucionar la medicina con diagnósticos más precisos, aunque enfatiza que su eficacia depende de un uso adecuado.

ChatGPT, el modelo de lenguaje de inteligencia artificial desarrollado por OpenAI, es quizás uno de los más conocidos a nivel mundial. Ha demostrado ser una herramienta útil para muchas personas en diversos campos, y ahora, un estudio ha mostrado su potencial en el ámbito médico, especialmente en el apoyo a diagnósticos clínicos.

Un reciente estudio publicado en la revista JAMA Network, dirigido por el Dr. Adam Rodman, experto en medicina interna del Centro Médico Beth Israel Deaconess de Boston, buscó analizar el potencial de los modelos de IA para apoyar a los médicos en diagnósticos precisos. Sin embargo, los resultados revelaron una conclusión inesperada.

El objetivo del estudio fue analizar el impacto de un LLM en el razonamiento diagnóstico de los médicos, en comparación con el uso de recursos convencionalesFuente: JAMA Network Open

La investigación incluyó a 50 médicos, 26 adjuntos y 24 residentes, los cuales fueron divididos en dos grupos. Cada participante debía analizar hasta seis casos clínicos en un lapso de 60 minutos. Lo interesante fue que un grupo contaba con acceso al chatbot de IA ChatGPT-4 y recursos de diagnóstico convencionales, mientras que el otro únicamente podía utilizar herramientas tradicionales, como UpToDate o Google.

Los resultados: IA y médicos en comparación

En un principio, se esperaba que los médicos que contaron con la ayuda de ChatGPT-4 obtuvieran resultados notablemente superiores a los que utilizaron únicamente recursos convencionales. Sin embargo, la diferencia fue mínima: el grupo que utilizó el chatbot alcanzó una precisión del 76%, mientras que el otro grupo obtuvo un 74%.

La puntuación fue de 76% para el grupo LLM y de 74% para el grupo de solo recursos convencionales, con una diferencia ajustada de 2 puntos porcentualesFuente: JAMA Network Open

A pesar de esta pequeña diferencia del 2%, hubo un tercer participante en el estudio: ChatGPT-4 por sí solo, sin participación de médicos. El chatbot logró una precisión del 90% al diagnosticar una afección médica a partir de un informe de caso y explicar su razonamiento, superando en un 16% al grupo que se limitó a métodos convencionales.

Te recomendamos

El factor humano: barrera para aprovechar la IA

Los resultados fueron sorprendente y, al mismo tiempo, generaban dudas del por qué el grupo que contó con la ayuda del chatbot no obtuvo una puntuación significativamente mayor. Según Rodman, citado en declaraciones a The New York Times, esto se debe a que los médicos suelen mostrar sesgos y rechazar diagnósticos que contradicen su propia percepción, aferrándose a su idea de lo que consideran correcto.

El Dr. Rodman explicó que estos médicos “no escuchaban a la IA cuando les decía cosas con las que no estaban de acuerdo”, manteniéndose firmes en no considerar diagnósticos alternativos. Laura Zwaan, experta en razonamiento clínico del Centro Médico Erasmus de Rotterdam, quien no participó en el estudio, respaldó esta observación. “La gente se confía demasiado cuando cree que tiene razón”, señaló.

Los sistemas de IA deberían actuar como herramientas complementarias para los médicos, proporcionando valiosas segundas opiniones en los diagnósticosFuente: Unsplash

Otro factor que contribuyó a la baja puntuación de los médicos con acceso a la IA, en comparación con la IA utilizada de forma autónoma, fue la falta de conocimiento sobre cómo aprovechar al máximo las capacidades del chatbot, según explicó Jonathan H. Chen, coautor del estudio, a The New York Times.

“Lo trataban como un motor de búsqueda para consultas específicas: ‘¿Es la cirrosis un factor de riesgo de cáncer? ¿Cuáles son los posibles diagnósticos del dolor ocular?’. Solo una fracción de los médicos reconoció las respuestas sorprendentemente completas e inteligentes que el chatbot podía generar”, señaló Chen.

Uso de la IA en medicina 

A pesar del destacado desempeño de ChatGPT-4 como herramienta autónoma, el estudio advierte contra su uso independiente para diagnósticos sin supervisión médica. El Dr. Rodman enfatizó que los modelos de lenguaje no deben reemplazar a los médicos, sino actuar como "extensores" que proporcionen valiosas segundas opiniones.

"El LLM (modelo de lenguaje de gran tamaño) por sí solo demostró un rendimiento superior al de ambos grupos de médicos, lo que indica la necesidad de desarrollo de la tecnología y la fuerza laboral para aprovechar el potencial de la colaboración entre médicos e inteligencia artificial en la práctica clínica", advierten los investigadores.

La investigación deja claro que, aunque la IA tiene un gran potencial, su efectividad depende en gran medida de la interacción humana y de cómo los profesionales médicos se adapten a esta nueva herramienta. Esto abre la puerta a futuros estudios sobre cómo capacitar a los médicos para aprovechar al máximo las capacidades de estas tecnologías emergentes.

RPP en YouTube

La voz de todo el Perú.

¡Suscríbete gratis

Te recomendamos

Metadata

METADATA E262 | Golpes gubernamentales para Google y TikTok en Norteamérica y... ¿cómo nos ayudará la computación cuántica?

¡Bienvenidos a METADATA, el podcast de Tecnología de RPP! Google y TikTok con malas noticias desde Estados Unidos y Canadá respectivamente. ¿Para qué sirve la computación cuántica? Un CTO de IBM nos lo explica.

Comunicador audiovisual. Apasionado por la música, el fútbol y la lucha libre.

Tags

Suscribirte al newsletter de tus noticias preferidas

Suscríbete a nuestros newsletter y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola