En los últimos años, la aplicación de la inteligencia artificial en el campo médico ha atraído mucha atención, especialmente los chatbots representados por ChatGPT, que tienen grandes esperanzas. Sin embargo, un nuevo estudio revela las limitaciones de la IA en el diagnóstico médico. El editor de Downcodes interpretará esta investigación publicada en la revista "JAMA Network Open" y analizará el estado actual y la dirección de desarrollo futuro del diagnóstico médico asistido por IA.
Texto: En los últimos años, la aplicación de la inteligencia artificial (IA) en el campo médico ha recibido cada vez más atención. En particular, muchos hospitales esperan que los chatbots como ChatGPT se utilicen como herramientas auxiliares para mejorar la eficiencia del diagnóstico de los médicos. Sin embargo, un estudio publicado recientemente muestra que el uso de ChatGPT no mejoró significativamente la capacidad de diagnóstico de los médicos. El estudio, publicado en la revista JAMA Network Open, revela el potencial y las limitaciones de la IA en el diagnóstico médico.
Nota sobre la fuente de la imagen: la imagen es generada por AI y el proveedor de servicios de autorización de imágenes Midjourney
En el estudio, participaron 50 médicos, incluidos 26 médicos tratantes y 24 médicos residentes. Se les pidió que hicieran un diagnóstico basado en seis casos reales en una hora. Para evaluar el efecto auxiliar de ChatGPT, los investigadores dividieron a los médicos en dos grupos, un grupo podría usar ChatGPT y recursos médicos tradicionales, y el otro grupo solo podría confiar en recursos tradicionales, como la plataforma de información clínica UpToDate.
Los resultados mostraron que los médicos que utilizaron ChatGPT obtuvieron una puntuación del 76% en el diagnóstico, mientras que los médicos que confiaron únicamente en recursos tradicionales obtuvieron una puntuación del 74%. En comparación, ChatGPT logró por sí solo una puntuación de diagnóstico del 90%. Aunque ChatGPT funcionó bien cuando se trabajaba de forma independiente, su combinación con médicos no produjo mejoras significativas, lo que sorprendió al equipo de investigación.
Ethan Goh, coprimer autor del estudio e investigador postdoctoral en el Centro de Excelencia Clínica de Stanford, dijo que el estudio no fue diseñado para realizarse en un entorno clínico real, sino que se basó en datos simulados, por lo que los resultados no son aplicables. está restringido. Señala que la complejidad que enfrentan los médicos cuando tratan con pacientes reales no puede reflejarse plenamente en los experimentos.
Aunque las investigaciones muestran que ChatGPT funciona mejor que algunos médicos en el momento del diagnóstico, esto no significa que la IA pueda reemplazar la toma de decisiones de los médicos. En cambio, Goh enfatizó que los médicos aún deben mantener la supervisión y el juicio cuando utilizan herramientas de inteligencia artificial. Además, los médicos pueden ser tercos al hacer diagnósticos, y el diagnóstico preliminar que han formado puede afectar su aceptación de las recomendaciones de la IA. Esta es también una dirección en la que deben centrarse las investigaciones futuras.
Una vez finalizado el proceso de diagnóstico médico, los médicos también deben responder una serie de nuevas preguntas, como "¿Cómo proceder con los pasos correctos del tratamiento?" y "¿Qué pruebas se necesitan para guiar los próximos pasos del paciente?". La aplicación de la IA en el campo médico todavía tiene amplias perspectivas, pero su eficacia y aplicabilidad en la práctica clínica real aún deben explorarse en profundidad.
Con todo, este estudio nos recuerda que la aplicación de la IA en el campo médico no ocurre de la noche a la mañana y requiere una evaluación cuidadosa de sus limitaciones y atención a la situación real de los médicos cuando utilizan herramientas de IA. En el futuro, cómo integrar mejor la tecnología de IA en la práctica clínica será una dirección importante para la exploración continua en el campo médico.