{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/salud/2024/11/25/un-estudio-advierte-a-los-radiologos-que-se-mantengan-alerta-frente-a-la-inteligencia-arti" }, "headline": "Un estudio advierte a los radi\u00f3logos que se mantengan en alerta frente a la inteligencia artificial", "description": "Los investigadores tambi\u00e9n descubrieron que los m\u00e9dicos ten\u00edan m\u00e1s probabilidades de confiar en una explicaci\u00f3n de IA si esta se\u00f1alaba un \u00e1rea espec\u00edfica en una radiograf\u00eda.", "articleBody": "Si bien la inteligencia artificial (IA) es una herramienta tan nueva como revolucionaria en la medicina, los radi\u00f3logos si pueden confiar en sus consejos cuando se refieren a una parte espec\u00edfica de una radiograf\u00eda, seg\u00fan un nuevo estudio. A pesar de ello subrayan la importancia de mantenerse en guardia y de desconfiar como ant\u00eddoto contra el riesgo que puede suponer apoyarse en la automatizaci\u00f3n por la tendencia humana a confiar demasiado en los actos repetidos una y otra vez.El informe explica que los m\u00e9dicos aprenden a trav\u00e9s de a\u00f1os de formaci\u00f3n y repetici\u00f3n a seguir un patr\u00f3n o una lista de verificaci\u00f3n. Un equipo de investigadores estadounidenses reclut\u00f3 a 220 m\u00e9dicos en varios sitios del pa\u00eds encargados de revisar radiograf\u00edas de t\u00f3rax junto con consejos generados por IA.\u00bfC\u00f3mo afecta un consejo de IA a un diagn\u00f3stico?Los participantes incluyeron radi\u00f3logos y m\u00e9dicos de medicina interna o de emergencia que ten\u00edan la tarea de interpretar radiograf\u00edas con la ayuda de un asistente de IA. Los m\u00e9dicos pod\u00edan aceptar, modificar o rechazar las sugerencias de la IA.El estudio, publicado en la revista 'Radiology', explor\u00f3 c\u00f3mo el tipo de consejo de IA, ya sea local o global, y su precisi\u00f3n afectaba al diagn\u00f3stico. Una explicaci\u00f3n local es cuando la IA resalta \u00e1reas espec\u00edficas de inter\u00e9s en una radiograf\u00eda, mientras que una explicaci\u00f3n global es cuando la IA proporciona im\u00e1genes de casos pasados \u200b\u200bsimilares para mostrar c\u00f3mo hizo la sugerencia.Si se equivoca la IA, la precisi\u00f3n del diagn\u00f3stico cae hasta el 26%Cuando la IA proporcion\u00f3 un consejo preciso, las explicaciones locales llevaron a los revisores a tener una tasa de precisi\u00f3n de diagn\u00f3stico del 92,8% y las explicaciones globales a una tasa de precisi\u00f3n del 85,3%.\u0022Descubrimos que las explicaciones locales mejoraron la precisi\u00f3n del diagn\u00f3stico y redujeron el tiempo de interpretaci\u00f3n cuando el consejo de la IA era correcto\u0022, dijo a 'Euronews Health' el radi\u00f3logo Paul H. Yi, uno de los coautores del estudio y director de inform\u00e1tica de im\u00e1genes inteligentes en el St. Jude Children\u2019s Research Hospital.Sin embargo, cuando el diagn\u00f3stico de la IA era incorrecto, la precisi\u00f3n del diagn\u00f3stico cay\u00f3 al 23,6% para las explicaciones locales y al 26,1% para los m\u00e9dicos con explicaciones globales.\u0022Estos hallazgos enfatizan la importancia de dise\u00f1ar cuidadosamente las herramientas de IA. El dise\u00f1o reflexivo de la explicaci\u00f3n no es solo un complemento; es un factor fundamental para garantizar que la IA mejore la pr\u00e1ctica cl\u00ednica en lugar de introducir riesgos no deseados\u0022, dijo Yi.El tipo de explicaci\u00f3n de la IA puede afectar a la confianzaUn hallazgo inesperado fue la rapidez con la que los m\u00e9dicos, tanto radi\u00f3logos como no radi\u00f3logos, confiaron en las explicaciones locales, incluso cuando la IA estaba equivocada.Yi tiene varias sugerencias para mitigar este riesgo de \u0022sesgo de automatizaci\u00f3n\u0022, la tendencia humana a confiar demasiado en la automatizaci\u00f3n. Asegura que los m\u00e9dicos aprenden a trav\u00e9s de a\u00f1os de formaci\u00f3n y repetici\u00f3n a seguir un patr\u00f3n o una lista de verificaci\u00f3n. \u0022La idea es que crea una rutina. Minimiza la variaci\u00f3n que puede provocar que se produzcan errores inesperados\u0022, dijo.Sin embargo, la introducci\u00f3n de herramientas de IA a\u00f1ade un nuevo factor y puede hacer descarrilar esta rutina. \u0022Tenemos que ce\u00f1irnos a nuestras listas de verificaci\u00f3n y asegurarnos de cumplirlas. Pero imagino un futuro en el que nuestras listas de verificaci\u00f3n realmente van a cambiar para incorporar la IA\u0022, dijo Yi, a\u00f1adiendo que la interacci\u00f3n entre humanos y ordenadores tambi\u00e9n deber\u00eda estudiarse con factores como el estr\u00e9s o el cansancio.", "dateCreated": "2024-11-21T14:56:11+01:00", "dateModified": "2024-11-25T02:01:07+01:00", "datePublished": "2024-11-25T02:00:50+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F86%2F62%2F24%2F1440x810_cmsv2_e3402830-562f-5556-90e9-4da235e23b1f-8866224.jpg", "width": 1440, "height": 810, "caption": "Foto:", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F86%2F62%2F24%2F432x243_cmsv2_e3402830-562f-5556-90e9-4da235e23b1f-8866224.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias de salud" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Un estudio advierte a los radiólogos que se mantengan en alerta frente a la inteligencia artificial

Foto:
Foto: Derechos de autor Canva
Derechos de autor Canva
Por Euronews
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Los investigadores también descubrieron que los médicos tenían más probabilidades de confiar en una explicación de IA si esta señalaba un área específica en una radiografía.

PUBLICIDAD

Si bien la inteligencia artificial (IA) es una herramienta tan nueva como revolucionaria en la medicina, los radiólogos si pueden confiar en sus consejos cuando se refieren a una parte específica de una radiografía, según un nuevo estudio. A pesar de ello subrayan la importancia de mantenerse en guardia y de desconfiar como antídoto contra el riesgo que puede suponer apoyarse en la automatización por la tendencia humana a confiar demasiado en los actos repetidos una y otra vez.

El informe explica que los médicos aprenden a través de años de formación y repetición a seguir un patrón o una lista de verificación. Un equipo de investigadores estadounidenses reclutó a 220 médicos en varios sitios del país encargados de revisar radiografías de tórax junto con consejos generados por IA.

¿Cómo afecta un consejo de IA a un diagnóstico?

Los participantes incluyeron radiólogos y médicos de medicina interna o de emergencia que tenían la tarea de interpretar radiografías con la ayuda de un asistente de IA. Los médicos podían aceptar, modificar o rechazar las sugerencias de la IA.

El estudio, publicado en la revista 'Radiology', exploró cómo el tipo de consejo de IA, ya sea local o global, y su precisión afectaba al diagnóstico. Una explicación local es cuando la IA resalta áreas específicas de interés en una radiografía, mientras que una explicación global es cuando la IA proporciona imágenes de casos pasados ​​similares para mostrar cómo hizo la sugerencia.

Si se equivoca la IA, la precisión del diagnóstico cae hasta el 26%

Cuando la IA proporcionó un consejo preciso, las explicaciones locales llevaron a los revisores a tener una tasa de precisión de diagnóstico del 92,8% y las explicaciones globales a una tasa de precisión del 85,3%.

"Descubrimos que las explicaciones locales mejoraron la precisión del diagnóstico y redujeron el tiempo de interpretación cuando el consejo de la IA era correcto", dijo a 'Euronews Health' el radiólogo Paul H. Yi, uno de los coautores del estudio y director de informática de imágenes inteligentes en el St. Jude Children’s Research Hospital.

Sin embargo, cuando el diagnóstico de la IA era incorrecto, la precisión del diagnóstico cayó al 23,6% para las explicaciones locales y al 26,1% para los médicos con explicaciones globales.

Estos hallazgos enfatizan la importancia de diseñar cuidadosamente las herramientas de IA. El diseño reflexivo de la explicación no es solo un complemento; es un factor fundamental para garantizar que la IA mejore la práctica clínica en lugar de introducir riesgos no deseados
Paul H. Yi
Radiólogo y coautor del estudio

"Estos hallazgos enfatizan la importancia de diseñar cuidadosamente las herramientas de IA. El diseño reflexivo de la explicación no es solo un complemento; es un factor fundamental para garantizar que la IA mejore la práctica clínica en lugar de introducir riesgos no deseados", dijo Yi.

El tipo de explicación de la IA puede afectar a la confianza

Un hallazgo inesperado fue la rapidez con la que los médicos, tanto radiólogos como no radiólogos, confiaron en las explicaciones locales, incluso cuando la IA estaba equivocada.

Esto revela una idea sutil pero fundamental: el tipo de explicación de la IA puede moldear la confianza y la toma de decisiones de manera que los s puedan ni siquiera darse cuenta
Paul H Yi
Radiólogo y coautor del estudio

Yi tiene varias sugerencias para mitigar este riesgo de "sesgo de automatización", la tendencia humana a confiar demasiado en la automatización. Asegura que los médicos aprenden a través de años de formación y repetición a seguir un patrón o una lista de verificación. "La idea es que crea una rutina. Minimiza la variación que puede provocar que se produzcan errores inesperados", dijo.

Sin embargo, la introducción de herramientas de IA añade un nuevo factor y puede hacer descarrilar esta rutina. "Tenemos que ceñirnos a nuestras listas de verificación y asegurarnos de cumplirlas. Pero imagino un futuro en el que nuestras listas de verificación realmente van a cambiar para incorporar la IA", dijo Yi, añadiendo que la interacción entre humanos y ordenadores también debería estudiarse con factores como el estrés o el cansancio.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

El CEO de Intel dimite en medio de los problemas financieros del fabricante de chips estadounidense

Conozca a Daisy, la abuela IA que hace perder el tiempo a los estafadores telefónicos

Las etiquetas de calorías no son suficientes para incitar a la gente a comer más sano, según un estudio