{"id":85511,"date":"2025-10-20T13:48:40","date_gmt":"2025-10-20T17:48:40","guid":{"rendered":"https:\/\/www.diariosalud.do\/?p=85511"},"modified":"2025-10-20T13:48:40","modified_gmt":"2025-10-20T17:48:40","slug":"expertos-advierten-sobre-los-riesgos-de-usar-ia-para-diagnosticos-medicos","status":"publish","type":"post","link":"https:\/\/ktechproduccion.net\/diariosalud.do\/expertos-advierten-sobre-los-riesgos-de-usar-ia-para-diagnosticos-medicos\/","title":{"rendered":"Expertos advierten sobre los riesgos de usar la IA para diagn\u00f3sticos m\u00e9dicos"},"content":{"rendered":"\n<p><strong>Un estudio reciente revela que aunque la inteligencia artificial puede identificar enfermedades y medicamentos con alta precisi\u00f3n, falla al interpretar s\u00edntomas humanos y ofrecer diagn\u00f3sticos confiables.<\/strong><\/p>\n\n\n\n<p>En la era digital, cada vez m\u00e1s personas recurren a herramientas en l\u00ednea para resolver dudas sobre su salud. Sin embargo, los expertos advierten que confiar en la inteligencia artificial para obtener diagn\u00f3sticos m\u00e9dicos puede ser peligroso. As\u00ed lo demuestra un estudio dirigido por <strong>Ahmed Abdeen Hamed<\/strong>, investigador de la <strong>Universidad de Binghamton<\/strong>, publicado en la revista <em>iScience<\/em>, que evalu\u00f3 la capacidad de <strong>ChatGPT<\/strong> para ofrecer informaci\u00f3n m\u00e9dica precisa.<\/p>\n\n\n\n<p>El an\u00e1lisis revel\u00f3 que el chatbot de inteligencia artificial puede identificar enfermedades, medicamentos y datos gen\u00e9ticos con una <strong>precisi\u00f3n de entre el 88% y el 97%<\/strong>, pero presenta grandes limitaciones cuando los usuarios describen <strong>s\u00edntomas de manera informal o ambigua<\/strong>, como suele ocurrir en la vida real.<\/p>\n\n\n\n<p>\u201cLa gente le pregunta a ChatGPT: \u2018Tengo estos s\u00edntomas, \u00bftengo c\u00e1ncer?\u2019 o \u2018\u00bfdeber\u00eda ir al hospital?\u2019\u201d, explic\u00f3 Hamed. \u201cAunque puede reconocer enfermedades conocidas, no logra establecer relaciones fiables entre los s\u00edntomas y sus causas m\u00e9dicas\u201d.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Una confianza que puede ser peligrosa<\/strong><\/h4>\n\n\n\n<p>El <strong>Dr. Andrew Thornton<\/strong>, m\u00e9dico de <strong>Wellstar Health System<\/strong> en Atlanta, advirti\u00f3 que el problema m\u00e1s serio no es la falta de conocimiento t\u00e9cnico, sino la <strong>confianza convincente con la que la IA responde<\/strong>.<\/p>\n\n\n\n<p>\u201cChatGPT presenta la informaci\u00f3n con el mismo tono de seguridad, tanto si es correcta como si no lo es. Eso puede dar a los pacientes una falsa sensaci\u00f3n de certeza\u201d, se\u00f1al\u00f3 Thornton.<\/p>\n\n\n\n<p>El especialista insisti\u00f3 en que, ante cualquier emergencia m\u00e9dica, <strong>la \u00fanica respuesta adecuada es buscar atenci\u00f3n profesional<\/strong>:<\/p>\n\n\n\n<p>\u201cSi una persona siente s\u00edntomas graves, no debe consultar con un chatbot ni perder tiempo buscando en internet. Es el momento de llamar al 911 o acudir al hospital inmediatamente\u201d.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>El auge del \u201cDr. ChatGPT\u201d<\/strong><\/h4>\n\n\n\n<p>El uso de herramientas de inteligencia artificial para consultas de salud est\u00e1 creciendo r\u00e1pidamente. Una encuesta del <strong>Pew Research Center<\/strong> revel\u00f3 que <strong>el 34% de los adultos estadounidenses<\/strong> ha utilizado ChatGPT, el doble que en 2023. Adem\u00e1s, un estudio de la <strong>KFF Health Disinformation Survey<\/strong> indic\u00f3 que <strong>el 17% de los adultos<\/strong> usa chatbots de IA <strong>al menos una vez al mes<\/strong> para obtener consejos m\u00e9dicos, cifra que asciende al <strong>25% entre los menores de 30 a\u00f1os<\/strong>.<\/p>\n\n\n\n<p>Thornton explic\u00f3 que cada vez m\u00e1s pacientes mencionan sus b\u00fasquedas en l\u00ednea durante las consultas m\u00e9dicas.<\/p>\n\n\n\n<p>\u201cLos pacientes ahora comparten lo que han le\u00eddo en internet, incluso antes de explicar sus s\u00edntomas. Es algo cotidiano\u201d, dijo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Usar la IA con responsabilidad<\/strong><\/h4>\n\n\n\n<p>Los investigadores coinciden en que las herramientas de IA pueden servir como apoyo educativo, pero <strong>no deben sustituir la valoraci\u00f3n m\u00e9dica profesional<\/strong>.<\/p>\n\n\n\n<p>\u201cLa inteligencia artificial puede ayudar a comprender mejor una enfermedad o un medicamento\u201d, aclar\u00f3 Thornton. \u201cPero no deber\u00eda usarse para autodiagnosticarse ni para decidir tratamientos\u201d.<\/p>\n\n\n\n<p>El estudio concluye que, si bien ChatGPT representa un avance notable en el procesamiento del lenguaje m\u00e9dico, <strong>todav\u00eda carece de la precisi\u00f3n cl\u00ednica, el juicio \u00e9tico y la responsabilidad que requiere la atenci\u00f3n m\u00e9dica real<\/strong>.<\/p>\n\n\n\n<p>Fuente: <a href=\"https:\/\/medicalxpress.com\/news\/2025-10-chatgpt.html\">Medical Express<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un estudio reciente revela que aunque la inteligencia artificial puede identificar enfermedades y medicamentos con alta precisi\u00f3n, falla al interpretar s\u00edntomas humanos y ofrecer diagn\u00f3sticos confiables. En la era digital, cada vez m\u00e1s personas recurren a herramientas en l\u00ednea para resolver dudas sobre su salud. Sin embargo, los expertos advierten que confiar en la inteligencia [&hellip;]<\/p>\n","protected":false},"author":6,"featured_media":28244,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[7829,4463,1075],"class_list":["post-85511","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias","tag-diagnosticos-2","tag-ia","tag-inteligencia-artificial"],"acf":[],"_links":{"self":[{"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/posts\/85511","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/comments?post=85511"}],"version-history":[{"count":0,"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/posts\/85511\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/media\/28244"}],"wp:attachment":[{"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/media?parent=85511"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/categories?post=85511"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ktechproduccion.net\/diariosalud.do\/wp-json\/wp\/v2\/tags?post=85511"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}