Depender de chatbots de IA para la atención sanitaria puede ser “peligroso” porque dan malos consejos y diagnósticos, revela un preocupante estudio.
La inteligencia artificial ahora puede pasar la mayoría de las pruebas médicas realizadas por los médicos, pero no puede brindar a los humanos mejores consejos de salud que los que pueden obtener utilizando métodos más tradicionales, según han descubierto los investigadores.
Rebecca Payne, coautora del estudio de la Universidad de Oxford, dijo: “A pesar de todo el revuelo, la IA simplemente no está lista para asumir el papel de médico.
“Los pacientes deben ser conscientes de que puede ser peligroso preguntar a un modelo de lenguaje amplio sobre sus síntomas, dar diagnósticos incorrectos y no reconocer cuándo se necesita ayuda urgente”.
Los académicos querían saber qué tan exitosos son los humanos cuando usan chatbots para identificar sus problemas de salud y si necesitan ver a un médico o ir al hospital.
El equipo presentó a casi 1.300 participantes del Reino Unido 10 escenarios diferentes, como un dolor de cabeza después de una noche bebiendo, una nueva madre que se siente agotada o lo que se siente al tener cálculos biliares.
A continuación, los investigadores asignaron aleatoriamente a los participantes a uno de tres chatbots: GPT-4o de OpenAI, Llama 3 de Meta o Command R+.
También hubo un grupo de control que utilizó motores de búsqueda en Internet.
La IA es incapaz de dar a los humanos mejores consejos de salud que los que pueden obtener con métodos más tradicionales, según han descubierto los investigadores
Las personas que utilizaron chatbots de IA solo pudieron identificar su problema de salud aproximadamente un tercio de las veces, mientras que solo alrededor del 45% encontró el curso de acción correcto.
No fue mejor que el grupo de control, según el estudio publicado en la revista Nature Medicine.
Los investigadores destacaron la disparidad entre estos resultados decepcionantes y las puntuaciones extremadamente altas de los chatbots de IA en pruebas y exámenes médicos, atribuyendo la discrepancia a una falla en la comunicación.
A diferencia de las interacciones simuladas con pacientes, a menudo utilizadas para probar la IA, los humanos reales a menudo no proporcionaban a los chatbots toda la información relevante.
Y en ocasiones los humanos tuvieron dificultades para interpretar las opciones que ofrecía el chatbot, o malinterpretaron o simplemente ignoraron sus consejos.
Uno de cada seis adultos estadounidenses pregunta a los chatbots de inteligencia artificial sobre información de salud al menos una vez al mes, dijeron los investigadores, y se espera que ese número aumente a medida que más personas adopten la nueva tecnología.
“Este es un estudio muy importante porque resalta los riesgos médicos reales que representan para el público los chatbots”, dijo David Shaw, bioético de la Universidad de Maastricht en los Países Bajos, que no participó en la investigación.
Aconsejó a la gente que sólo confiara en la información médica de fuentes confiables, como el Servicio Nacional de Salud del Reino Unido.



