Chat GPT, el nuevo 'doctor' de los jóvenes: Los médicos advierten del peligro de la IA al consultar síntomas

El cardiólogo y miembro de la junta directiva del Colegio de Médicos de Huelva, Félix Rosa, alerta de que la inteligencia artificial "no diagnostica, solo escribe"

Pone de manifiesto las graves complicaciones de salud que puede tener una persona si sigue los consejos de la IA

Expertos en Psicología y Psiquiatría alertan del riesgo de utilizar el ChatGPT como terapeuta emocional: "Es complaciente y carece de juicios de valor"

Un joven busca consejo médico en Chat GPT.
Un joven busca consejo médico en Chat GPT.

"Vaya, suena totalmente a un cuadro tipo gripe o infección viral común, pero sin explorar más no puedo asegurarlo. Aun así, te dejo lo más seguro y útil que puedes hacer ahora mismo". Es el dictamen que hace ChatGPT cuando se le pide un diagnóstico ante un "dolor de cabeza y muscular, además de frío en el cuerpo". Y cada vez son más las personas, especialmente los jóvenes, que acuden a la inteligencia artificial para recibir este tipo de 'diagnósticos', "lo que puede suponer un peligro bastante importante", alertan desde el Colegio de Médicos de Huelva.

Para el cardiólogo y miembro de la junta directiva del colegio, Félix Rosa, el uso de la inteligencia artificial "no es más que una continuación de lo que se solía hacer con Google, pero peor". "Ha empeorado porque al parecer que estás hablando con una persona, la gente rompe una barrera y confía en los diferentes modelos de lenguaje que hay de inteligencia artificial", sostiene. Y ello, prosigue, es "muy peligroso, sobre todo, porque no dejan de ser modelos entrenados para redactar texto, pero no tienen ningún entrenamiento médico". Es más, "ningún médico está detrás para supervisar lo qué dice la IA".

El doctor advierte de que son muchos los apartados que influyen en un diagnóstico médico, "no únicamente los signos y los síntomas de una persona, que también son importantes". En este sentido, explica que la inteligencia artificial solo recibe "la información que tú crees conveniente darle desde el punto de vista de los síntomas, estando también la posibilidad de caer en el error". A ello se suma el hecho de que "los médicos necesitamos ver al paciente, palpar ciertas áreas, completar un estudio y observar al mismo físicamente". De hecho, "un paciente puede decirme me encuentro bien en este sentido, pero yo puedo ver signos que me llaman la atención y solo se aprecian en persona, véase la sudoración, dificultad para respirar o cualquier otra cosa que a lo mejor el mismo paciente no le da importancia y a mí si me preocupan". En resumen, "el cara a cara es necesario para un diagnóstico completo, para la entrevista clínica, para la exploración y, por supuesto, para solicitar pruebas complementarias; ese contacto personal es muy necesario", explica Félix Rosa a este periódico.

El cardiólogo y miembro de la junta directiva del Colegio de Médicos de Huelva, Félix Rosa.
El cardiólogo y miembro de la junta directiva del Colegio de Médicos de Huelva, Félix Rosa. / M. G.

Precisamente, sobre pruebas y tratamientos, el cardiólogo rescata alguna de sus vivencias en sus consultas, en las que ciertos pacientes le han dicho "antes le pregunté al ChatGPT qué me tomo y me ha dicho...". "Un problema enorme", sentencia el doctor, que resalta el hecho de que la inteligencia artificial "no tiene en cuenta las comorbilidades o los tratamientos que ya toma de base el paciente".

Tampoco hay que olvidar que la IA también falla. Y tampoco es extraño. "Los modelos a veces sufren lo que denominamos alucinaciones y te dan una medicación o incluso te dicen una patología que no tienes", explica Rosa, que pone de manifiesto el "riesgo" de tomar un medicamento innecesario o uno que interactúe con otro que tomes. Aquí cabe también la posibilidad de que "podamos sufrir complicaciones o de que patologías que tiene solución si se detectan a tiempo se retrasen porque pensamos que nuestro médico personal, el ChatGPT, nos está solucionando el problema, cuando en realidad solo dejamos que evolucione". Y podría ser que cuando "veamos al médico, que es quien tiene que valorarte, ya no haya una solución óptima".

Desde el Colegio de Médicos también emiten una crítica hacia el carácter complaciente de modelos como ChatGPT. "Siempre se alinea contigo", señala el especialista, quien explica que "si tú le dices creo que tengo cáncer, la respuesta no va a ser la de un médico diciéndote que no, lo que tienes es un dolor articular. El modelo suele responder con un podría ser". Una respuesta que, a buen seguro, se traduce en "estrés psíquico, emocional y una demanda médica mayor", añade.

Preguntado acerca de si en la proliferación del uso de la IA para autodiagnóstico médico influye la dificultad para acceder a una cita médica presencial, Félix Rosa considera que "vivimos los tiempos de la inmediatez, es decir, lo queremos todo ya y rápido; y es cierto que la IA o las redes sociales nos pueden dar una respuesta que, si no eres conocedor, puede dejarte entre comillas tranquilo". Eso sí, "y reconociendo que ojalá los tiempos de espera sean cero", el cardiólogo llama a "no intentar solventar el tiempo que vamos a tardar en ver al médico con una IA que te puede dar una respuesta que, erróneamente, te haga pensar que todo está bien y que no hace falta ir al médico". Ello puede retrasar el diagnóstico de un problema importante o provocar un error, repercutiendo en "consecuencias graves para la salud y la calidad de vida del paciente".

stats