El uso de chatbots basados en inteligencia artificial para buscar orientación médica puede suponer un riesgo para los pacientes.
Según un estudio publicado este lunes en la revista ‘Nature Medicine’ y liderado por investigadores de la Universidad de Oxford, los usuarios tienden a proporcionar información inexacta e inconsistente.
LEA TAMBIÉN

La investigación, desarrollada por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria, señaló que existe una brecha significativa entre las promesas de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) y su utilidad real para personas que buscan información sobre síntomas o posibles enfermedades.
Según los resultados, quienes recurrieron a sistemas de IA para evaluar la gravedad de una afección y decidir qué acción tomar no obtuvieron mejores resultados que aquellos que utilizaron métodos tradicionales, como buscar información en internet o confiar en su propio criterio.
El equipo realizó un ensayo aleatorio con cerca de 1.300 participantes. Foto:iStock.
Evaluación con usuarios reales
Para poner a prueba estas herramientas, el equipo realizó un ensayo aleatorio con cerca de 1.300 participantes.
A los voluntarios se les pidió identificar posibles afecciones médicas y recomendar cómo actuar ante distintos escenarios clínicos, diseñados por médicos.
Los casos incluían situaciones como un joven con un intenso dolor de cabeza tras una salida nocturna o una madre primeriza que experimentaba cansancio constante y dificultad para respirar.
Un grupo contó con la ayuda de un LLM, mientras que el grupo de control utilizó fuentes de información convencionales.
LEA TAMBIÉN

Fallos en la interacción entre humanos y la IA
El análisis de las interacciones reveló problemas relevantes en ambas direcciones.
En muchos casos, los participantes proporcionaron información incompleta a los modelos, mientras que los LLM generaron respuestas con datos erróneos o recomendaciones que combinaban consejos adecuados con otros potencialmente perjudiciales.
Los LLM actuales no están preparados para su implementación directa en la atención al paciente. Foto:iStock
Andrew Bean, autor principal del estudio e investigador doctoral del Oxford Internet Institute, subrayó que “diseñar pruebas robustas para los modelos de lenguaje es clave para entender cómo podemos aprovechar esta nueva tecnología“.
Añadió que “la interacción con humanos supone un reto incluso para los mejores modelos”.
LEA TAMBIÉN

Advertencias antes de su uso clínico
A la luz de los resultados, los autores consideran que los LLM actuales no están preparados para su implementación directa en la atención al paciente y defienden que, al igual que los medicamentos, los sistemas de IA deberían someterse a pruebas rigurosas en entornos reales antes de su adopción.
*Este contenido fue escrito con la asistencia de una inteligencia artificial, basado en información de conocimiento público divulgado a medios de comunicación. Además, contó con la revisión de la periodista y una editora.
JOS GUERRRERO
REDACCIÓN ALCANCE DIGITAL

