Un irlandés de 37 años decidió consultar a ChatGPT por un dolor de garganta persistente. El sistema le respondió que “es altamente improbable que tengas cáncer”. Meses más tarde, un médico confirmó un cáncer de esófago avanzado.
El caso de Warren Tierney, psicólogo y padre de familia, recorrió medios internacionales y se convirtió en un ejemplo de los riesgos de usar inteligencia artificial (IA) sin control médico.
LEA TAMBIÉN

Tierney había utilizado la herramienta para descartar enfermedades, pero al empeorar los síntomas, volvió a consultarla varias veces.
Cuando acudió finalmente a un hospital, recibió un diagnóstico de adenocarcinoma avanzado con escasas posibilidades de supervivencia. Desde su habitación, reconoció que las demoras por confiar en el chatbot “probablemente le costaron algunos meses de vida”.
El caso revela riesgos del uso de IA en salud sin supervisión médica profesional. Foto:iStock
LEA TAMBIÉN

Riesgos de la confianza excesiva
El uso de modelos de lenguaje como ChatGPT se ha expandido con rapidez, aunque estos sistemas no fueron diseñados para reemplazar el criterio médico. Según Hernán Seoane, consultor en innovación estratégica en salud e inteligencia artificial, “el mayor riesgo es la confianza excesiva. Estas herramientas pueden sonar muy seguras aunque se equivoquen. Pueden alucinar datos, carecer de contexto clínico o desconocer tus antecedentes. Sirven para informar y orientar, pero no reemplazan a una consulta médica”.
Seoane advierte también sobre la privacidad y los límites geográficos de los datos. “No todo chat es un ámbito adecuado para contar información sensible”, afirma, y explica que los modelos suelen entrenarse con información proveniente de entornos distintos. “Lo que funciona en un hospital de Estados Unidos puede no funcionar igual en Salta o en el conurbano”.
Desde el punto de vista técnico, distingue entre sistemas generales y modelos especializados. “Un modelo general es un gran conversador entrenado con internet y libros, pero no está diseñado para tomar decisiones clínicas. En cambio, una IA médica se alimenta con datos curados, usa estándares de diagnóstico y pasa por evaluaciones regulatorias. Además, tiene trazabilidad: se sabe con qué datos se entrenó y cómo se actualiza”.
Expertos advierten que la IA no reemplaza el criterio médico en diagnósticos. Foto:iStock
LEA TAMBIÉN

Copiloto, no reemplazo
Respecto a la participación de la IA en el diagnóstico, Seoane señala: “Sí, pero como apoyo y en tareas bien definidas. Puede priorizar imágenes sospechosas para que el radiólogo las vea primero o resumir historias clínicas o asistir en triajes telefónicos. Donde hay evidencia y supervisión, mejora tiempos y reduce errores. Lo que no está preparado es un ‘doctor automático’ que diagnostique solo, sin contexto ni responsabilidad clínica.”
El especialista propone una integración con el “humano en el centro, IA como copiloto”. En este esquema, el asistente digital colabora con la gestión de turnos, resúmenes clínicos o alertas de fármacos, siempre bajo control profesional. “La clave es seguridad, auditoría y transparencia: quién usó la IA, qué recomendó y con qué evidencia.”
El caso revela riesgos del uso de IA en salud sin supervisión médica profesional. Foto:iStock
LEA TAMBIÉN

Un marco regulatorio pendiente
Para evitar tragedias como la de Tierney, Seoane plantea tres niveles de regulación: validación clínica proporcional al riesgo, gobernanza de datos y transparencia. “Cuanto más impacto tiene en la salud, más estrictas deben ser las pruebas antes y después de su uso”, sostiene. Además, destaca la necesidad de modelos representativos y responsables: “No queremos modelos que funcionen bien solo para un grupo”.
El consultor recuerda que algunos sistemas de IA médica ya son considerados dispositivos médicos y están sujetos a normas internacionales. “Hay reglas para diseñar, probar, actualizar y monitorear estas herramientas, igual que con un electrocardiógrafo; solo que aquí el dispositivo es un algoritmo”.
Seoane resume su visión con una frase que define la dirección que debe tomar la salud digital: “La innovación responsable no es frenar, es avanzar con evidencia, reglas claras y con el profesional como garante de la decisión final.”
La Nación (Argentina) / GDA
Más noticias en EL TIEMPO
*Este contenido fue reescrito con la asistencia de una inteligencia artificial, basado en información de La Nación, y contó con la revisión de un periodista y un editor.

