La firma Tenable Research ha descubierto múltiples vulnerabilidades nuevas y persistentes en el ChatGPT de OpenAI que podrían permitir a un atacante exfiltrar información
privada de las memorias y el historial de chat de los usuarios.
Según el estudio, estas fallas incluyen inyecciones de prompt indirectas, exfiltración de información personal, evasión de filtros de seguridad y la posibilidad de que un atacante modifique las “memorias” del usuario para extraer datos de manera persistente. En términos simples, basta con hacer una pregunta inocente para quedar expuesto a la manipulación del sistema si la IA accede a un sitio web comprometido o si se encuentra con instrucciones ocultas.
LEA TAMBIÉN

Para los usuarios comunes, el impacto no se limita a la privacidad digital: comprometer la seguridad de una cuenta puede derivar en robo de credenciales bancarias, suplantación de identidad, fraudes electrónicos y pérdidas económicas. Cientos de millones de personas utilizan diariamente modelos de lenguaje como ChatGPT para realizar búsquedas, revisar documentos o planificar gastos. Si en esas conversaciones se incluyen datos financieros, el riesgo se multiplica.
Tenable explica que la “inyección de prompt” —la técnica más peligrosa— permite alterar las instrucciones que sigue el modelo al procesar información, logrando que ejecute acciones no deseadas. En el caso de las llamadas inyecciones indirectas, el ataque se produce desde fuentes externas, como blogs o comentarios en sitios aparentemente confiables. Una vulnerabilidad identificada en el mecanismo de seguridad url_safe permitiría incluso eludir los filtros que bloquean enlaces sospechosos, generando rutas encubiertas hacia sitios maliciosos.
Esto debe saber. Foto:iStock
Los investigadores Moshe Bernstein y Liv Matan demostraron que el ataque puede funcionar con solo pedirle a la IA que resuma una página, ya que el sistema secundario de navegación (SearchGPT) podría obedecer instrucciones ocultas. A través de esta ruta, un hacker puede insertar comandos que modifiquen el comportamiento del modelo principal (ChatGPT) o recopilen información sensible de la memoria del usuario.
En el ámbito de las finanzas personales, esto significa que cualquier dato introducido en una conversación, como los números de cuenta, contraseñas, documentos de identidad o reportes financieros, pueden ser interceptado si se ejecuta una vulnerabilidad activa. Expertos en seguridad recomiendan mantener una política estricta de “mínima exposición digital”, evitando compartir información que no se divulgaría públicamente.
Además, los usuarios deben verificar los enlaces sugeridos por las IA, evitar ingresar datos personales en conversaciones con modelos conectados a internet y activar la autenticación de dos factores en cuentas bancarias, billeteras digitales y correos electrónicos. También es recomendable revisar y eliminar memorias en las plataformas que las utilicen, ya que podrían conservar datos privados sin que el usuario sea consciente.
Con la ayuda de la inteligencia artificial, las empresas quieren evitar este tipo de fraudes. Foto:iStock
La investigación de Tenable subraya que, aunque OpenAI ha corregido algunas fallas tras ser notificadas, varias vulnerabilidades siguen activas en GPT-5. La naturaleza misma de los modelos de lenguaje hace difícil eliminar completamente el riesgo de inyección de prompt, por lo que los proveedores de IA deberán reforzar sus filtros y protocolos de aislamiento para proteger la información de los usuarios.
Los expertos apuntan que en un mundo donde la vida financiera se gestiona desde el celular y las decisiones de gasto o ahorro pueden apoyarse en asistentes de IA, la ciberseguridad ya no es un tema técnico, sino una forma de educación financiera moderna. Saber cómo proteger los datos es tan importante como aprender a manejar una cuenta de ahorros o un crédito.
La recomendación general es clara, los usuarios no pueden confiar ciegamente en la IA. Cada conversación puede ser una ventana abierta a la ingeniería social. No se trata de abandonar la tecnología, sino de usarla con criterio: no compartir datos financieros, no seguir enlaces desconocidos y aplicar hábitos digitales seguros.
Así como el presupuesto familiar se divide entre consumo, ahorro y endeudamiento, la nueva economía digital exige un cuarto componente: la gestión del riesgo cibernético personal.
Más noticias
LEA TAMBIÉN

LEA TAMBIÉN


