Chatbot: riesgos de interactuar con herramientas de IA como ChatGPT – Novedades Tecnología – Tecnología


ChatGPT es uno de los sistemas de chat con inteligencia artificial (IA) más capaces que se han desarrollado, pues está diseñado para generar texto a través de un proceso de aprendizaje automático basado en un gran conjunto de datos. Es capaz de sostener una conversación fluida y, por tanto, se le pueden hacer consultas o solicitar consejos.

El chatbot, como se conoce a este tipo de herramientas, se alimenta de una gran cantidad de información que se encuentra en internet, como enciclopedias, libros, periódicos, revistas científicas, etc.

(Lea también: Paso a paso de cómo pegar textos a su PC desde su celular Android)

Puede incluso cometer errores, porque es un modelo de inteligencia artificial, y está basado en el modelo de lenguaje por inteligencia artificial GPT-3, que ha desarrollado la empresa OpenAI.

El modelo cuenta con más de 175 millones de parámetros y es entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje como la generación de textos y la traducción de estos.

(Le puede interesar: Así puede instalar ChatGPT como una extensión de Google Chrome)

Una de las primeras alertas que hay que tener en cuenta en el momento de usar la herramienta es que claramente le va a solicitar datos y no toda la información que provee es verídica.

De hecho, empresas como Amazon temen que desarrolle mal-ware, ya que es capaz de programar código con un par de indicaciones y por tanto, de acuerdo con capturas de pantalla de los mensajes de Slack revisados por Insider, un abogado de la compañía solicitó específicamente que los empleados compartan información con esta IA.

Además, de acuerdo con Eset, se advierte que también presenta ciertos riesgos en términos de ciberseguridad.

Tecnologías como ChatGPT vinieron a revolucionar y automatizar diversos procesos. Investigaciones ya han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas”, explicó Sol González, investigadora de Seguridad Informática de Eset Latinoamérica.

Y si bien ese era el principal temor de firmas como Amazon, la recomendación principal es analizar lo que nos depara la evolución de la inteligencia artificial y sobre todo el machine learning, ya que otra de las preocupaciones es que esta inteligencia artificial pueda darle un nuevo impulso a la generación de fake news, ya que podría apelar a la creatividad para el desarrollo de textos que no son periodísticos.

(Lea además: ¿Cuáles pueden ser los riesgos de utilizar la Inteligencia Artificial ChatGPT?)

Cibercriminales ya comenzaron a utilizar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas

Así como puede ayudar a programar malware, también puede servir para generar los correos de phishing, programarlos y enviarlos; cada vez son más dirigidos y, por ende, mucho más persuasivos. Hace unos años la redacción de los correos maliciosos o mensajes de texto, que a veces era absurda e incluso con errores ortográficos, hoy se podrían corregir y hacerlos más efectivos.

Los ciberdelincuentes también pueden utilizar ChatGPT para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso pueden escribir en redes como si fueran celebridades.

Además, se pueden realizar ataques dirigidos por los cibercriminales que se suelen realizar bajo un proceso de reconocimiento que incluye realizar ciertas tareas que tienden a ser repetitivas.

Pero se sabe que ChatGPT puede acortar los tiempos de estas tareas hasta para automatizar este proceso, como ya lo ha hecho con exámenes.

LAURA LESMES DÍAZ
tecnosfera@eltiempo.com


Fuente