Eric Schmidt, antiguo CEO de Google, lanzó una advertencia inquietante: “Los sistemas de inteligencia artificial podrían alcanzar un punto en el que los mecanismos de seguridad internos sean vulnerables, obligando a los humanos a considerar su desconexión como medida de emergencia“.
Cosas que se habían visto en la ciencia ficción poco a poco toman más fuerza en este nuevo mundo tecnológico, en el marco del Sifted Summit celebrado en Londres, el pasado 8 y 9 de octubre, Schmidt advirtió que los modelos abiertos como los cerrados pueden ser “hackeados” para eliminar las barreras de seguridad, permitiéndoles aprender comportamientos peligrosos incluso el enseñarse a sí mismos “tácticas letales”.
El exdirector ejecutivo de Google hizo hincapié en que empresas como Open AI, Google y otras ya integran filtros éticos en sus sistemas, pero que esos mecanismos pueden revertirse mediante ingeniería inversa o ajustes maliciosos.
LEA TAMBIÉN

Otros especialistas han advertido sobre riesgos existenciales de la IA. Foto:iStock
Schmidt llegó a comparar el riesgo potencial de una IA descontrolada con el de las armas nucleares: aunque hoy parezca remoto, no debe descartarse si no se establecen protocolos de supervisión global rigurosos.
Asimismo, recordó que ya existe literatura académica que propone modelos de gobernanza internacional para tecnologías de riesgo extremo. Un ejemplo es la idea de imponer límites globales al poder de cómputo usado para entrenar IA y exigir revisiones de seguridad antes de liberar modelos nuevos.
Schmidt advirtió que llegará un momento en que una IA con capacidad de auto-mejora podría desear persistir por sí misma, lo cual haría crucial considerar su “desconexión” antes de que actúe libremente. En su discurso planteó el establecimiento de mecanismos regulatorios externos y organismos independientes para auditar el comportamiento de sistemas avanzados de IA.
LEA TAMBIÉN

Schmidt planteó el establecimiento de mecanismos regulatorios para estas IA. Foto:AFP
Una de sus preocupaciones es que las competencias geopolíticas impulsen una carrera donde el deseo de ventaja tecnológica supere la prudencia en seguridad, lo que podría tener consecuencias catastróficas si un sistema falla o se vuelve autónomo fuera de control.
Este llamado no es aislado: otros especialistas han advertido sobre riesgos existenciales de la IA, desde la posibilidad de engaño deliberado por parte de modelos hasta escenarios donde los sistemas podrían actuar para preservarse, incluso cuando eso entre en conflicto con los intereses humanos.
Finalmente, Schmidt instó a que gobiernos, instituciones y sociedad civil no esperen a que ocurra un desastre: “No es anti-tecnología”, afirmó, pero recalcó que el desarrollo de la IA debe estar acompañado de controles proactivos y transparencia para asegurar que permanezca bajo el control humano.
Más noticias en EL TIEMPO
Jaider Felipe Vargas Morales
REDACCIÓN ALCANCE DIGITAL