Trabajador de seguridad de OpenAI abandona la empresa por temor a que ChatGPT se salga de control

Daniel Kokotajlo, un investigador de seguridad de OpenAI, ha presentado su renuncia, argumentando que ha perdido la confianza en la capacidad de la empresa, liderada por Sam Altman, para actuar de manera responsable en el desarrollo de la inteligencia artificial (IA), especialmente en el contexto de alcanzar la Inteligencia Artificial General (AGI), un punto teórico en el que una IA puede superar a los humanos. 

Su decisión se hizo pública a través de un foro en línea llamado ‘LessWrong’y ha generado un intenso debate sobre los riesgos y responsabilidades éticas asociadas con la IA. Según ‘Business Insider’, Kokotajlo, quien estaba involucrado en el equipo de gobierno de OpenAI, explicó que su renuncia fue motivada por una creciente preocupación sobre la falta de una pausa en la investigación que podría conducir al establecimiento de AGI.

Hay expertos que especulan que ChatGPT podría acabar  con Google.

Hay expertos que especulan que ChatGPT podría acabar con Google.

Foto:iStock

Vale la pena mencionar que este evento se produce en un contexto de preocupaciones cada vez mayores sobre los peligros potenciales de una IA superinteligente. Más de 1,100 expertos en inteligencia artificial, incluido Elon Musk, firmaron una carta abierta el año pasado pidiendo una moratoria de seis meses sobre los “experimentos de inteligencia artificial”.

“Creo que la mayoría de las personas que presionan por una pausa están tratando de presionar contra una ‘pausa selectiva’ y por una pausa real que se aplicaría a los grandes laboratorios que están a la vanguardia del progreso”, escribió Kokotajlo.

(Lea también: Video: truco para que Instagram recomiende su cuenta a otras personas gratis y ganar seguidores). 

Sin embargo, argumentó que esa “pausa selectiva” terminaría no aplicándose a las “grandes corporaciones que más necesitan hacer una pausa”.”Mi desilusión por esto es parte del motivo por el que dejé OpenAI”, concluyó.

Según el mismo medio, la renuncia de Kokotajlo, junto con la de otros investigadores como William Saunders, resalta la complejidad y la sensibilidad de los debates en torno a la ética y seguridad en el desarrollo de la IA. Saunders, quien formaba parte del equipo Superalignment de OpenAI, renunció poco antes que Kokotajlo, lo que podría sugerir discrepancias internas sobre la capacidad de la empresa para controlar un eventual AGI.

Además, esta situación ha suscitado interrogantes sobre la dirección y la gestión de OpenAI. El despido y posterior recontratación del director ejecutivo Sam Altman el año pasado, en medio de desacuerdos sobre la seguridad de la IA, propone tensiones internas dentro de la empresa.

Aunque algunos expertos predicen que la AGI está a solo unos años de distancia, otros argumentan que alcanzar este nivel de inteligencia artificial sigue siendo una incógnita. Sin embargo, la posibilidad plantea interrogantes cruciales sobre cómo garantizar que los sistemas AGI no se vuelvan corruptos si son más capaces que los humanos. 

DANIELA LARRARTE ASAAD
REDACCIÓN ALCANCE DIGITAL
EL TIEMPO

Más noticias



Fuente