Expertos advierten sobre nuevos riesgos del uso general de IA
LONDRES (AP) — Los sistemas avanzados de inteligencia artificial tienen el potencial de crear nuevos riesgos extremos, como fomentar la pérdida masiva de empleos, habilitar el terrorismo o descontrolarse, dijeron expertos en un informe internacional sin precedentes el miércoles, catalogando la gama de peligros que presenta la tecnología.
El Informe Científico Internacional sobre la Seguridad de la Inteligencia Artificial Avanzada se publicará antes de una cumbre importante sobre IA en París el próximo mes. El documento cuenta con el respaldo de 30 países, incluidos Estados Unidos y China, marcando una cooperación poco común entre los dos países mientras compiten por la supremacía en el sector, destacado por la sorpresa mundial de esta semana de la startup china DeepSeek con su chatbot económico a pesar de los controles de exportación estadounidenses sobre chips avanzados al país.
El informe de un grupo de expertos independientes es una “síntesis” de investigaciones existentes destinada a guiar a las autoridades que trabajan en la creación de barreras para la tecnología que avanza rápidamente, explicó Yoshua Bengio, un destacado científico de IA que lideró el estudio, en una entrevista con The Associated Press.
“Los riesgos son altos”, dice el informe, señalando que, mientras que hace unos años los mejores sistemas de IA apenas podían emitir un párrafo coherente, ahora pueden escribir programas informáticos, generar imágenes realistas y mantener conversaciones extendidas.
Aunque algunos daños de la IA ya son ampliamente conocidos, como los deepfakes, las estafas y los resultados sesgados, el informe mencionó que “a medida que la IA de propósito general se vuelve más capaz, gradualmente están emergiendo evidencias de riesgos adicionales” y las técnicas de gestión de riesgos están solo en sus etapas iniciales.
Esto ocurre en medio de advertencias esta semana sobre la inteligencia artificial por parte del Vaticano y el grupo detrás del Reloj del Juicio Final.
El informe se centra en la IA de propósito general, ejemplificada por chatbots como ChatGPT, de OpenAI, utilizados para llevar a cabo muchos tipos de tareas. Los riesgos se dividen en tres categorías: uso malicioso, malfuncionamiento y riesgos “sistémicos” generalizados.
Bengio, quien junto con otros dos pioneros de la IA ganó el premio más importante de la ciencia informática en 2019, dijo que los 100 expertos que se reunieron en el informe no están todos de acuerdo sobre qué esperar de la IA en el futuro. Entre los mayores desacuerdos dentro de la comunidad de investigación de IA está el momento en que la tecnología de rápido desarrollo superará las capacidades humanas en varias tareas y qué significará eso.
“También discrepan sobre los escenarios”, dijo Bengio. “Por supuesto, nadie tiene una bola de cristal. Algunos escenarios son muy beneficiosos. Algunos son aterradores. Creo que es realmente importante que los responsables de políticas y el público tomen nota de esa incertidumbre”.
Los investigadores profundizaron en los detalles sobre los posibles peligros. Por ejemplo, la inteligencia artificial facilita aprender cómo crear armas biológicas o químicas porque los modelos de IA pueden proporcionar planes paso a paso. Pero es “incierto qué tan bien capturan los desafíos prácticos” de armar y entregar los agentes, agregó.
La IA de propósito general también probablemente transformará varios empleos y “desplazará a los trabajadores”, dice el informe, señalando que algunos investigadores creen que podría crear más empleos de los que elimina, mientras que otros piensan que reducirá los salarios o las tasas de empleo, aunque hay mucha incertidumbre sobre cómo se desarrollará.
Los sistemas de IA también podrían salirse de control, ya sea porque socavan activamente la supervisión humana o porque los humanos prestan menos atención, alertó el informe.
Sin embargo, una serie de factores dificultan la gestión de los riesgos, incluido el poco conocimiento de los desarrolladores de IA sobre cómo funcionan sus modelos, dijeron los autores.
El documento fue encargado en una cumbre global inaugural sobre seguridad en IA organizada por Reino Unido en noviembre de 2023, donde las naciones acordaron trabajar juntas para contener riesgos potencialmente “catastróficos”. En una reunión de seguimiento organizada por Corea del Sur el año pasado, las empresas se comprometieron a desarrollar la seguridad de la IA mientras los líderes mundiales respaldaban la creación de una red de institutos públicos de seguridad en IA.
El informe, también respaldado por las Naciones Unidas y la Unión Europea, está diseñado para resistir cambios en los gobiernos, como la reciente transición presidencial en Estados Unidos, dejando a cada país elegir cómo responde a los riesgos de la IA. En su primer día en el cargo, el presidente Donald Trump rescindió las políticas de seguridad de IA establecidas por el expresidente Joe Biden, y desde entonces ha dirigido a su nueva administración a elaborar su propio enfoque. Pero Trump no ha hecho ningún movimiento para desmantelar el Instituto de Seguridad de IA que Biden formó el año pasado, parte de una creciente red internacional de dichos centros.
Se espera que líderes mundiales, jefes tecnológicos y la sociedad civil se reúnan nuevamente en la Cumbre de Acción de IA de París el 10 y 11 de febrero. Funcionarios franceses han dicho que los países firmarán una “declaración común” sobre el desarrollo de la inteligencia artificial y acordarán un compromiso sobre el desarrollo sostenible de la tecnología.
Bengio indicó que el objetivo del informe no era “proponer una forma particular de evaluar sistemas o algo por el estilo”. Los autores se abstuvieron de priorizar riesgos particulares o hacer recomendaciones políticas específicas. En cambio, expusieron lo que dice la literatura científica sobre la IA “de una manera que sea digerible para los responsables de políticas”.
“Necesitamos entender mejor los sistemas que estamos construyendo y los riesgos que conllevan para que podamos tomar mejores decisiones en el futuro”, dijo.
___
Matt O’Brien, escritor de tecnología de AP en Providence, Rhode Island, contribuyó a este informe.
___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.