Expertos advierten sobre nuevos riesgos del uso general de IA

31 / Enero / 2025

Los sistemas avanzados de inteligencia artificial tienen el potencial de crear nuevos riesgos extremos, como fomentar la pérdida masiva de empleos, habilitar el terrorismo o descontrolarse, dijeron expertos en un informe internacional sin precedentes este miércoles, catalogando la gama de peligros que presenta la tecnología.

El Informe Científico Internacional sobre la Seguridad de la Inteligencia Artificial Avanzada se publicará antes de una cumbre importante sobre IA en París el próximo mes. El documento cuenta con el respaldo de 30 países, incluidos Estados Unidos y China, marcando una cooperación poco común entre los dos países mientras compiten por la supremacía en el sector, destacado por la sorpresa mundial de esta semana de la startup china DeepSeek con su chatbot económico a pesar de los controles de exportación estadunidenses sobre chips avanzados al país.
El informe de un grupo de expertos independientes es una síntesis de investigaciones existentes destinada a guiar a las autoridades que trabajan en la creación de barreras para la tecnología que avanza rápidamente, explicó Yoshua Bengio, un destacado científico de IA que lideró el estudio, en una entrevista con The Associated Press.
Los riesgos son altos, dice el informe, señalando que, mientras que hace unos años los mejores sistemas de IA apenas podían emitir un párrafo coherente, ahora pueden escribir programas informáticos, generar imágenes realistas y mantener conversaciones extendidas.
Aunque algunos daños de la IA ya son ampliamente conocidos, como los deepfakes, las estafas y los resultados sesgados, el informe mencionó que a medida que la IA de propósito general se vuelve más capaz, gradualmente están emergiendo evidencias de riesgos adicionales y las técnicas de gestión de riesgos están solo en sus etapas iniciales.
Esto ocurre en medio de advertencias esta semana sobre la inteligencia artificial por parte del Vaticano y el grupo detrás del Reloj del juicio final.
El informe se centra en la IA de propósito general, ejemplificada por chatbots como ChatGPT, de OpenAI, utilizados para llevar a cabo muchos tipos de tareas. Los riesgos se dividen en tres categorías: uso malicioso, malfuncionamiento y riesgos sistémicos generalizados.