Buscar

Editorial El País

Regular la Inteligencia Artificial

La primera cumbre mundial sobre IA termina con una declaración insuficiente sobre un fenómeno lleno de riesgos

Escrito en Opinión el
Regular la Inteligencia Artificial
Inteligencia artifical. Hay que regular la IA, pero no basta con la intención. . Archivo AM

La primera Cumbre Mundial sobre Seguridad de la Inteligencia Artificial (IA) tuvo lugar este miércoles y jueves en la famosa sede de la Escuela Gubernamental de Códigos y Cifras de la Inteligencia británica, el lugar en el que Alan Turing rompió el cifrado de la máquina Enigma. 

Todo para que los 28 gobiernos asistentes, incluyendo la UE, EE UU y China, puedan decir que han firmado la Declaración de Bletchley, donde afirman que la IA tiene el potencial de mejorar significativamente la vida humana y al mismo tiempo reconocen que “plantea riesgos significativos”, incluso catastróficos, para su bienestar. Entre todos escenifican la necesidad de regular su desarrollo de forma colectiva. 

Lo hicieron en presencia de algunos de sus principales artífices, como Demis Hassabis (Google DeepMind), Sam Altman (OpenAI) y Elon Musk (dueño de Tesla o SpaceX, cofundador de OpenAI y propietario de la red social X, antes Twitter).

El mensaje es de urgencia. Sunak propuso crear un Grupo Intergubernamental de Expertos sobre la IA, similar al IPCC que se ocupa del Cambio Climático, y una cumbre cada seis meses, con próximas paradas en Corea del Sur y Francia. El día anterior, el G-7 anunció su código ético para las empresas que desarrollen sistemas de Inteligencia Artificial y Joe Biden promulgó una orden ejecutiva para promover y controlar la IA, tecnología que declara “la más trascendental” de la historia reciente. En ese orden, el presidente de EE UU invoca la Ley de Defensa de la Producción para exigir que todos los desarrolladores de última generación compartan los resultados de sus pruebas y auditorías regulares y cualquier información crítica con el Gobierno.

Se trata de una ley que promulgó Harry Truman en 1950 y que otorga al presidente autoridad para garantizar la disponibilidad de recursos críticos y tecnologías necesarios para la seguridad nacional. Diseñada para estados de excepción como guerras, desastres naturales y pandemias, en este contexto recuerda a la Ley de Seguridad Cibernética de China, que desde 2017 otorga al Gobierno de Pekín poderes de supervisión y regulación de las empresas tecnológicas de su país. Ambas ponen al sector privado al servicio del Estado o, como dice Biden, de “mantener el progreso del liderazgo estadounidense de manera global”.

El éxito de esta primera cumbre fue reunir, en plena guerra de los chips, a la secretaria de Comercio de EE UU, Gina Raimondo, con el viceministro de Ciencia y Tecnología chino, Wu Zhaohui. Rishi Sunak, anfitrión del encuentro, no consiguió, sin embargo, establecer en el Reino Unido el primer centro de pruebas de IA. De hecho, Raimondo anunció que EE UU creará su propio centro de seguridad de la IA, y con sus propios estándares. El fracaso es que la Declaración de Bletchley no es vinculante. Puede firmarla todo el mundo porque no obliga a nada. De entrada, la mayor parte de las medidas promovidas por Biden requieren la aprobación del Congreso estadounidense, absolutamente polarizado.

Hay que regular la IA, pero no basta con la intención. En el Parlamento Europeo continúan las negociaciones de la Ley de Inteligencia Artificial bajo la presidencia española. Ese reglamento sí aspira a establecer el marco jurídico para el desarrollo de una IA segura. La ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, ha afirmado que podría estar firmado en tres semanas. Es un plazo razonable. Llena de ventajas pero también de riesgos, como la desaparición de puestos de trabajo o la desinformación a gran escala, la Inteligencia Artificial plantea cada día retos que no esperan a ninguna ley.

RSV

Escrito en Opinión el

Opinión en tu buzón

Deja tu correo y recibe gratis las columnas editoriales de AM, de lunes a domingo

Opini�n