Por unas horas, los líderes del mundo se despojaron de sus agendas para analizar el impacto global de la inteligencia artificial. Estados Unidos, China, la UE y otros veinte países reconocieron en una poco frecuente cumbre que la «herramienta» se escapó de las manos de las grandes tecnológicas y acordaron trabajar juntos para contener los riesgos potencialmente «catastróficos» que plantean los avances en IA.
La primera Cumbre internacional sobre Seguridad de la IA, celebrada en el Reino Unido, se centró en la IA «fronteriza» de vanguardia, que algunos científicos advierten podría representar un riesgo para la existencia de la humanidad. A la cita, en Bletchley Park, acudieron expertos en tecnología como Elon Musk, entre otros. Al final firmaron la “declaración de Bletchley” en la que se destaca «la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales» de la IA.
El primer ministro británico, Rishi Sunak, señaló que el documento «marca el comienzo de un esfuerzo mundial para aumentar la confianza del público en la IA y de garantizar que sea segura». Ante el creciente potencial de modelos como ChatGPT, la declaración de Bletchley «muestra que, por primera vez, el mundo se reúne para identificar el problem y aprovechar sus oportunidades», subrayó la ministra británica de Tecnología, Michelle Donelan.
La funcionaria precisó que la reunión no tuvo el objetivo de sentar las bases de una legislación mundial, sino de trazar un camino. Asimismo, informó que dos cumbres internacionales sobre la IA tendrán lugar a corto plazo. Una en Corea del Sur, dentro de seis meses y otra en Francia, dentro de un año.
EE UU pide responsabilizar a tecnológicas en cumbre de IA
El Reino Unido, Estados Unidos, la UE y China, entre otros países, coincidieron en que la inteligencia artificial plantea «un riesgo potencialmente catastrófico para la humanidad». La primera declaración sobre la seguridad de la IA, firmado por representantes y empresas de 28 países se refiere a la necesidad de enfrentar los riesgos de los llamados modelos fronterizos de IA. Especialmente, los desarrollados por empresas como OpenAI.
El gobierno británico anfitrión de la reunión, se refirió a la importancia de identificar los «riesgos de seguridad de la IA de interés compartido». Propuso crear «políticas respectivas basadas en el riesgo entre los países». Sin embargo, no está claro cómo se desarrollarán exactamente los acuerdos. A la cita también asistió la presidenta de la Comisión Europea, Ursula von der Leyen.
La vicepresidenta de EE UU, Kamala Harris, dio un paso al frente en las propuestas. Instó a Gran Bretaña y a otros países «a ir más lejos y más rápido». Subrayó la necesidad de responsabilizar a las empresas de tecnología de sus productos y consecuencias, incluso a través de la legislación. Igualmente, dijo que el mundo necesita abordar “todo el espectro” de riesgos de la IA. «No sólo amenazas existenciales, como ciberataques masivos o armas biológicas formuladas por IA. Hay otras amenazas adicionales que también exigen nuestra acción. Están causando daños y muchas personas las consideran existenciales en su día a día», apuntó.
Elon Musk cree necesario un árbitro
El empresario tecnológico Elon Musk se mantuvo en silencio durante las conversaciones de la cumbre de seguridad de la IA. Después comentó que el encuentro intenta establecer un «árbitro» para las empresas tecnológicas. «Aquí se pretende establecer un marco para que haya un árbitro independiente que pueda observar lo que hacen las empresas líderes en IA y dar la voz de alarma si tuviera dudas. Recomiendo actuar con cautela con las regulaciones para que no se inhiba el lado positivo de la IA», declaró.
Mientras tanto, el viceministro de Ciencia y Tecnología de China, Wu Zhaohui, manifestó que la tecnología de inteligencia artificial es incierta, inexplicable y carece de transparencia. «Trae riesgos y desafíos en materia de ética, seguridad, privacidad y equidad. Su complejidad está surgiendo y por eso el presidente Xi Jinping lanzó la Iniciativa Global de China para la Gobernanza de la IA», añadió.
Antonio Guterres, el secretario general de la ONU, manifestó que «los principios de gobernanza de la IA deben basarse en la Carta de las Naciones Unidas y la Declaración Universal de Derechos Humanos».
La intención no basta
En el Parlamento Europeo continúan las negociaciones de la Ley de Inteligencia Artificial, que aspira a establecer el marco jurídico para el desarrollo de una IA segura. La ministra de Asuntos Económicos y Transformación Digital de España, Nadia Calviño, confía en que podría estar firmado en tres semanas. Mientras, la inteligencia artificial seguirá por la libre y sin restricciones.