El fascinante y todavía inexplorado mundo de la Inteligencia Artificial se ha convertido de pronto en una amenaza. La falta de control y la ausencia de protocolos de seguridad aterroriza a muchas de las mentes que lo idearon, promovieron y apostaron por su expansión. Un grupo de expertos y ejecutivos de la industria tecnológica pidieron frenar por seis meses en el entrenamiento de los poderosos sistemas de IA, argumentando que se trata de una potencial amenaza para la humanidad.
¿Cómo es eso posible? Unos 1.000 expertos en esa tecnología, incluidos el magnate Elon Musk, fundador de SpaceX, Neuralink y OpenAI, entre otras empresas; el cofundador de Apple, Steve Wozniak. Y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind pidieron se frene el avance de la IA en una carta abierta.
Aseguran que los laboratorios que trabajan con esta tecnología están en «una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable».
Piden con urgencia que las empresas que desarrollan este tipo de programas «pausen de inmediato. Durante al menos 6 meses, el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4». El GPT-4, es la versión más avanzada ChatGPT, uno de los sistemas de IA más potentes del mundo, desarrollado por la empresa OpenAI.
En los últimos días se han difundido por las redes dos «deep fakes», diseñados por IA, desatando un remolino de comentarios. En uno de ellos se ve a Donald Trump corriendo por una calle tratando de huir de los policías que intentaban detenerlo. Luego forcejeando con los funcionarios y finalmente en la cárcel. Muchos creyeron que era cierto por lo real de las imágenes.
Piden frenar la IA por ser una amenaza para la humanidad
Asimismo, ocurrió con el Papa Francisco. Difundieron su imagen vestido con un grueso abrigo blanco de corte largo, ceñido a la cintura de la marca Balenciaga. La prenda -que desluce del atuendo tradicional del pontífice- fue creada con la herramienta de IA Midjourney.
La viralización de esta imagen falsa ha vuelto a despertar las voces de alarma que advierten que este tipo de ‘deep fakes’ pueden convertirse en armas peligrosas en el futuro. Empleadas con motivos políticos, ideológicos o religiosos y generar intencionalmente una escala de desinformación global. En otras palabras, se desatarían los demonios sin control.
Dicen los expertos en su carta que los sistemas de IA con inteligencia humana-competitiva “pueden plantear riesgos profundos para la sociedad y la humanidad”, como lo demuestra una extensa investigación reconocida por los principales laboratorios de IA.
Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra. Y debe planificarse y administrarse con el cuidado y los recursos correspondientes”, sugieren los especialistas.
Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, apuntan. Por el contrario, los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.
Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, por tanto se deben frenar.
¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? Estas preguntas las dejan al debate los expertos en tecnología, hoy asustados de su propia creación.
Controversiales, complejas y humanas
En el escrito, publicado por el grupo Future of Life Institute, los especialistas establecen que los desarrolladores están “atrapados en una carrera fuera de control”. Y es que todos quieren tener el mejor sistema de IA: Google, Microsoft y OpenAI están compitiendo por el mejor chatbot que, curiosamente, mientras más “humano” sea, más conocimiento tenga y más fácil de ocupar sea, mejor, reseña La Tercera.
Estas actualizaciones están saliendo cada vez más rápidas, como ChatGPT, que está disponible hace cuatro meses y sus nuevas versiones, como GPT-4, son muy controversiales, complejas y “humanas”. Esto que estaría preocupado a los líderes, quienes consideran que estos deberían avanzar “solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.
Por ello, frenar la IA temporalmente permitiría implementar “protocolos de seguridad compartidos”. Una medida que los expertos consideran necesaria y que si no se acoge por las buenas, “los gobiernos deberían intervenir e instituir una moratoria”.
Varios gobiernos están trabajando para regular las herramientas de IA de alto riesgo. El Reino Unido publicó un documento que describe su enfoque. Detalla que «evitará una legislación de mano dura que podría sofocar la innovación». Los legisladores de las 27 naciones de la Unión Europea han estado negociando la aprobación de amplias reglas de IA.
Además de Musk, Wozniak y Mostaque, la comunicación fue suscrita por el pionero de la IA, ganador del Premio Turing, Yoshua Bengio. Y otros investigadores líderes en IA, como Stuart Russell y Gary Marcus. Así como Andrew Yang y Rachel Bronson, presidenta del Bulletin of the Atomic Scientists. Un grupo de defensa orientado a la ciencia conocido por sus advertencias contra la guerra nuclear que termina con la humanidad.
Uso para delincuentes y terroristas
“Pausar o frenar la IA es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios”, comenta James Grimmelmann. Profesor de derecho digital y de la información de la Universidad de Cornell. “También es profundamente hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la responsabilidad por la IA defectuosa en sus autos sin conductor”.
Si bien la carta plantea el espectro de una IA nefasta mucho más inteligente de lo que realmente existe, no es la IA «sobrehumana» lo que preocupa a algunos de los que firmaron. Es impresionante una herramienta como ChatGPT: un generador de texto que hace predicciones sobre qué palabras responderían al mensaje que se le dio. En función de lo que aprendió al ingerir grandes cantidades de trabajos escritos.
Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta, dijo que más le preocupa es la «IA mediocre». Que está ampliamente desplegada, incluso por delincuentes o terroristas para engañar a las personas o difundir información errónea peligrosa.
“La tecnología actual ya plantea enormes riesgos para los que no estamos preparados”, escribió Marcus. “Con la tecnología del futuro, las cosas podrían empeorar”.
En España también hay reacciones. Tres miembros del Consejo Asesor de la IA abandonan el órgano consultivo como protesta por el convenio de colaboración científica firmado entre España y Emiratos Árabes Unidos.
El malestar se dejó sentir en otra carta abierta. Esta vez firmada por un grupo de organizaciones en defensa de los derechos digitales. Allí los expertos denuncian el convenio de colaboración científica que el Ejecutivo selló la semana pasada con un centro de investigación de EAU. «Nos genera una enorme preocupación», expone la misiva.
En España cuestionan acuerdo con EAU
Las entidades demandantes están preocupadas por el largo historial de represión de EAU, país que recorre a tecnologías de vigilancia como los sistemas de reconocimiento facial para controlar a sus ciudadanos. Es por eso que piden «una reunión con la sociedad civil». Y que se publiquen las cuentas públicas para saber «cómo se van a destinar» los cinco millones de euros de inversión, reseña El Periódico.
El convenio entre Madrid y Abu Dabi establece que ADIA Lab lanzará cinco programas de investigación junto a universidades españolas. Estudiará el análisis de datos aplicados a campos como la salud, medio ambiente, economía digital, computación de alto rendimiento y el desarrollo de la IA, a la que ahora se pide frenar.
También inquieta a los expertos, que piden una mayor transparencia de las autoridades para «establecer cómo se va a priorizar la ética y la protección de los derechos humanos de los proyectos que se realicen».
Además del uso de esa tecnología y sus secuelas en las formas de vida y percepciones de la sociedad, la IA podría poner en peligro millones de puestos de trabajo. La empresa responsable de ChatGPT y de los modelos de lenguaje GPT-3, GPT-3.5 o GPT-4, OpenAI, publicó un documento.
La propia empresa analizaba el futuro impacto de su tecnología en el mercado laboral estadounidense. Según señaló, alrededor del 80% de la fuerza laboral de los trabajadores de EE UU tendrán al menos un 10% de sus tareas afectadas por ChatGPT y tecnologías similares. Añadiendo además que el 19% de los puestos de trabajo serían afectados directamente.
300 millones de empleos en peligro
Al informe de OpenAi se une el de la entidad financiera estadounidense Goldman Sachs. En una investigación que la inteligencia artificial podría ocasionar una disrupción en el mercado laboral que afectaría a 300 millones de empleos en todo el mundo.
Sostiene que el avance en inteligencia artificial podría conducir a la automatización de una cuarta parte del trabajo realizado en Estados Unidos y Europa, mientras que alrededor de las dos terceras partes de los trabajos actuales están expuestos a un grado de automatización.
Aunque el informe tiene predicciones positivas como que los sistemas como ChatGPT podrían provocar un auge de la productividad. Aumentando así el producto interno bruto mundial anual, de forma temporal durante diez años, en un 7% y podría generar la creación de nuevos empleos, recoge El Mundo. La otra cara de la moneda es la exposición a la automatización de hasta 300 millones de trabajadores a jornada completa, según señalan los autores del informe, Joseph Briggs y Devesh Kodnan.