Está claro que el mundo quedó asombrado y también impactado con los usos y abusos de la Inteligencia Artificial, y el boom del ChatGPT, en estos dos últimos años. 2024 se perfila como el año de las normativas y regulaciones de la IA, tras el pedido de los líderes globales e incluso, de los expertos detrás de esa tecnología de aplicar ciertas demarcaciones.
La Unión Europea aprobó recientemente la Ley de Inteligencia Artificial, la primera de este tipo en el mundo. EE UU, China y otros países están alineados en ese propósito para proteger la convivencia ciudadana, las actividades estratégicas y los sectores vulnerables.
Tras un intenso trabajo técnico y su aprobación oficial por los países europeos y el Parlamento de la UE, la Ley de IA entrará en vigor con bastante rapidez en este primer semestre. En el escenario más optimista, la prohibición de ciertos usos de la IA podría aplicarse a finales de año. El comisario europeo de Mercado Interno (responsable de la negociación), Thierry Breton, señaló entonces que el paquete de proyecto legislativo es una primicia mundial. «Los Estados miembros han aprobado el acuerdo político y han reconocido el equilibrio entre la innovación y la seguridad en el uso de la inteligencia artificial», asentó
Francia, Italia y Alemania habían solicitado que se suavizaran las normativas respecto a los modelos básicos de IA, entendidos como aquellos de uso general que dan soporte a herramientas como ChatGPT en su versión más sencilla. Finalmente, recoge el MIT Technology Review, el trío de naciones abandonó sus objeciones y se sumó al resto del grupo para aprobar la ley.
UE adelante de las regulaciones de la IA
Las empresas que desarrollen modelos y aplicaciones de base serán consideradas de «alto riesgo» para los derechos fundamentales, como las destinadas a la educación, la sanidad y la policía, tendrán que cumplir las normas de la UE. En Europa, por ejemplo, la policía no podrá utilizar la tecnología en lugares públicos. A menos que obtenga primero la aprobación judicial para fines específicos como la lucha contra el terrorismo, la prevención del tráfico de seres humanos o la búsqueda de una persona desaparecida.
Otros usos de la IA estarán totalmente prohibidos en la UE, entre ellos la creación de bases de datos de reconocimiento facial como las de Clearview AI. Tampoco el uso de tecnología de reconocimiento de emociones en el trabajo o en las escuelas, advierte la legislación.
Europa ha decidido que este 2024 se aplicará el texto pionero que incluye regulaciones en diversas escalas y alcances de la IA. Se obligará a las empresas a ser más transparentes sobre el modo en que desarrollan sus modelos y a asumir mayor responsabilidad de los daños resultantes.
Las compañías que desarrollen modelos fundacionales —los modelos en los que se basan otros productos de IA, como el GPT-4— tendrán que cumplir la ley en un año a partir de su vigencia. Otras empresas tecnológicas tienen dos años para aplicar las normas.
La UE cree que los modelos de IA más potentes, como GPT-4 de OpenAI y Gemini de Google, podrían suponer un riesgo «sistémico» para los ciudadanos. Y por tanto, necesitan un trabajo adicional para cumplir las normas de la UE. Las empresas deben tomar medidas para mitigar los riesgos y garantizar que los sistemas sean seguros. Se les exigirá que informen de incidentes graves y dar detalles sobre su consumo de energía.
Muchas implicaciones éticas y económicas
Las empresas de IA de código abierto están exentas de la mayor parte de los requisitos de transparencia de la Ley, a menos que desarrollen modelos tan intensivos en computación como GPT-4. El incumplimiento de las normas acarreará multas elevadas o el bloqueo de sus productos en la UE.
La UE también está trabajando en otro proyecto de ley que complementaría las regulaciones a la IA. Se trata de la Directiva sobre responsabilidad civil en materia de IA que busca garantizar a las personas perjudicadas por la tecnología puedan obtener una compensación económica. Las negociaciones al respecto siguen su curso.
Otros países adoptan una postura más indiferente. Por ejemplo, el Reino Unido, sede de Google DeepMind, ha dicho que no tiene intención de regular la IA a corto plazo. Sin embargo, cualquier empresa de fuera de la UE, la segunda economía más grande del mundo, tendrá que cumplir la Ley de IA si quiere hacer negocios en el bloque comercial.
Anu Bradford, catedrática de Derecho de la Universidad de Columbia, llamó a la ley como el «efecto Bruselas». En su opinión la UE puede establecer la norma mundial de facto, configurando la forma en que el mundo hace negocios y desarrolla la tecnología. La UE lo consiguió con su estricto régimen de protección de datos, el RGPD, que se ha copiado en todas partes, desde California hasta la India. Ahora espera repetir la jugada en lo que respecta a la IA.
La IA entró de lleno en el debate político en Estados Unidos en 2023. Pero no fue solo debate. También hubo acción, que culminó con la orden ejecutiva del presidente Biden sobre IA a finales de octubre. Una amplia directiva que exigía más transparencia y nuevas normas.
Las elecciones presidenciales, un buen pretexto
A través de esta decisión ha empezado a surgir una política de IA propia de Estados Unidos. Una política favorable a la industria de la IA, que hace hincapié en las mejores prácticas, en la confianza en las distintas agencias para que elaboren sus propias normas. Y en un enfoque matizado que regula cada sector de la economía de forma diferente.
Este año se oirá hablar mucho del nuevo Instituto de Seguridad de la Inteligencia Artificial de EE UU, que se encargará de ejecutar la mayoría de las políticas contempladas en la orden.
Desde el punto de vista del Congreso, no está claro qué ocurrirá. El líder de la mayoría en el Senado, Chuck Schumer, señaló que además de la orden ejecutiva, es posible que se promulguen nuevas leyes. Hay varias propuestas legislativas en juego que afectan a varios aspectos de la IA y sus eventuales regulaciones. Como la transparencia, los deepfakes y la responsabilidad de las plataformas. Pero no se vislumbra cuál de estos proyectos de ley ganará fuerza.
Se espera un enfoque que clasifique los tipos y usos de la IA en función del riesgo que planteen, un marco similar a la Ley de IA de la UE. El Instituto Nacional de Normas y Tecnología propuso un marco de este tipo que cada sector tendrá que poner ahora en práctica, adelantó Chris Meserole, director del Frontier Model Forum. Un grupo de normalización del sector.
Otra cosa a tomar en cuenta: las elecciones presidenciales de 2024 influirán en gran parte del debate sobre las regulaciones de la IA. Y en el impacto de esta tecnología en las redes sociales y la desinformación. Es posible que el debate sobre cómo prevenir los daños de la IA se vea condicionado por lo que ocurra durante la campaña electoral.
Regulaciones puntuales en China
Las regulaciones de la IA en China están muy fragmentadas y poco sistemáticas. En lugar de regular la IA en su conjunto, el país ha promulgado leyes individuales cada vez que un nuevo producto de IA cobra importancia. Por eso China tiene un conjunto de normas para los servicios de recomendación algorítmica (aplicaciones tipo TikTok y motores de búsqueda). Otro para los deepfakes y otro para la IA generativa.
El punto fuerte de este enfoque es que permite a Pekín reaccionar rápidamente a los riesgos que surgen de los avances tecnológicos, tanto para los usuarios como para el Gobierno. Pero el problema es que impide que se desarrolle una perspectiva más panorámica y a largo plazo.
Eso podría cambiar el año que viene. En junio de 2023, el Consejo de Estado de China, máximo órgano de gobierno, anunció que en su agenda legislativa figura «una ley de inteligencia artificial». Esta ley lo abarcaría todo, como la Ley de IA de Europa. Debido a su ambicioso alcance, es difícil decir cuánto durará el proceso legislativo. Se podría ver un primer borrador en 2024, pero podría tardar más, dice el MIT Technology Review.
Los especialistas de la Academia China de Ciencias Sociales, un instituto de investigación de propiedad estatal, publicaron en agosto una versión con «sugerencias de expertos» de la ley china sobre IA. Este documento propone una «oficina nacional de IA» para supervisar el desarrollo de la IA en China. Exige un «informe de responsabilidad social» anual independiente sobre los modelos fundacionales. Y establece una «lista negativa» de áreas de IA con mayores riesgos, que las empresas ni siquiera pueden investigar sin la aprobación del Gobierno.
Un vistazo a las regulaciones en el mundo
Es probable que a lo largo de 2024 se introduzcan más normativas sobre IA en otras partes del mundo. Una región a tener en cuenta será África. Es probable que la Unión Africana publique una estrategia de IA para el continente en estos meses, con el fin de establecer políticas que los distintos países puedan replicar para competir en IA. Y al mismo tiempo proteger a los consumidores africanos de las empresas tecnológicas occidentales, afirmó Melody Musoni, responsable de políticas del Centro Europeo de Gestión de Políticas de Desarrollo.
Algunos países, como Ruanda, Nigeria y Sudáfrica, ya han elaborado estrategias nacionales de IA y están trabajando para desarrollar programas educativos, potencia informática. También políticas favorables a la industria para apoyar a las empresas de IA.
Organismos mundiales como la ONU, la OCDE, el G20 y las alianzas regionales han empezado a crear grupos de trabajo, consejos consultivos y regulaciones sobre la IA. Grupos como la OCDE pueden resultar útiles para crear una coherencia normativa entre las diferentes regiones, lo que podría aliviar la carga de cumplimiento para las empresas de IA.
Desde el punto de vista geopolítico, es probable que veamos diferencias cada vez mayores entre la forma en que los países democráticos y los autoritarios fomentan sus industrias de IA. Será interesante ver hasta qué punto las empresas de IA priorizan la expansión global o la especialización doméstica en 2024. ¿Qué implicaciones tendrán para sus sociedades?