Expresiones como “desastre global” o “riesgo existencial” se le han endosado al vigoroso avance de la inteligencia artificial. Cientos de expertos pidieron ralentizar o pausar el desarrollo y la adopción de esta herramienta. En parte porque una implementación más lenta podría proporcionar más espacio para la identificación de áreas de peligro y la elaboración de reglamentos apropiados. Sin embargo, hay poco análisis sobre la economía y si la desaceleración del desarrollo y la adopción de una tecnología prometedora y transformadora de IA tendría sentido.
Las posibilidades de hacer un mal uso de la IA son muchas, tal vez infinitas, y lo que se teme, es que los daños sean de igual proporción. Entonces los generadores u operadores de la tecnología y la sociedad a la que va dirigida, pudieran no estar en capacidad de revertir esos daños.
“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”, afirmó Sam Altman, fundador y director ejecutivo de OpenAI a los legisladores estadounidenses en junio. Una encuesta de 2022 de «expertos en IA» produjo una estimación mediana de desastre existencial en 10%. Y hay muchos ejemplos de riesgos no existenciales que siguen siendo problemas. Desde abogados que citan casos falsos hasta medios de comunicación que publican historias inexactas.
Ahora, el profesor de economía del MIT (Massachusetts Institute of Technology) Daron Acemoglu y el estudiante de posgrado Todd Lensman han producido lo que llaman el primer modelo económico de cómo regular las tecnologías transformadoras. Su conclusión tentativa es que una implementación más lenta probablemente sea mejor. Y que un impuesto al aprendizaje automático, combinado con restricciones específicas del sector sobre el uso de la tecnología, podría proporcionar los mejores resultados posibles.
El impacto de la IA en la economía
Acemoglu y Lensman consideran que la IA es transformadora porque permite una mayor tasa de crecimiento de la producción, es de propósito general y se puede adoptar en todos sectores de la economía. Pero, debido a su naturaleza transformadora, también plantea nuevos riesgos y su uso intencional o no para crear un desastre, reseña Quartz una web dedicada a los negocios, economía, mercados, finanzas y tecnología.
Los autores citan como ejemplo a un motor de combustión interna o los transistores: cada uno permitía a las personas hacer muchas más cosas útiles, pero eran igual de productivos para hacer cosas malas.
Los profesores del MIT crearon una expresión matemática de estas ideas y cómo se comportan las empresas bajo los supuestos. Encontraron que la mejor manera teórica de usar una nueva tecnología transformadora es lentamente. Esto permite un mayor aprendizaje sobre sus posibles beneficios y riesgos. A medida que se comprendan mejor esos riesgos, la nueva tecnología se podrá implementar en toda la economía. Si resulta que es más arriesgado de lo imaginado, es más fácil cambiar de camino que si muchas industrias dependen de las nuevas herramientas.
“Reductivamente”, advirtieron, “si resulta que no podemos controlar la IA, queremos aprender eso antes de que la IA se utilice en todos los sectores de la economía. Y la regulación de algún tipo es necesaria porque las empresas privadas solo asumen algunos de los costos del mal uso de la IA. Y por lo tanto, tienen un incentivo para adoptarla más rápido de lo que es socialmente óptimo”.
Argumento para ralentizar una tecnología poderosa
Para obligar a que la tecnología se adopte a la velocidad adecuada, los economistas del MIT diseñaron planes fiscales, pero los encontraron ineficaces (al menos en teoría). Sugirieron que una forma de avanzar la IA en la economía combinaría algún tipo de impuesto sobre las tecnologías transformadoras. Con reglas que lo limiten a sectores específicos donde el riesgo de adopción es bajo. Este enfoque de «caja de arena regulatoria», que ya es común con las nuevas tecnologías, podría retrasar la adopción del aprendizaje automático por parte de los sectores de alto riesgo hasta que se entiendan mejor.
Los autores detallaron el argumento para ralentizar una tecnología poderosa que no se entiende completamente, pero reconocieron que sus suposiciones pueden estar equivocadas. Por ejemplo, señalaron que la adopción más rápida de una tecnología transformadora puede aumentar el conocimiento sobre ella, lo que en realidad reduce los riesgos. Plantearon que la investigación futura podría examinar cómo se podría realizar la experimentación en ciertos sectores sin aumentar el riesgo general.
Tyler Cowen, economista de la Universidad George Mason, propuso otras ideas que podrían hacer tropezar con las conclusiones de los autores. Una es la posibilidad de que naciones rivales (léase: China) desarrollen IA que sea menos segura o más amenazante. Este es un argumento citado con frecuencia por los defensores de acelerar la adopción del aprendizaje automático.
Armamento y seguridad
El argumento de Cowen escapa directamente al impacto de la IA en la economía. Precisó que la implicación es que se necesita usar la IA de manera arriesgada, en los sistemas de armas, por ejemplo, o de lo contrario Beijing lo hará primero. Incluso si la evidencia empírica sugiere que el aprendizaje automático chino puede no estar cerca de tal actividad.
Aún así, incluso este criterio requiere una regulación que ofrezca una clara diferencia entre EE UU y las naciones rivales. Los defensores de la seguridad de la IA argumentan que los primeros principios siguen siendo importantes: si la IA se utilizará indebidamente para la vigilancia masiva, EE UU debería promulgar leyes para evitarlo. No adoptar tecnología distópica en nombre de ser el primero.