Durante décadas la inteligencia artificial ha sido el motor de la investigación de alto nivel. La mayoría de los consumidores se dieron cuenta del poder y el potencial de la tecnología a través de plataformas de Internet como Google y Facebook, y el minorista Amazon. Pero la expansión de la IA genera algunas inquietudes que podrían revertir su alta percepción y que asocian con posibles daños a la sociedad.
La IA es esencial en una amplia gama de industrias y servicios, incluidas la atención médica, la banca y el comercio minorista. Pero su promesa de mejorar la eficiencia, reducir los costos y acelerar la investigación y el desarrollo se ha visto atenuada. Ha crecido la preocupación de que estos sistemas complejos y opacos puedan causar más daño que bien económico a la sociedad.
Prácticamente sin supervisión del gobierno, las empresas privadas utilizan software de IA para tomar decisiones sobre salud, medicina, empleo, solvencia y justicia penal. Sin tener que responder cómo se aseguran de que los programas no estén codificados, consciente o inconscientemente, con sesgos estructurales discriminatorios, reseñó The Harvard Gazette.
Su creciente atractivo y utilidad son innegables. Se estima que el gasto empresarial mundial en IA alcanzó los 50.000 millones de dólares en 2020 y llegará a 110.000 millones de dólares anuales para 2024.
Las industrias minorista y bancaria fueron las que más gastaron en 2020, con más de 5.000 millones cada una. Se espera que la industria de los medios y los gobiernos federal y central inviertan más en 2023. Prevén que la IA será «la influencia disruptiva que cambiará industrias enteras durante la próxima década».
La IA causa daños a la sociedad?
Al principio se asumió que el futuro de la IA en la sociedad implicaría la automatización de tareas simples y repetitivas que requerían una toma de decisiones de bajo nivel. Pero la IA ha crecido rápidamente en sofisticación por las computadoras más poderosas y la compilación de grandes conjuntos de datos. El aprendizaje automático, notable por su capacidad para ordenar y analizar cantidades masivas de datos, ha transformado innumerables campos, incluida la educación.
Las empresas ahora usan IA para administrar el abastecimiento de materiales y productos de proveedores. También para integrar grandes cantidades de información y ayudar en la toma de decisiones estratégicas. Debido a su capacidad para procesar datos tan rápido, las herramientas de IA minimizan el tiempo en la costosa prueba de productos. «Un avance crítico para una industria como la farmacéutica, donde cuesta 1.000 millones de dólares llevar una nueva píldora al mercado», dijo Joseph Fuller, profesor de prácticas de gestión en la Escuela de Negocios de Harvard.
Los expertos en atención médica ven muchos usos posibles para la IA. Incluso con la facturación y el procesamiento del papeleo. Y los profesionales médicos esperan que el impacto más grande sea en el análisis de datos, imágenes y diagnóstico. Tendrán la capacidad de aportar todo el conocimiento médico disponible sobre una enfermedad.
El impacto de la IA en la dinámica de la sociedad
La IA asume tareas técnicas del trabajo, como la ruta de los camiones de entrega de paquetes y libera a los trabajadores para que se concentren en otras responsabilidades, haciéndolos más productivos. Aunque la automatización llegó para quedarse, no es probable que se eliminen categorías de trabajo completa. Es el caso de los peajes de autopistas que fueron reemplazados por sensores debido a la proliferación de la IA, según Joseph Fuller. “Lo que vamos a ver son trabajos que requieren interacción humana, empatía, que requieren aplicar el juicio”, añadió.
Si bien las grandes empresas ya tienen una gran ventaja inicial, las pequeñas también podrían ser potencialmente transformadas por la IA. Karen Mills, que dirigió la Administración de Pequeñas Empresas de EE UU de 2009 a 2013, considera que la mitad del país empleado por pequeñas empresas podría tener importantes implicaciones para la economía nacional a largo plazo. En lugar de obstaculizar a las pequeñas empresas, la tecnología podría brindar a sus propietarios nuevos conocimientos detallados sobre ventas, el flujo de efectivo, los pedidos y otra información financiera importante en tiempo real.
Un área en la que la IA podría «cambiar completamente el juego» son los préstamos. La opacidad de la información hace que el proceso de préstamo sea laborioso y costoso tanto para los posibles prestatarios como para los prestamistas, confió Mills, investigadora principal de HBS. Allí, el acceso al capital es difícil en parte porque los bancos a menudo tienen dificultades para obtener una imagen precisa de la viabilidad y la solvencia de una pequeña empresa. “Es más difícil mirar dentro de una operación comercial y saber qué está pasando que evaluar a un individuo», dijo.
El sesgo, los prejuicios y el juicio humano
El software impulsado por IA extrae información de la cuenta bancaria, los impuestos y los registros contables en línea de una empresa, la compara con datos de miles de empresas similares. Incluso los pequeños bancos comunitarios podrán realizar evaluaciones informadas en minutos. Sin la agonía del papeleo y retrasos, y sin temor a que alguna inequidad se colara en la toma de decisiones. “Todo eso desaparece”, precisó Fuller.
Sin embargo, no todos ven cielos azules en el horizonte. A muchos les preocupa si la próxima era de la IA traerá formas nuevas para la sociedad, más rápidas y sin fricciones para discriminar y dividir a escala. En el empleo, el software de IA selecciona y procesa los currículos y analiza la voz y las expresiones faciales de los entrevistados de trabajo.
“Parte del atractivo de la toma de decisiones algorítmica es que parece ofrecer una forma objetiva de superar la subjetividad. Así como el sesgo y los prejuicios humanos. Pero estamos descubriendo que muchos de los algoritmos replican e incorporan los sesgos que ya existen en nuestra sociedad. Por ejemplo, quién debe obtener la libertad condicional o a quién se le deben presentar oportunidades de empleo o vivienda”, afirmó el filósofo político Michael Sandel.
La IA presenta tres áreas principales de preocupación ética para la sociedad. La privacidad y vigilancia, sesgo y discriminación, y quizás la cuestión filosófica más profunda y difícil de la era, el papel del juicio humano, dijo Sandel, Premio Princesa de Asturias de Ciencias Sociales 2018.
“Los debates sobre las garantías de privacidad y sobre cómo superar el sesgo en la toma de decisiones algorítmicas en la libertad condicional y las prácticas laborales son conocidas. Pero aún no hemos envuelto nuestras mentes en la pregunta más difícil: ¿Pueden las máquinas inteligentes ser más inteligentes que nosotros?, ¿son ciertos elementos del juicio humano indispensables para decidir algunas de las cosas más importantes de la vida?”, añadió.
Choque de opiniones éticas
«El pánico por la IA que inyecta sesgos en la vida cotidiana y en la sociedad en masa es exagerado», asegura Fuller. El mundo de los negocios y el lugar de trabajo, siempre ha estado plagado de decisiones humanas. De “todo tipo” de sesgos que impiden que las personas hagan tratos o consigan contratos y trabajos.
Cuando se calibra y se implementa cuidadosamente, el software de selección de currículos permite considerar un grupo más amplio de solicitantes de lo que se podría hacer de otra manera. Y debería minimizar el potencial de favoritismo que viene con la parte humana, comentó Fuller.
Sandel no está de acuerdo. “La IA no solo replica los sesgos humanos, sino que les confiere una especie de credibilidad científica. Da la impresión de que estas predicciones y juicios tienen un estatus objetivo”, resaltó.
La Unión Europea ya tiene leyes rigurosas de privacidad de datos y la Comisión Europea está considerando un marco regulatorio formal para el uso ético de la IA. Históricamente el gobierno de EE UU se ha retrasado en lo que respecta a la regulación tecnológica.
«Los líderes empresariales no pueden tener las dos cosas, rechazar la responsabilidad por las consecuencias dañinas de la IA y al mismo tiempo evitar la supervisión del gobierno, sostiene Sandel.
Manifestó que el mayor problema es que las grandes empresas de tecnología no se autorregulan ni están sujetas a una regulación gubernamental adecuada. «Y debe haber más de ambos. No podemos asumir que las fuerzas del mercado por sí mismas lo resolverán. Eso es un error, como hemos visto con Facebook y otros gigantes tecnológicos”, apuntó.
Garantizar que la tecnología sirva a los propósitos humanos
El otoño pasado, el filósofo político Michael Sandel, enseñó «Ética tecnológica». Un nuevo y popular curso de educación general con Doug Melton, codirector del Instituto de Células Madre de Harvard. Los estudiantes debaten las grandes preguntas sobre las nuevas tecnologías, desde la edición de genes y los robots hasta la privacidad y la vigilancia.
“Las empresas tienen que pensar seriamente en las dimensiones éticas de lo que están haciendo. Y nosotros, como ciudadanos democráticos, tenemos que educarnos sobre la tecnología y sus implicaciones sociales y éticas, como es el caso de IA en la sociedad. No solo para decidir cuáles deberían ser las regulaciones, sino también qué papel queremos que jueguen las grandes tecnologías y las redes sociales en nuestras vidas”, asentó Sandel.
En ese sentido sostiene que “tenemos que permitir que todos los estudiantes aprendan lo suficiente sobre la tecnología y sobre las implicaciones éticas de las nuevas tecnologías para que cuando estén dirigiendo empresas o cuando actúen como ciudadanos democráticos, puedan garantizar que la tecnología sirve a los propósitos humanos en lugar de socavar una vida cívica digna”.