El temor ante los demoledores efectos que puede generar la desinformación sigue sumando alertas. A la de los líderes globales, reflejada en el Informe de Riesgos Globales, se suman ahora los principales investigadores de la inteligencia artificial. Ocho de cada diez opinan que en los próximos treinta años la desinformación será un peligro “sustancial extremo”.
La lucha contra la desinformación se ha convertido en uno de los retos más importantes para nuestra sociedad. La batalla continua contra la información falsa seguirá siendo un tema central en el debate público. En 2023, presenciamos cómo las denominadas “noticias falsas”, ahora potenciadas por la inteligencia artificial, alcanzaron niveles de realismo preocupantes. La sofisticación de estas técnicas, junto con la rápida propagación de la desinformación a través de algunas redes sociales, crea un panorama inquietante.
Un estudio detallado realizado a 2.778 investigadores de inteligencia artificial (IA), que publicaron en foros destacados del sector, alerta sobre los riesgos significativos asociados con la IA. Con un énfasis especial en el ámbito de la desinformación. Es el más completo hasta ahora. No solo aborda las expectativas sobre el progreso tecnológico de la IA, sino también sus posibles impactos sociales y éticos, con un enfoque particular en los desafíos que enfrentan los medios de comunicación y la veracidad de la información.
Hallazgos
Los hallazgos de la encuesta muestran una preocupación predominante entre los expertos en IA sobre varios escenarios potenciales, siendo la difusión de información falsa, como los deepfakes, el más inquietante. Según el estudio, un impresionante 86% de los encuestados considera que la difusión de información falsa merece una preocupación “considerable” o “extrema” en los próximos treinta años. Esta preocupación destaca el potencial disruptivo de la IA en la influencia de la opinión pública y el debate democrático.
Otros escenarios de gran preocupación incluyen la manipulación de tendencias de opinión pública a gran escala (79%), el uso de la IA por grupos peligrosos para crear herramientas poderosas, como virus diseñados (73%), el uso de IA por gobernantes autoritarios para controlar poblaciones (73%), y el empeoramiento de la desigualdad económica debido a sistemas de IA que benefician desproporcionadamente a ciertos individuos (71%).
Aunque el estudio no proporciona detalles específicos sobre cómo la IA podría ser utilizada para propagar desinformación, la naturaleza de las tecnologías actuales de IA, como los modelos avanzados de lenguaje y la generación de contenido sintético, sugiere una era en la que discernir entre hechos y ficciones fabricadas será cada vez más desafiante. Los expertos apuntan hacia un futuro donde la veracidad de la información será cada vez más difícil de garantizar, resaltando la necesidad de estrategias eficaces para gestionar este riesgo emergente.
Impacto y desafíos sociales
El estudio fue publicado por académicos e investigadores de universidades de todo el mundo, incluyendo Oxford (Reino Unido) y Bonn (Alemania). Aborda no solo los avances tecnológicos en IA. También sus posibles impactos sociales y éticos. Los resultados de la encuesta sugieren que hay al menos un 50% de posibilidades de que los sistemas de IA alcancen varios hitos para 2028. Como la construcción autónoma de un sitio web de procesamiento de pagos o la creación de música indistinguible de la obra de un músico popular. Además, se estima un 10% de posibilidades para 2027 de que las máquinas superen a los humanos en todas las tareas posibles. Que aumenta a un 50% para 2047.
Existe una considerable incertidumbre entre los encuestados sobre el valor a largo plazo de los avances en IA. A pesar de las expectativas de progreso. Un 68,3% cree que los resultados positivos de una IA superhumana son más probables que los negativos. No obstante, la mayoría de los investigadores especializados en inteligencia artificial reconocen la posibilidad de una amenaza existencial. Pero no creen que un resultado final dramático sea especialmente probable. Casi el 58% de los 2.778 investigadores opinan que la amenaza de extinción de la humanidad por culpa de la IA se sitúa en torno al 5%.
El estudio destaca la complejidad y la multiplicidad de factores que rodean el desarrollo de la IA. Los hallazgos sugieren que, mientras la IA tiene el potencial de transformar varios aspectos de la vida y el trabajo, también conlleva riesgos. Los cuales deben ser manejados con precaución y responsabilidad. Especialmente en el ámbito de la información y los medios de comunicación. La investigación subraya la necesidad de un enfoque equilibrado y bien informado hacia la IA. Priorizando la gestión de sus riesgos potenciales mientras se explora su vasto potencial.