Los algoritmos y el uso de macrodatos se combinan en el diseño de la inteligencia artificial para manipular a las masas
En 2029, un Terminator T-800 modelo Cyberdine 101, un cíborg asesino, viajó hasta 1984 en una máquina del tiempo para encontrar a la madre del líder de la resistencia humana: Sarah Connor. Su misión: eliminarla para que John Connor no naciera, no liderara la resistencia humana y, finalmente, las máquinas —gobernadas por la inteligencia artificial Skynet— no perdieran la guerra. Solo ciencia ficción.
En 2020, a solo nueve años y poco menos de ocho meses de 2029, la inteligencia artificial va ganando terreno en todos los ámbitos. Desde mecanismos de aprendizaje automático que sugieren nuevas canciones acorde con los gustos hasta ¿algoritmos? que estudian el comportamiento humano en línea e influyen en una decisión de voto. Tal vez, solo tal vez, estemos aún muy lejos de que venga Arnold Schwarzenegger a perseguirnos y dispararnos, pero resulta inquietante entender que los mecanismos de la inteligencia artificial son más sutiles y menos conocidos por la inmensa mayoría de la población.
“MEJOR VETE A CASA Y RECUERDA LAVARTE LAS MANOS”
Mirándolo por el lado amable, la inteligencia artificial cuenta con usos y aplicaciones que pueden resultar de gran provecho para los ciudadanos y los gobiernos. En China existe un mecanismo de control para el actual brote de COVID-19 que consiste en el uso de drones que detectan cuándo una persona no está usando la mascarilla fuera de casa.
El periódico hongkonés South China Morning Post explicaba cómo estos drones se usan en las regiones más lejanas de la vasta China, como la Mongolia Interior, enviando a las personas a casa y recordándoles lavarse las manos. En este caso, el ingenioso uso de la inteligencia artificial ayuda al Gobierno chino en la titánica tarea de vigilar a más de mil millones de personas en medio del brote viral que tiene al mundo embalado en una pandemia. Pero en todo este asunto hay un hecho clave que pareciera fortuito, mas no lo es. La inteligencia artificial vigila a la gente.
Esa sensación de vigilancia, de predictibilidad, eriza los pelos. Siguiendo con el ejemplo de los gustos musicales, surgen dudas como: “¿Qué le hace pensar a YouTube que me gusta esta canción?”. Vas conectado a tu iPod, pedaleando en tu bici con dirección al trabajo, escuchando canciones de manera aleatoria, música que te gusta y relaja.
Puede que tus gustos musicales sean de los más diversos y que no te decantas por un género o artista específico; eres amplio en tus gustos. De repente, algo distorsiona el ritmo que se cuela por tus oídos para “sugerirte” una lista de reproducción “hecha a la medida”, en la que hay cantantes y ritmos que te agradan, pero también grupos que definitivamente no escucharías. ¿Qué le hizo “pensar” a YouTube que eso te gustaría? La inteligencia artificial.
La inteligencia artificial es una rama de las ciencias computacionales, que a través de la combinación de algoritmos, crea máquinas capaces de aprender, resolver problemas y tomar decisiones. En el caso de YouTube, si se tiene tiempo usando la aplicación —y vaya uso que se le da a YouTube— va entrenando al mecanismo de aprendizaje automático para que pueda predecir gustos y sugerir canciones. De esa misma forma, cuando pulsas el interruptor de casa y enciendes una bombilla estás enviando información a sistemas de inteligencia artificial.
AleaSoft es una empresa que caza datos estadísticos mediante la inteligencia artificial con el propósito de predecir la demanda de energía eléctrica, la producción de energías renovables y a corto, mediano y largo plazo el precio en el mercado eléctrico. En 2018, el 85% de la electricidad que se vendía y compraba en España usaba las previsiones de AleaSoft como referencia. Maravilloso uso de la inteligencia artificial para las empresas que quieran invertir en el mercado eléctrico, pero ¿sabe la gente que al pulsar el interruptor de la electricidad del baño en lo más íntimo de sus hogares están siendo monitoreados?
CUANTIOSA MINERÍA DE DATOS
Monitoreados estamos. Imposible olvidar o no hacer referencia al escándalo que finalmente cerró Cambridge Analytica y obligó a Facebook a pagar millones de dólares de multa. La extinta empresa compró una cuantiosa cantidad de datos que incluía los hábitos de compra de los usuarios, sus propiedades inmobiliarias, la iglesia a la que asistían, las tiendas que visitaban y las revistas a las que estaban suscritos.
En 2018, el 85% de la electricidad que se vendía y compraba en España usaba las previsiones de AleaSoft como referencia
Combinó la información adquirida con datos del censo electoral, datos en línea disponibles públicamente —incluyendo los de Facebook— y elaboró un modelo de personalidad predictiva que permitió crear un perfil de personalidad para cada adulto en los Estados Unidos. El modelo generó 220 millones de perfiles con hasta 5.000 puntos de datos que continuamente se actualizaban cada vez que un usuario interactuaba o agregaba más datos a la red.
Para crear los perfiles de personalidad se tomaron en cuenta las publicaciones de los usuarios de Facebook y Twitter, puesto que son datos importantes. En las redes sociales, las personas cada vez que responden, retuitean y dan “like” a alguna publicación están mostrando su historial, experiencia, bagaje, motivaciones psicológicas. Explica Fuhem —una organización independiente que fomenta la justicia social y la democracia— que el comportamiento en las redes sociales va mostrando rasgos de personalidad que conducen a la comprensión del porqué y cómo los usuarios toman decisiones. Con estos perfiles Cambridge Analytica identificó a los votantes que podían titubear, pero esto no es lo más inquietante, puesto que con la información que proporcionaban los perfiles, la empresa predijo y cambió el comportamiento futuro de los votantes.
Cambridge Analytica investigaba y experimentaba para conocer la efectividad de sus métodos
Sin embargo, Cambridge Analytica no solo compraba y analizaba datos para establecer perfiles de personalidad. Cambridge Analytica investigaba y experimentaba para conocer la efectividad de sus métodos. Entre sus hallazgos vieron que las publicaciones en Facebook, basadas en la personalidad de los usuarios, podían atraer un aproximado de 63% más clics y 1.400 más conversiones. Posts o publicaciones hechas a la medida como la lista de reproducción de YouTube.
UNA INTERESANTE HISTORIA DE MARKETING
¿Cómo el senador estadounidense Ted Cruz logró arrebatarle las primarias a Donald Trump en la carrera por la nominación republicana en Iowa? Con el uso de big data. Alexander Nix, ex-CEO de Cambridge Analytica, revela cómo lo hizo la empresa en un artículo publicado luego del triunfo. Partiendo del principio de que las lealtades políticas son como las lealtades a las marcas y que los votantes/consumidores desean que se les dé un mensaje directo a ellos, hecho a la medida, la empresa creó una campaña basada en los 5.000 puntos de datos sobre cada votante en los Estados Unidos, y con un grupo de consultores y psicólogos entregaron a cada votante el mensaje que quería escuchar.
El modelo de Cambridge Analytica identificó un grupo de votantes en Iowa que creía que por ley las autoridades debían exigir una identificación con foto en los colegios electorales. He ahí que la empresa tuvo un pequeño nicho de mercado para encontrar votantes a favor de Cruz. A los votantes con un perfil más conservador, les enviaron el mensaje de que mostrar la identificación con foto era parte del privilegio de vivir en democracia. A los votantes “temperamentales”, aquellos que no gustan del compromiso, los convencieron con el mensaje de que mostrar la identificación con foto era “tan fácil como comprar una caja de cerveza”. El mensaje se entregó a través de anuncios de Facebook, guiones telefónicos y encuestadores que iban de puerta en puerta con el mensaje correcto para los votantes correctos. Ahora, ¿cómo supo Facebook cuál era el anuncio correcto con el mensaje correcto para el votante correcto? Inteligencia artificial. Y es aquí donde el panorama se torna brumoso y se pierde en el laberinto de los algoritmos, debido a que las grandes tecnológicas como Facebook tienen secretos algorítmicos bien guardados y protegidos con leyes como el derecho de autor o incluso, con patentes.
Es decir, se entiende que los algoritmos son instrucciones que se le giran a la inteligencia artificial para que detecte problemas o situaciones específicas, decida y las resuelva. Puede que el mecanismo de aprendizaje o bot de Facebook —y aquí solo podemos ceñirnos a conjeturas basadas en lo que se conoce sobre los algoritmos e inteligencia artificial— analizara los 5.000 puntos de datos (¿algoritmos?) sobre cada votante en los Estados Unidos y entregara un anuncio en el perfil de cada usuario. Al final el gran triunfo no fue de Ted Cruz, sino de la campaña de mercadeo que armó Cambridge Analytica. El artículo de Nix cierra con la novela más vista en los últimos dos años: el brexit. Dice Nix que dado el éxito de la campaña de Cruz, Cambridge Analytica se asoció con el grupo más grande que abogaba en Reino Unido por una salida británica de la Unión Europea: Leave.EU.
Se entiende que los algoritmos son instrucciones que se le giran a la inteligencia artificial para que detecte situaciones específicas
El propósito de Cambridge Analytica fue ayudar a Leave.EU a comprender a los votantes de Reino Unido para comunicarse mejor con ellos. Para el momento de la publicación —febrero de 2016— la campaña pro-brexit en la página de Facebook de Leave.EU crecía en apoyo con alrededor de 3.000 personas. Ya se sabe el final de la novela.
EL TERRENO MINADO DE LOS ALGORITMOS
No hay nada de malo con los algoritmos, entendiendo que son una serie de instrucciones que encuentran contenido para cierto público y les muestra más de ese contenido directamente. Piense, por ejemplo, en los derechos humanos. Suponga que todos los días busca, lee e interactúa con contenidos de este tipo. La inteligencia artificial en los motores de búsqueda está constantemente recopilando información sobre esa interacción con estos contenidos. Por eso, no es de sorprender que al teclear la palabra “derechos” en el buscador, se complete la frase “derechos humanos”.
El problema comienza cuando esos contenidos tienen sesgos sexistas, racistas o radicales. ¿Cómo será mostrar exclusivamente contenidos de interés a una persona radical, digamos, un neonazi?, ¿cómo sería una campaña a lo Cambridge Analytica para un votante con este perfil?, ¿cómo sería el feed de noticias en Facebook?, ¿cuáles serían las etiquetas personalizadas para este individuo en Twitter? Todo eso lo conoce, analiza y reconduce la inteligencia artificial.
Un estudio de Facebook en 2015 mostraba el alcance de los algoritmos. Con 10 “me gusta”, el algoritmo de Facebook sabía si un usuario le daría “me gusta” a la siguiente publicación; con 70 lo sabría mejor que los amigos; con 150 lo sabría mejor que los familiares y con 300, mejor que la pareja.
En teoría, suena estupendo ser el dueño de una casa inteligente capaz de saber cuándo encender la calefacción basada en la ubicación, la hora exacta de la salida del sol, el número de nubes en el cielo y el grado de contaminación de la ciudad. Ayudaría muchísimo a entender patrones de gastos, ahorrar en la factura de la electricidad y minimizar el impacto ambiental. El pequeño gran detalle es el constante flujo de información (datos) que se cuela hacia la red detectando gustos y tendencias para después usarlos para vender, manipular y vender más. El gran gran detalle está en que la inteligencia artificial no puede discernir entre lo bueno y lo malo; los matices están dados por los algoritmos.
La inteligencia artificial no entiende —hasta ahora— de escalas grises. Y si algunas veces perturba una lista de reproducción inadecuada a nuestros gustos, ¿qué tan inadecuado podría ser un dron que bombardee una localidad basado en el número de personas camufladas? La inteligencia artificial viene a ser una revolución como lo fue la electricidad en su momento, algo novedoso de la que todos hablan y pocos entienden. Es el momento de entender el papel de la inteligencia artificial en el mundo para comenzar a delimitar su alcance. No sea que se desboque su actuación en la cotidianidad. La inteligencia artificial no es un ente autónomo que emergió del caos. Detrás del diseño y producción de inteligencia artificial hay intereses económicos y políticos, que como ya se vio pueden manipular a su antojo al público objetivo.
Lea también: