Espoleada por la desigualdad económica –el 10% más rico es el responsable del consumo excesivo y de la emisión de gases de efecto invernadero–, en 2050 la población del planeta superará los 9.000 millones de humanos. Las tensiones sociales se disparan y se registran estallidos y colapsos.
La Tierra avanza hacia la destrucción total y el apocalipsis. Solo la inteligencia artificial parece capaz de salvar a la humanidad de su fatal destino. Este es el argumento de Semilla. Crónicas de un futuro artificial, un relato de Jesús López Lobo, doctor en IA, que aborda en clave de ciencia-ficción los grandes desafíos a los que nos enfrentamos: inteligencia artificial, cambio climático, conflictos armados, exploración espacial o contacto con otra civilización.
La pregunta es simple, aunque la respuesta nos tiene enredados desde el amanecer del hombre: ¿de qué nos sirve la tecnología si no nos hace mejores? La inteligencia artificial puede ayudarnos a abordar los grandes retos que afronta la humanidad, pero el cambio que necesitamos tiene que venir de nosotros mismos. El investigador bilbaíno Jesús López Lobo es el autor de Semilla: Crónicas de un futuro artificial, una obra de ciencia ficción con una visión futurista de la inteligencia artificial.
Un relato distópico ambientado en un futuro donde, tras un período de caos en el que nuestra civilización colapsa, todo queda en manos de una inteligencia artificial de última generación. Esta tecnología brinda a la humanidad la oportunidad de sobrevivir, pero un suceso inesperado lo cambia todo, desencadenando una serie de inesperados acontecimientos y un futuro incierto.
Jesús Lopez Lobo es doctor en Inteligencia Artificial por la Universidad del País Vasco (UPV/EHU). Trabaja como investigador en el centro tecnológico vasco de referencia TECNALIA y como Profesor Colaborador en la Universitat Oberta de Catalunya (UOC).
En la mayoría de los casos, una idea de proyecto o una nueva línea de investigación necesitan ser contrastadas para ver si son lo suficientemente buenas como para llevarlas a producción o centrarse en ellas. Eso es exactamente lo que hace, bucear en algoritmos y tecnologías de machine learning en TECNALIA, el mayor centro de investigación aplicada y desarrollo tecnológico de España y un referente en Europa, miembro de Basque Research and Technology Alliance.
López Lobo es experto en plantear experimentos, desarrollar hipótesis y probar si son ciertas o no para investigar problemas fundamentales con un horizonte temporal más largo. También diseña y desarrolla Pruebas de Concepto. En la actualidad trabaja en IA adaptativa (aprendizaje automático para flujos de datos, detección y adaptación de la deriva conceptual, aprendizaje continuo), predicción de series temporales, IA y ética.
En Semilla: Crónicas de un futuro artificial se abordan desafíos científicos y tecnológicos. ¿Cuáles son los principales retos?
En realidad, espero que una parte de ese futuro no se cumpla. La inteligencia artificial tendrá (ya lo tiene) un papel relevante en la superación de los desafíos que tenemos por delante: ecología y recursos, salud, desigualdad, exploración espacial, clima, etc.
Aparte de nuestro buen juicio, es con toda seguridad el aliado más potente con el que podremos contar. Parte de estos escenarios aparecen en el libro, donde una IA llamada Semilla nos ayuda a afrontar muchos de los desafíos que se presentan. En realidad, la IA puede ayudar a superar muchos de estos problemas haciendo uso de sus capacidades de predicción y optimización, pero creo que el cambio que necesitamos viene de nosotros, ninguna tecnología ni ningún agente externo va a resolvernos el problema por completo.
Da igual que “no miremos arriba” como en la película, lo que pronostica la ciencia va a suceder si no hacemos nada. Ocurre al mismo tiempo que la IA plantea sus particulares retos. Y no es una cuestión menor. Lo estamos viendo últimamente (privacidad de los datos, seguridad, trabajo, etc.). Parece que venimos de un “invierno de la IA”, y que con la irrupción de la IA generativa estamos entrando en una fase muy prometedora a nivel tecnológico.
En su libro, presenta un futuro distópico, pero, al paso que vamos, ¿su relato no está más cerca de la no ficción que de la ciencia-ficción?
Sí, el escenario inicial con el que empieza el libro está tomado de nuestra realidad actual, y muchos de los problemas y soluciones que aparecen tienen una base científica. La situación de partida es que nuestros recursos menguan a la vez que nuestra población crece. Y probablemente esta paradoja concentre la mayoría de nuestros problemas presentes y futuros.
De hecho, a finales de 2022 alcanzamos los 8.000 millones de personas. Un informe reciente señala que una de las principales causas del crecimiento poblacional es la desigualdad económica (el 10% más rico es el responsable de la mayoría del consumo excesivo y de la emisión de gases de efecto invernadero). Con lo que la solución no es exclusivamente la reducción de la población, sino la disminución del consumo excesivo de ese colectivo y de la desigualdad económica.
En el estudio se dibujan dos escenarios posibles: el pesimista (“demasiado poco, demasiado tarde”) y el optimista (“salto gigante”). El primero pronostica que se alcanzarán los 9.000 millones de habitantes en el año 2050, y traerá consigo un aumento de la desigualdad, las emisiones de efecto invernadero sobrepasarán el límite, y todo llevará a tensiones sociales y a colapsos en determinadas regiones.
En el segundo, el optimista, la población alcanza un pico en el año 2040 de 8.500 millones y luego disminuye. Acaba ofreciendo una visión más esperanzadora, y propone 5 “cambios extraordinarios” para que sea este último caso el que se vuelva realidad. El género de ciencia-ficción ha sido tan prolífico que tiene la virtud de poder imaginar multitud de escenarios ficticios, y es fácil que alguno acierte de vez en cuando.
En lo que se refiere a la IA, el libro presenta un escenario de ficción, aunque con tintes reales en algunos aspectos que no puedo desvelar [sonrisa]. Quizás ofrece esa visión de la IA que a todos nos gustaría alcanzar, lo que llamamos en el campo “Inteligencia Artificial General”, o AGI en inglés: una IA todopoderosa y guardiana, casi siempre en posesión de la verdad, pero a la vez con sus debates internos.
Si su obra la hubiese creado un algoritmo, ¿se notaría?
Tal posibilidad es origen de mucha controversia, no solo en el ámbito literario, sino en otras artes como la pintura y la fotografía. También en la educación y en empleos en los que la redacción de textos y generación de documentos es la base. Para darnos cuenta del cambio de paradigma al que asistimos, recientemente los medios publicaron que una IA ganó un concurso de fotografía muy prestigioso, y que su autor tuvo que rechazar el premio. Es el punto en el que estamos.
Centrándonos en el ámbito literario, ahora mismo se está publicando mucha literatura “artificial” con herramientas basadas en IA generativa, y plataformas como Amazon tienen un desafío importante por delante: distinguir los libros de personas y los producidos con IA. O, al menos, obligar a que se declare explícitamente la intervención de una IA.
Aunque hay casos en los que abiertamente el autor que aparece en Amazon es la propia IA, sin trampa ni cartón. También se plantean problemas de propiedad intelectual, lo que obliga a dar una vuelta a todo el sector. Otro ejemplo más del cambio de paradigma.
La empresa OpenAI ha publicado una herramienta que (más o menos) permite detectar si un contenido ha sido generado por su IA generativa ChatGPT. Pero advierten que es capaz de identificar un 26% del texto escrito en inglés por la IA. Asimismo, asigna incorrectamente como escrito por IA el texto escrito por humanos en un 9%. La herramienta no es infalible. No he pasado mi relato por esta herramienta, pero espero que tenga la decencia de no asignárselo a ChatGPT, más que nada por el trabajo que tiene detrás.
La inteligencia artificial ha saltado a primera línea de actualidad con ChatGPT. ¿Conocemos cuál es su potencial?
Estamos en su búsqueda. La verdad es que ha entrado como un elefante en una cacharrería y ha cogido a todo el mundo desprevenido. Estamos asistiendo a una revolución producida por la presentación en sociedad de la IA generativa. La aparición de herramientas con alto potencial en la generación de texto, imágenes y música, principalmente.
En el caso particular de ChatGPT, lo que se denomina un chatbot, es una IA generativa especializada en conversación. Su potencia es enorme. Se está especulando sobre si es capaz de superar el test de Turing y algunas de sus variantes, todo un hito en la IA. Se evalúa la capacidad de una máquina para mostrar un comportamiento inteligente indistinguible del humano.
Debates aparte, ciertamente, la herramienta está entrando prácticamente todos los sectores, y se está usando para selección de personal, abogacía, salud, finanzas, educación, etc. Para sacarle todo el potencial, es necesario conocer cómo hacer las preguntas para obtener el mejor resultado, y ha surgido el rol de “Ingeniero Prompt”, que es toda aquella persona con conocimientos suficientes para extraer de las IA generativas la mejor respuesta, bien sea texto, imagen o sonido.
Seguramente, sea solo el principio de un tipo de herramienta que sentará las bases del futuro próximo. Y quién sabe si en este camino la IA es capaz de llegar a las cotas de inteligencia de las que hace gala Semilla en mi libro [sonrisa]. De todas formas, siempre se intenta que la IA sea un fiel reflejo del humano, pero si nos fijamos en otra tecnología de uso común, ni el avión es un fiel reflejo de un pájaro, ni un submarino de un cachalote. Aun así son avances increíbles que han permitido progresar a nuestra civilización. Aquí siempre me viene a la cabeza la frase del pionero de la IA Edsger W. Dijkstra: “La cuestión sobre si un ordenador puede pensar no es más interesante que la de si un submarino puede nadar”.
Usted es especialista en machine learning, ¿puede deducir, dado que la compañía OpenAI no lo ha dado a conocer, qué entrenamiento ha recibido ChatGPT?
Básicamente, se sabe que han usado técnicas de aprendizaje supervisado y por refuerzo. Con las primeras, se entrenó el modelo con conversaciones entre un humano y otro humano simulando ser el asistente conversacional. Es como darle las preguntas y respuestas para que aprenda.
Con las segundas, se entrenó con conversaciones y recompensándole cada vez que daba una respuesta acertaba. La última fase de entrenamiento la estamos haciendo nosotros sin saberlo. Millones de humanos estamos a diario interactuando con la herramienta a modo de entrenadores personales.
ChatGPT se ha entrenado con una cantidad masiva de textos de internet: páginas webs, foros, blogs, Wikipedia, etc. La última versión, ChatGPT-4, dicen que incorpora 300.000 millones de palabras. Entre ellas están las nuestras.
¿Entiende ChatGPT lo que dice?
Realmente no, a pesar de que haya rumores (quién sabe si con fines comerciales o para atemorizar a la competencia) que aseguran que ha llegado a tomar consciencia en algunos experimentos. Me gusta especialmente la definición del reputado científico Stephen Wolfram, que dice sobre ChatGPT que es un modelo que usa las matemáticas para aventurar una probabilidad sobre qué palabra usar en un contexto determinado, basada en un repositorio de textos en los que ha sido entrenado. Una especie de «loro estocástico», muy lejos de ser un ente digital que sabe lo que dice y es consciente.
Una cosa es saber generar una respuesta más o menos coherente como para poder dar la sensación de estar hablando con algo inteligente, y otra muy distinta es saber lo que estás diciendo. Y eso no se ha conseguido.
Tener consciencia de sí mismo es una cualidad que de momento está lejos de una IA, sobre todo porque desconocemos los mecanismos que hay detrás de este hecho, incluso para nosotros mismos. El limitado conocimiento del cerebro y sus mecanismos es una limitación en el desarrollo de una IA más cercana a la inteligencia humana.
Aunque escuchemos términos como redes neuronales o técnicas bioinspiradas, que suenen muy bien, la realidad es que son burdas aproximaciones de lo que hay en el cerebro. Su funcionamiento, su eficiencia energética, sus mecanismos de memoria y recuerdo, de sueño, de refuerzo siguen siendo secretos bien guardados que nos gustaría saber y aplicar a la IA para catapultarla al siguiente estadio.
¿Cuáles son los principales efectos indeseados de este tipo de herramientas?
Al igual que a sus éxitos, también estamos asistiendo a sus fracasos, y a sus riesgos. Este tipo de tecnología y herramientas tienen implicaciones complejas, incluso filosóficas. Con la IA tradicional tenemos problemas de sesgos, explicabilidad, confianza, privacidad de los datos, etc.; ahora se añaden otros nuevos.
Esta tecnología es capaz de crear contenido (noticias, imágenes, etc.) difícilmente distinguible de la realidad, por lo que la desinformación, por ejemplo, es ahora más preocupante. También se teme por la ciberseguridad y por las infraestructuras críticas. Esta tecnología siempre tiene un doble filo.
Se ha expandido la creencia de que la IA nos puede dejar sin trabajo. Aquí siempre hay que recordar la aparición de la calculadora, la herramienta Excel o la propia Internet. Todas sufrieron ese tipo de críticas, y nada fue como se predijo. Simplemente se convirtieron en una ayuda imprescindible para que el trabajo fuese menos pesado, para aumentar el conocimiento, para avanzar. Y así ocurrirá con la IA. Transformará los trabajos más mecánicos, y podremos dedicarnos a tareas más creativas.
Crecerá la idea de colaboración entre la IA y el humano. Ya trabajan codo con codo en muchas fábricas, en diagnósticos de salud, en tareas de programación de software, en diseño de componentes espaciales, etc. Me gusta especialmente la manera de reflejar la colaboración IA-humano de la película Iron Man. El protagonista es asistido por una IA llamada J.A.R.V.I.S., que es la que desempeña tareas repetitivas, mecánicas, pero también realiza cálculos complejos y hace sugerencias inteligentes para el diseño óptimo del traje. Pero el humano lleva las riendas del proceso y el que toma la decisión última.
También a este tipo de IA generativas se les achaca una huella de carbono muy alta. Entrenar esta tecnología no sale gratis. El proceso de entrenamiento con tantos datos requiere de una cantidad ingente de energía que libera una gran cantidad de CO2. Lo que nos va a sorprender más es que requieren de un elevado consumo de agua para enfriar el hardware en el cual se entrenan. ChatGPT-3 requirió la misma cantidad de agua que para producir 320 coches Tesla.
Imagino que son daños colaterales que se irán reduciendo al optimizar el proceso de entrenamiento. En el caso de ChatGPT, viendo el crecimiento exponencial en su coste de entrenamiento, están trabajando en conseguir los mismos resultados con menos datos, pero de más calidad, aligerando el proceso.
Desde mi punto de vista, uno de los riesgos más peligrosos, es que estas herramientas se usen para que pasemos más tiempo conectados al mundo digital, y menos conectados con nosotros mismos. Algo verdaderamente preocupante. Va a posibilitar la creación de mundos digitales con un parecido asombroso a la realidad. Será muy adictivo poder experimentar en esos mundos en los cuales las leyes de la física se puedan reescribir y se posible, por ejemplo, que volemos o tengamos más fuerza. Pero de esto también va mi libro, así que lo dejo abierto para el lector.
¿Cómo podría vulnerar la IA generativa la normativa sobre Protección de Datos?
Italia prohibió el 31 de marzo el acceso a la herramienta ChatGPT. Considera que incumple las normas de privacidad. Hace unas semanas, un problema técnico de la herramienta expuso los títulos de las sesiones de chats de varios usuarios. Insisto, ChatGPT se ha entrenado con contenido generado por nosotros, y que nadie nos ha preguntado si lo podía usar.
Aunque el contenido esté a disposición pública, su uso viola un aspecto de la privacidad que se denomina integridad contextual, que cuando publicas algo lo haces en un contexto determinado. Lo segundo es que partes de es contenido procede de fuentes con copyright y otro es que esa información contiene datos privados. Pero hay más problemas.
España también investiga a la empresa OpenAI, dueña de esta tecnología, por el mismo motivo. En Europa hay una mesa de debate sobre el asunto. Estamos a las puertas de que se vote una regulación de la IA a nivel europeo que nos permita controlar este y otros aspectos. Lamentablemente, el control siempre va por detrás de la tecnología. Me temo que en este caso también va a llegar tarde. Debemos establecer mecanismos de control de la IA y procesos de supervisión, desde el nivel más bajo como puede ser su algoritmia, programación, y los datos usados para entrenarla, hasta el nivel regulatorio de ámbito de aplicación.
¿Hasta qué punto la consistencia discursiva del texto generado artificialmente puede bastar para transmitir como veraz lo que solo es verosímil o coherente? ¿Se pueden inventar respuestas con trazas de verosimilitud, pero infundadas?
Es un aspecto crucial en la ChatGPT. Tenemos que interiorizar que ha sido concebido no con el objetivo de dar respuestas veraces, sino de contestar de una forma coherente y creíble. Es muy hábil, por ejemplo, manteniendo el tono de una conversación, saludando, disculpándose. Son ingredientes que la empresa OpenAI conoce y maneja con sutileza. Sabe que son esenciales para que su herramienta sea creíble para un humano. Hasta el punto de que nos sintamos cómodos hablando con ella, y le demos información sobre aspectos nuestros que de otra manera no desvelaríamos.
ChatGPT conoce y analiza nuestros enfoques y matices, la forma de preguntar, aquello que evitamos nombrar, lo que repetimos, nuestras obsesiones, cómo reaccionamos a lo que nos dice. Y esto sin entrar en las imágenes que le ofrecemos a su última versión ChatGPT-4. Y sí, como ya se ha evidenciado en muchos ejemplos que circulan por la red, se puede llegar a inventar respuestas, así que tampoco debemos fiarnos de sus afirmaciones.
No existe una respuesta única para la mayoría de las preguntas que nos formulamos. ¿Qué ocurre cuando está en juego una vida humana, en un quirófano o en un previsible accidente de tráfico, por ejemplo, y la IA debe decidir?
Esos son los ejemplos que nos vienen a la cabeza cuando pensamos en una IA totalmente autónoma. Un ejemplo muy extendido, por la implicación de vidas humanas, es la conducción autónoma. A veces podríamos darle la vuelta y preguntarnos cuántos accidentes podría evitar la IA.
Reitero, me gusta ver a la IA como un asistente, dejando la última decisión para el humano. Pero imagino que algunos escenarios tendremos que delegar totalmente la decisión. Aquí solo queda disminuir el margen de error. Diseñar un banco de pruebas completo y lo más cercano posible a la realidad.
Ahora mismo no nos planteamos cuántas vidas hay en juego por un error en la respuesta de ChatGPT. Tampoco contabilizamos las vidas en riesgo por la presencia de información maliciosamente falsa –o veraz, pero peligrosa– en Internet o en otros medios. No solo la IA está expuesta a ese tipo de riesgo.
Una cosa es automatizar tareas y otra adoptar decisiones. ¿Entendemos realmente cuál es su sesgo y cómo debemos regularlas?
Lo entendemos, pero tarde. La regulación va por detrás, siguiendo sus efectos e intentando que no se repitan. Cuando hay un avance tecnológico de estas características, suele salir a la calle enseguida. Sin atender un estudio completo de impacto positivo y negativo. En el camino nos vamos dando cuenta de que, además del motivo por el que se desarrolló, sirve para otras cosas, buenas y malas. Con la IA pasa lo mismo.
Y con el caso particular de OpenAI con ChatGPT me temo que su lanzamiento responde a un interés de posicionarse rápidamente en esta tecnología, pues otros competidores como Meta o Google andan en lo mismo. Seguramente, si esperaban a evaluar el impacto al completo,hubiesen perdido la carrera.
¿Ética, razonamiento y legalidad deben ser las barreras infranqueables? ¿Qué consecuencias se derivan de la Máquina Moral del MIT y el dilema del tranvía?
Son dilemas que trascienden a la IA. Presentan problemas morales en la frontera, y los seres humanos muchas veces no tenemos una posición clara ni existe un consenso. Como ha quedado de manifiesto en la Máquina Moral del MIT, la principal conclusión es que los seres humanos no tenemos una base ética común. Depende del grupo social, cultural, del país, de la religión. No hay un consenso ético. Quizás una solución sería la construcción de un atlas moral por regiones, y que la IA se rija por su predominio geográfico. Con las leyes pasa lo mismo, hay un consenso general en muchos aspectos, pero en muchos otros nos diferenciamos unos países de otros, incluso unas provincias de otras.
También existe una base de datos que registra los incidentes con personas que provoca la IA –AI Incident Database–. A medida que la IA avanza, aparecen esta iniciativas como necesidad de medir el impacto de la IA en las personas.
¿Los problemas de la tecnología se solucionan con más tecnología?
No. La esfera tecnológica siempre debe ir de la mano de un enfoque social, ético, sin dejar de lado el componente humano y ecológico. ¿De qué nos sirve la tecnología si no nos hace mejores, si no nos resuelve problemas, si no nos hace todo más sencillo? En el caso de la IA, cada vez somos más conscientes de la necesidad de una evaluación ética y social de lo que desarrollamos. Al menos preguntar: “¿Puede hacer daño a alguien y cómo evitarlo?”, “¿Es sostenible?, ¿Aun así compensa?”. Cuando tengamos una respuesta firme, podemos seguir.
La Industria 4.0 se alimenta de los gemelos digitales. Con la información recopilada se obtienen modelos de alta precisión. ¿Cómo evitar las desviaciones y derivas para ganar en confiabilidad y evitar que el conocimiento quede obsoleto? ¿Es posible un aprendizaje adaptativo en tiempo real?
Existe una rama de la IA enfocada al aprendizaje en tiempo real y a la adaptación. Además, se persigue que se haga de forma autónoma. La robustez y la confianza son dos propiedades muy valoradas en la IA de hoy. Necesitamos algoritmos que sepan cuándo adaptarse a los cambios, que sepan hacerlo ellos mismos, y además que podamos confiar en las predicciones que hacen. El mundo está gobernado por los datos, y estos cambian constantemente, por lo que una IA que esté actualizada en cada momento es lo que se busca.
Tenemos un ejemplo claro en la pandemia de COVID-19. Muchas empresas vieron cómo sus IA, entrenadas con datos prepandémicos empezaban a sufrir un rendimiento decreciente, y tuvieron que reentrenarlas de forma manual para que se adaptaran a la nueva situación. De haber contado con IA adaptativa y con una estrategia adecuada, no hubieran tenido que hacer nada.
El derecho al olvido es fundamental. ¿Cómo se aplica en sistemas basados en IA?
Un tema muy candente ahora mismo. La GDPR (General Data Protection Regulation), en su artículo 17 se refiere a lo que se conoce como “Derecho al Olvido”. Es decir, que con el simple hecho de solicitarlo se borren nuestros datos privados de las bases de datos donde aparezcan. Esto que a priori puede ser un procedimiento técnicamente sencillo, si pensamos en un simple borrado de registros de una base de datos, en el caso de la IA es complicado. La IA se entrena con datos, y si a posteriori se borran por petición de un ciudadano, el entrenamiento subyacente permanece. Hay formas de hacer que esa IA olvide o desaprenda esa información, pero esto puede tener un impacto negativo en su rendimiento y en el desempeño de una tarea. Es una cuestión abierta y muy desafiante, y para la que no existe una solución clara y definitiva.
Elon Musk y más de un millar de investigadores piden pausar el desarrollo de la IA avanzada. ¿No llegan un poco tarde cuando su desarrollo avanza mucho más rápido que su regulación?
Sí, la regulación va a varias velocidades muy inferiores que el desarrollo tecnológico. En este caso concreto de Musk y demás firmantes existen otros intereses. Aunque piden parar seis meses el desarrollo de las IA generativas hasta analizar mejor su impacto, la petición responde más a dos intereses. Por un lado, somos testigos de la existencia de una carrera tecnológica –como lo fue la carrera espacial– protagonizada por la mayoría de grandes compañías tecnológicas. Y, por otro lado, la necesidad de controlar esta tecnología y que no se desboque como en su momento sucedió con Internet.
Por ejemplo, la compañía OpenAI ha liberado el código de ChatGPT, y ya existe una versión denominada Auto-GPT que ofrece la posibilidad a cualquiera de hacerle modificaciones, entrenarla con otros datos, destinarla a otros fines, etc. Y ya se empieza a especular con la aparición de GPT-5, la última versión de esta IA generativa en la que se basan muchas herramientas ahora mismo, aunque el CEO de OpenAI ha dicho que lo están pensando.
Por el momento, este “bicho” anda suelto y ya han experimentado creando agentes entrenados con ChatGPT y observando sus relaciones y acciones en un mundo virtual al estilo de Los Sims. Es fácil imaginar cómo mundos de este tipo pueden servir para simular sociedades y ver el impacto a corto y largo plazo de introducir ciertos cambios, como leyes, productos, restricciones dignos del mejor libro de ciencia ficción.
Usted también ha visto brillar rayos C cerca de la Puerta de Tannhäuser… ¿Es posible que los replicantes seamos nosotros mismos?
No los he visto, una pena, pero cuando vi la cara de Roy y escuché su frase al final de Blade Runner, imaginé un espectáculo magnífico. Precisamente, en esta película, el mecanismo de control era que los replicantes tenían fecha de caducidad en su propia genética. Un mecanismo duro, pero efectivo.
Aquí subyace la conocida teoría de la simulación, con la que el científico Nick Bostrom empezó a especular en 2003 sobre la posibilidad de que nuestro mundo fuese una simulación en un ordenador de una civilización más avanzada. Aunque la idea es más antigua, la alegoría de la caverna de Platón planteó la idea de que la realidad fuese una ilusión. Hoy forma parte del argumentario de libros o películas como Matrix, y de corrientes de pensamiento como el transhumanismo.
Podemos encontrar demostraciones de todo tipo, incluso matemáticas, que aceptan o rechazan la teoría de la simulación. Me pregunto, trayéndolo a un punto práctico, si esa simulación no debió haber terminado en el momento en que nos dimos cuenta de que somos seres simulados. Si yo fuera la persona a cargo de dicho experimento, hubiese dejado de ser interesante para mí y lo hubiese dejado a un lado. Seguimos aquí, espero que por mucho tiempo.