Por Cambio16
02/11/2016
Un físico y un antropólogo. Cuando dos ramas de la ciencia coinciden en la visión general de un escenario, es algo bastante destacable; pero si de lo que se trata es del futuro de la humanidad se torna aún más interesante. Ahora, si a esto agregamos dos nombres: Stephen Hawking y Yuval Noah Harari, ya hablamos de algo que debe ser escuchado.
En vísperas de la culminación de un nuevo año, y con los últimos acontecimientos sociopolíticos que han signado el último trimestre del año, encabezados por el Brexit y la victoria de Donald Trump, que se busque la opinión de estos dos grandes pensadores, más que una obviedad, es un asunto necesario. Son diversos los temas que exponen en sus últimas entrevistas públicas, pero ambos coinciden en dos postulados: su preocupación por la gran ignorancia que hay en las clases dirigentes respecto a uno de los temas que marcarán el futuro de la humanidad de manera determinante y que el futuro, tal y como lo vaticinan los últimos acontecimientos y desarrollos en puerta, vaticina ser difícil, de divisiones y colapso de estructuras. La protección del mundo es el nodo conductor de sus propuestas.
Hawking: El momento más peligroso
El célebre físico británico le concedió un reciente editorial a The Guardian, donde ha advertido que la elección de Donald Trump como presidente de EEUU y el voto del Reino Unido a favor del Brexit conforman el «momento más peligroso para el desarrollo de la humanidad».
«La mayoría de la gente sentía que había sido abandonada por los líderes mundiales, por lo que fueron rechazadas la élite y su statu quo» sostiene Hawking, añadiendo que las preocupaciones de los votantes sobre las consecuencias económicas de la globalización y la aceleración del cambio tecnológico «son absolutamente comprensibles», ya que la automatización de las fábricas y el aumento de la inteligencia artificial pueden «acelerar la ya creciente desigualdad económica en todo el mundo».
Además, el físico subraya que «ahora, más que en cualquier otro momento de nuestra historia, nuestra especie tiene que trabajar unida, enfrentando desafíos ambientales impresionantes: el cambio climático, la producción de alimentos, la superpoblación y las enfermedades epidémicas», entre otros.
«Ahora tenemos la tecnología para destruir el planeta en el que vivimos, pero aún no hemos desarrollado la capacidad de escapar de él. Tal vez en unos cuantos cientos de años, estableceremos colonias humanas entre las estrellas, pero en este momento solo tenemos un planeta, y tenemos que trabajar juntos para protegerlo», concluyó Hawking.
Harari: Inteligencia artificial y una sociedad prescindible
«No predigo el futuro. Me limito a plasmar las distintas posibilidades que ofrece… Algunas de esas realidades son inquietantes, desde luego» dice Yuval Noah Harari, probablemente el antropólogo más influyente en la actualidad. Sus lectores son muchos (su libro Sapiens ha vendido 300.000 ejemplares sólo en Israel, su país natal, que tiene poco más de 8 millones de habitantes) y algunos de ellos son muy ilustres: Bill Gates, Barack Obama o Mark Zuckerberg leen sus libros con atención.
Hace poco ha concedido una entrevista al El Mundo, donde este experto en la evolución del hombre a desgranado algunas interesantes conjeturas sobre el futuro que podría tener nuestra especie.
Una de las características básicas de esta sociedad futura será una división bastante clara entre una élite de superhumanos, que tendrá acceso a los más sofisticados avances en biotecnología, y una gran masa dominada por esa élite, que apenas tendrá a qué dedicarse, puesto que la mayoría de los empleos que existen ahora desaparecerán.
«Este cambio es inevitable. Los taxistas, los médicos o los traductores perderán sus empleos víctimas de la sofisticación de los coches autónomos, robots de diagnóstico y un traductor de Google mejorado. Son sólo unos ejemplos, pasará con muchas profesiones. Esto no quiere decir que no surjan nuevos trabajos, pero será difícil reciclar a gente con empleos tradicionales».
En cambio, problemas más temibles como el hambre no parecen una amenaza seria en el futuro de la humanidad: alimentar a la población no será en este caso un problema gracias a la tecnología. Sí lo será dotar de sentido a las vidas de todas esas personas».
En el ámbito social, las amenazas son más graves: «Me temo que tanto en economía como en política los seres humanos perderemos nuestro poder. Eso es terrible porque el Estado y las élites nos van a ver como prescindibles. En el siglo XX los políticos invertían en hospitales y carreteras, incluso los dictadores, porque necesitaban a la gente ya fuera como votantes, soldados u obreros para las fábricas. Actualmente se ve más claramente en algunos campos, como el bélico: con la tecnología y el profesionalismo el valor militar de un ciudadano es prácticamente cero. Y en política sólo hay que ver el apoyo que han obtenido Donald Trump y los populismos europeos. Esto es una señal de que la gente empieza a ser consciente de su pérdida de influencia y busca rebelarse».
A Harari le preocupa la gran ignorancia que hay en las clases dirigentes respecto a uno de los temas que marcarán el futuro de la humanidad de manera determinante: «En los próximos 50 años, la Inteligencia Artificial y la ingeniería genética serán determinantes en nuestras vidas, pero nadie las menciona, ni siquiera en unas elecciones tan importantes como las recientemente celebradas en Estados Unidos. ¡La tecnología más sofisticada citada en campaña fue la relacionada con los emails enviados por Hillary Clinton desde un servidor equivocado!».
«Después de 4.000 millones de años de evolución natural -añade el antropólogo israelí-, desarrollaremos humanos ayudados por ordenadores y vida inorgánica. Podría ser la mayor revolución de la historia de la biología, un impulso para plantearnos de verdad la vida fuera de la Tierra. En la actualidad, colonizar otros planetas con nuestras características biológicas es una quimera», remata.