Soy un ser humano. Me asusto cuando veo algo que supera con mucho mi capacidad de comprensión. Fueron las palabras del campeón mundial de ajedrez, Garry Gasparov, tras su derrota en 1997 contra el programa Deep Blue de IBM. La primera vez que un campeón de ajedrez caía frente a una máquina. El New York Times tituló al día siguiente: El ordenador Deep Blue de IBM arrebató a la humanidad, al menos temporalmente, el puesto de mejor ajedrecista del planeta.
Por eso no sorprende que un físico del peso de Stephen Hawking afirmara:
El éxito de la IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar riesgos… El desarrollo de la IA completa podría deletrear el fin de la raza humana, despegaría por sí sola, y se rediseñaría a un ritmo cada vez mayor. Los hombres, que están limitados por la lenta evolución biológica, no podrían competir y serían remplazados.
Se comprobaría, sugiero, que existe una raza superior, que Dios es una entelequia que se releva durante un largo ciclo histórico con imágenes emblemáticas renovadas y que los seres humanos somos parte de un experimento que llega a un final para dar inicio a una nueva era. Las máquinas hablarán en nombre de un nuevo dios, rey de la tecnología y del mundo; y los seres humanos seremos sus esclavos.
Las fronteras de la inteligencia artificial
Por ahora, dejemos hablar al tiempo y a los expertos en la materia. Para Carl Sagan, los casi setenta años desde que John McCarthy acuñó el término en 1956, son apenas un instante en la escala cósmica del tiempo, y con ella pasa algo similar a lo que ocurre con las tecnologías para la información y la comunicación, la TIC que tanto se nombra. En este caso, no es la inteligencia artificial en sí lo que preocupa, sino la idiotez humana.
El obstáculo fundamental para lograr una inteligencia artificial con las competencias que posee la del ser humano, es simplemente que las máquinas no tienen ni tendrán alma ni sentido común. Será en todo caso una inteligencia, cuando alcance su desarrollo máximo distinta a la inteligencia humana y al servicio de esta.
Para decirlo con palabras del experto en IA Ramon López de Mántaras:
Por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, incluidas las de tipo general, nunca serán iguales a las inteligencias humanas… ya que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo en particular, del sistema perceptivo y del sistema motor.
Hasta ahora, el hombre no ha podido gobernar el uso de las nuevas tecnologías y, por los vientos que soplan, menos aún podrá controlar el uso de la inteligencia artificial para mejorar el hábitat, y para que sea de utilidad en el logro de beneficios sociales para las grandes mayorías del planeta. Serán un gran negocio, pero solo podrán hacer uso de ella los privilegiados que puedan pagar sus productos.
Una definición autorizada
La Comisión Mundial de Ética del Conocimiento Científico y la Tecnología de la UNESCO ha definido la inteligencia artificial como un campo que implica máquinas capaces de imitar determinadas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción lingüística y la creación de trabajos creativos.
Según Bruno López Takeyas, la IA es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos con base en dos características: razonamiento y conducta.
Cuando los ciudadanos empezamos a investigar en serio sobre IA nos damos cuenta de que la ciencia y la tecnología galopan solas y en silencio, y muy atrás van los programas educativos y la toma de conciencia de la importancia, el buen uso y, sobre todo, los límites y regulaciones que deben imponerse a las nuevas tecnologías y especialmente a la inteligencia artificial, que ya han empezado a cambiar nuestras vidas y los hábitos de trabajo.
Muchas décadas después del inicio de esta competencia, donde de nuevo el favorito para ganarla no es precisamente el ser humano, advierte Mántaras:
Necesitamos ciudadanos mucho más informados, con más capacidad para evaluar los riesgos tecnológicos, con más sentido crítico y dispuestos a hacer valer sus derechos. Este proceso de formación debe empezar en la escuela y tener continuación en la universidad. Y continúa… Solo si invertimos lo suficiente en educación, lograremos una sociedad que pueda aprovechar las ventajas de las tecnologías, minimizando sus riesgos.
Humanismo tecnológico
Hay un ensayo como pocos que, desde su entrada, hace énfasis en la correlación que debe existir entre el interés social y el buen uso de las tecnologías. Un trabajo admirable de la profesora española Nuria Oliver, titulado Inteligencia artificial, naturalmente. Un manual de convivencia entre humanos y máquinas para que las tecnologías nos beneficien a todos.
Su prologuista, David Cierco Jiménez, nos anuncia las intenciones que guían a quien escribe el texto:
Tal vez la mayor enseñanza que nos brinda este libro para los tiempos que vivimos, es que urge romper la tradicional dicotomía entre el interés tecnológico y el desarrollo social. La actual crisis de civilización ha abierto un territorio donde se mezclan algoritmos y emociones, la lucha cuerpo a cuerpo en la batalla virtual, las ciencias con las humanidades y los diversos fines de utilización entre sí con un único propósito: defender y proteger la vida, poniéndola en el centro de nuestras prioridades.
Es este un territorio donde el valor lo produce la integración, en el que todo es imprescindible y pierden sentido los muros entre tecnología y humanismo para conjugar, así, un humanismo tecnológico carente de retórica y lleno de verdad.
El hombre siempre en el centro
La mayoría de los seres humanos de ciencia, cuando hacen su trabajo para producir innovaciones científicas y tecnológicas, olvidan a su vecino y a todo el entorno y eso los vuelve insensibles a la degradación social y ambiental, al igual que las máquinas inteligentes que ayudan a crear.
Una minoría tiene en su centro de atención el ser humano y eso hace relevante el trabajo de la profesora Oliver, que siendo egresada de MIT y después de 25 años de ser una especialista en IA destacada, reconocida y de mucho prestigio, sienta ‘‘que el impacto que esta tecnología está teniendo ahora y en nuestras vidas no siempre es positivo, y por eso siento preocupación. Me pregunto si no nos encontraremos ante una crisis social de base tecnológica’’.
Con la misma ponderación aclara:
Al mismo tiempo, no tiene sentido aspirar a frenar el desarrollo tecnológico; explorar lo desconocido, empujar al estado del arte forma parte esencial del ser humano. Además, necesitamos la tecnología para sobrevivir como especie superando retos tan inmensos como el cambio climático, la sostenibilidad del planeta, el envejecimiento de la población, y la prevalencia cada vez mayor de las enfermedades crónicas… Uno de mis objetivos ha sido diseñar tecnologías que se adapten a nosotros y no al revés.
Es un libro que siempre busqué con afán, para no sentirme aplastado como muchos por el descomunal e inhumano peso de las nuevas tecnologías. Sorprende gratamente que alguien utilice un lenguaje humanista y autobiográfico, para hablar con autoridad sobre ciencia y tecnología. No es lo usual en este mundo tan desconcertado y gélido, fraternal y espiritualmente.
Antecedentes y escuelas
No es nuevo el interés que despierta en los humanos el desarrollo de máquinas capaces de pensar o dotadas de algunas competencias humanas. Desde la antigüedad, en las grandes novelas como la Ilíada, ya aparecían imágenes de robots antropomorfos que imitaban movimientos humanos.
De acuerdo con el célebre clásico de Homero, Hefesto, el dios griego del fuego y la forja, creó dos mujeres artificiales de oro con sentido en sus entrañas, fuerza y voz, que lo liberaban de parte de su trabajo. Es decir, creó robots para que lo asistieran.
Ramon Llull, en 1315, beato, filósofo y patrón de los informáticos, en su Ars Magna describió la creación del Ars Generalis Ultimo, un artefacto capaz de validar o invalidar teorías utilizando la lógica: un sistema de inteligencia artificial.
En Darmouth, New Hampshire, Estados Unidos, tuvo lugar la mítica convención en la que participaron figuras legendarias de la informática, como John McCarthy, quien acuña la voz de IA, Marvin Minsky, Claude Shannon, Herbert Simon, y Allen Newell, todos ellos ganadores del Premio Turing –uno de los padres de la ciencia de la computación y precursor de la informática–, el equivalente al Nobel en computación.
Según Nuria Oliver, esta reunión marca un hito en la historia, pues allí se define la IA. McCarthy quiso diferenciar la IA de la Cibernética, impulsada por Norbert Wiener, también de MIT, en la que los sistemas inteligentes se basan en el reconocimiento de patrones, la estadística, y las teorías de control y de la información. En cambio, McCarthy enfatiza la conexión de la IA con la lógica. Nacen así dos escuelas distintas con el mismo propósito. El enfoque McCarthy, simbólico-lógico, o top down, originalmente llamado neat y el enfoque de Wiener, basado en datos, conexionismo, o bottom up, originalmente llamado scruffy.
De acuerdo con la doctora Oliver, se trata de dos abordajes completamente distintos, el simbólico, top down –en inglés, de arriba a abajo– postulaba que las máquinas para razonar debían seguir un conjunto de reglas predefinidas y unos principios de la lógica. Se programan conocimientos humanos, de forma que después de aplicadas las reglas, que también son enseñadas previamente, el ordenador pueda derivar conocimiento nuevo.
Por su parte, la escuela bottom up –de abajo a arriba– proponía que la IA debía inspirarse en la biología, aprendiendo a partir de la observación y de la interacción con el medio físico, esto es, de la experiencia. Según este enfoque, si aspiramos a crear IA debemos proporcionar a los ordenadores observaciones de las que puedan aprender.
Tipos de inteligencia artificial
Para la doctora Oliver, los sistemas de IA se dividen en tres tipos, atendiendo a sus niveles de competencia: la IA específica hace referencia a sistemas capaces de realizar una tarea concreta, como jugar ajedrez, reconocer el habla, imágenes o procesar textos. Incluso mejor que los humanos.
Pero solamente saben hacer esa tarea. Si juegan ajedrez no pueden jugar damas aun siendo un juego menos complicado. Este sistema manifiesta un tipo limitado de inteligencia. Son incapaces de extender a otros ámbitos sus niveles de competencia como puede hacerlo el humano.
Los sistemas con IA general, en cambio, exhiben una inteligencia similar a la humana: múltiple, adaptable, flexible, eficiente, incremental. Esta sería la aspiración última de la IA, y estamos muy lejos de hacerla realidad. Ramón López de Mántaras considera que el hecho de que una máquina llegue a tener una inteligencia similar a la humana, significaría por su dificultad un éxito comparable a explicar el origen de la vida, el origen del universo o la estructura de la materia.
La tercera categoría –según Oliver– corresponde a sistemas con superinteligencia, asunto un tanto controversial referido al desarrollo de sistemas con inteligencia superior a la humana, tal y como propone el filósofo de la Universidad de Oxford Nick Bostrom.
Para Mántaras, la complejidad del cerebro humano dista mucho de los modelos de IA y conduce a pensar que la llamada singularidad –superinteligencias artificiales basadas en réplicas del cerebro humano que superan la inteligencia humana– es una predicción que carece de fundamento científico.
Los riesgos de la inteligencia artificial
Lo primero que debo decir, siguiendo a Joseph Weizenbaum, profesor emérito de informática en el Instituto Tecnológico de Massachusetts y uno de los padres de la cibernética:
Ninguna máquina debería nunca tener decisión completamente autónoma o dar consejos que requieran entre otras cosas, la sabiduría, producto de experiencias humanas, así como tener en cuenta valores humanos.
No hay duda de que la IA modificará los paradigmas de defensa y seguridad. Seguramente harán al ser humano más difícil de matar, solo que ahora se hará con menos riesgo y de modo más sofisticado. Crecerán descomunalmente los presupuestos de defensa en los países pobres y los países ricos para renovar equipos militares, que pudieran ir en su lugar a gastos sociales, especialmente en educación y salud. Crecen las amenazas a la sostenibilidad ambiental, puesto que los centros de datos de Internet son grandes generadores de calor y necesitan para su funcionamiento monumentales cantidades de energía.
El experto en sustentabilidad del planeta Anders Andrae estima que, si no mejoramos drásticamente la eficiencia energética de los procesadores en seis años, la industria de tecnologías y comunicación podría consumir el 20% de toda la electricidad del planeta. La mayoría de los países no ha iniciado el proceso de regulación y normativa en el manejo de la IA en las legislaciones nacionales y en convenios internacionales, lo que constituye una seria amenaza para los derechos humanos.
La IA destruirá, a través de la robótica, millones de puestos de trabajo y pondrá en severo riesgo la privacidad y la libertad ciudadana frente a los Estados vigilantes (reconocimiento facial, análisis masivo de datos, rastreo de redes sociales, y geolocalización de dispositivos) para reprimir y forzar la autocensura de los ciudadanos.
Alguien dijo en un encuentro de expertos de la Unión Europea, que la IA no tiene ética, pero pretendemos que la humanidad dependa de ella. Si no hemos podido con las cargas que nos ha impuesto el destino y cada día parece que camináramos en sentido contrario a las conquistas logradas por la humanidad, ¿cómo podrán tomar decisiones justas unas máquinas que no han podido superar el más básico de los sentidos, el común?