Tiene en su ADN un alto componente intelectual. Proviene de una familia británica que dejó huella en la medicina, la ciencia de la computación, la economía, el pensamiento lógico. Geoffrey Hinton, conocido como el ‘padrino’ de la inteligencia artificial (IA), decidió renunciar a Google a los 75 años por los peligros que reconoce en las nuevas tecnologías que ayudó a construir, como el popular ChatGPT. Dedicó su carrera a investigar la red neuronal, un sistema matemático y computacional que aprende habilidades mediante el análisis de datos, entre otros avances.
Ahora que Google y Microsoft se enfrentan en una reñida competencia por crear productos basados en IA, entre ellos el ChatGPT, Hinton rompe filas. Y se une al grueso número de críticos que advierten que esta tecnología amenaza a la humanidad. De allí, la pausa de seis meses exigida por más de mil expertos, para dar con códigos de seguridad.
Asombrado por las capacidades de los nuevos modelos lingüísticos de gran tamaño, como el GPT-4, Hinton quiere detenerse. Y más aún, quiere concienciar a la opinión pública de los graves riesgos que ahora cree que puede entrañar la tecnología que él mismo introdujo.
Este genio informático recibió, junto a Yann LeCun y Yoshua Bengio, el Premio Turing en 2018 por su trabajo sobre deep learning, y asegura estar listo para bajar el ritmo. «Me estoy haciendo demasiado viejo para hacer trabajos técnicos que requieren recordar muchos detalles».
Sin embargo, esa no es la única razón por la que ha dejado Google. Geoffrey Hinton quiere dedicar su tiempo a lo que describe como «un trabajo más filosófico». Este es el pequeño, aunque para él muy real, peligro de que la IA acabe siendo un desastre, confió a Will Douglas Heaven. Editor senior de Inteligencia Artificial del MIT Technology Review.
Los miedos por la IA: el GPT-4 puede salirse de control
En el interín de las críticas que recaen sobre el ChatGPT, el jefe de IA del Pentágono, Craig Martel, se sumó al concierto de voces que alertan sobre sus manejos. Y confió que se encuentra “muerto de miedo” por el uso que las personas puedan darle.
Hinton también asoma sus temores sobre las nuevas tecnologías la posibilidad de que se escapen de las manos. Afirma que la nueva generación de grandes modelos lingüísticos -en especial, GPT-4, lanzado por OpenAI en marzo- le ha hecho darse cuenta de que las máquinas van camino de ser más inteligentes de lo que pensaba.
Y confiesa que le preocupa la forma en que esto ocurra. Dice OpenAI en su sitio en internet que “GPT-4 es más creativo y colaborativo que nunca. Puede generar, editar e iterar con los usuarios en tareas de escritura técnica y creativa, como componer canciones, escribir guiones o aprender el estilo de escritura de un usuario”. Además, GPT-4 puede resolver problemas difíciles con mayor precisión, gracias a su conocimiento general más amplio y habilidades.
«Estas cosas son muy diferentes a nosotros. A veces, pienso que es como si los extraterrestres hubieran aterrizado y la gente no se hubiera dado cuenta porque hablan muy bien inglés», comenta reflexivo.
Durante 40 años, Hinton ha considerado las redes neuronales artificiales como un pobre intento de imitar las biológicas. Ahora, cree que eso ha cambiado; piensa que, al imitar lo que hacen los cerebros biológicos, hemos dado con algo mejor. «Da miedo verlo. Es un vuelco repentino».
El GPT-4 sabe mucho
A muchos, los temores de Hinton les parecerán de ciencia ficción. Pero este es su razonamiento, reseña MITTechnology Review.
Como su nombre indica, los grandes modelos lingüísticos están formados por enormes redes neuronales con un gran número de conexiones. Pero son minúsculos en comparación con el cerebro. «Nuestro cerebro tiene 100 billones de conexiones. Los grandes modelos lingüísticos tienen hasta medio billón, o un billón como mucho. Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Quizá tenga un algoritmo de aprendizaje mucho mejor que el nuestro», sostiene Hinton.
En comparación con los cerebros, se cree que las redes neuronales aprenden mal. Ya que se necesitan grandes cantidades de datos y energía para entrenarlas. En cambio, los cerebros captan nuevas ideas y habilidades rápidamente, utilizando una fracción de la energía que emplean las redes neuronales.
«La gente parecía hacer magia», dice Hinton. «Ese argumento se viene abajo en cuanto se entrena uno de estos grandes modelos lingüísticos para hacer algo nuevo. Puede aprender tareas nuevas con extrema rapidez». Hinton habla de un «aprendizaje de pocos intentos», así las redes neuronales (preentrenadas como los grandes modelos lingüísticos) pueden habituarse a hacer algo nuevo a partir de unos pocos ejemplos.
El informático señala un caso concreto: algunos de estos modelos lingüísticos de IA, en el ChatGPT, pueden encadenar una serie de enunciados lógicos para formar un argumento. Aunque nunca hayan sido entrenados para hacerlo.
“Compara la velocidad un gran modelo lingüístico, realizado con un humano, en cuanto al aprendizaje de una tarea como esa y la ventaja del humano desaparece”, afirma.
Hinton piensa que hay dos tipos de inteligencia en el mundo: los cerebros animales y las redes neuronales. «Es una forma de inteligencia diferente. Una forma de inteligencia nueva y mejor».
Los temores: herramientas para manipular o matar
Esta una gran afirmación. Y la IA es un campo muy polarizado y ahora más con el ChatGPT y otras alternativas sería fácil encontrar expertos que se rieran de su argumento, y otras que lo avalaran.
La población también está dividida sobre si las consecuencias de esta nueva forma de inteligencia, de existir, serían beneficiosas o apocalípticas. «Pensar que la superinteligencia va a ser buena o mala depende de si uno es optimista o pesimista», afirma el experto.
«Si se pide a la gente que calcule el riesgo de que sucedan lo peor, como la posibilidad de que un familiar enferme de gravedad o sea atropellado por un coche, un optimista diría que (la probabilidad es) el 5%. Y un pesimista dirá que eso ocurrirá. Pero una persona algo desalentada dirá que las probabilidades rondan el 40%, y tendría razón».
¿Cuál es la opinión de Hinton al respecto? «Estoy desalentado, por eso tengo miedo», se sincera.
Teme que estas herramientas sean capaces de descubrir formas de manipular (o matar) a los humanos que no estén preparados para esta nueva tecnología. «De repente, he cambiado de opinión sobre si estas herramientas van a ser más inteligentes que nosotros. Creo que ahora están muy cerca de serlo, y en el futuro serán incluso más inteligentes que nosotros. ¿Cómo sobreviviremos a eso?», se pregunta.
En especial, le preocupa que la gente pueda aprovechar las herramientas a las que él mismo ayudó a crear para inclinar la balanza de las experiencias humanas más trascendentales, como las elecciones o las guerras. «Podría salir mal de la siguiente manera: muchas de las personas que quieren utilizar estas herramientas son malos, como Putin o DeSantis. Quieren usarlas para ganar guerras, o manipular al electorado».
Usos malintecionados
Hinton considera que el siguiente paso para esta inteligencia es la capacidad de crear sus propios objetivos, los pasos intermedios necesarios para llevar a cabo una tarea. Además, le inquieta qué ocurrirá cuando esa capacidad se aplique a algo inmoral.
«No pienses, ni por un momento, que Putin no fabricaría robots hiperinteligentes con el objetivo de matar ucranianos. No lo dudaría. Y si quiere que sean buenos en eso, no quiere microgestionarlos: quiere que descubran cómo hacerlo».
Ya hay un puñado de proyectos experimentales, como BabyAGI y AutoGPT, que conectan chatbots con otros programas. Como navegadores web o procesadores de texto, para que encadenen tareas sencillas. Son pequeños pasos, sin duda, pero apuntan en la dirección hacia la que algunos quieren llevar esta tecnología. Incluso si un actor malintencionado no se apodera de estas herramientas, hay otras preocupaciones sobre los objetivos secundarios, asegura Hinton.
Su mayor preocupación es que las tecnologías en el futuro amenacen a la humanidad y se desarrollen armas verdaderamente autónomas.
Lee también en Cambio16.com: