Reflexiones sobre seis décadas de relación con las computadoras
Harry R. Lewis
CLIC-CLIC. Clic-clac-clic. Clac-clic. En 1966, tarde por la noche y completamente solo, me senté para tomar el control de la computadora PDP-4 en el Centro de Estudios Cognitivos en el piso doce del William James Hall de la Universidad de Harvard. En la consola, un total de dieciocho interruptores de palanca estaban agrupados de tres en tres para representar los dígitos octales del 0 al 7, la PDP-4 era una máquina de base 8.
Configuré los interruptores moviéndolos hacia arriba y hacia abajo, todos hacia abajo para representar 0, abajo-abajo-arriba para representar 001 o 1, 010 para representar 2, y así sucesivamente. Levantarlos sonaba como un «clic», un poco diferente del «clac» de bajarlos. La máquina producía sonidos y vibraciones y patrones ondulantes de luces intermitentes, y a veces el olor de componentes electrónicos quemados.
Tuve suerte. Mi primer ordenador era un aparato físico robusto y mi responsabilidad, al menos al principio, se limitaba a aprender cómo funcionaba. Otros estudiantes utilizaban otros ordenadores para resolver problemas reales, por ejemplo, para entender cómo fluye el agua alrededor del casco de un barco o para modelar la economía estadounidense. Eran ordenadores menos tangibles y más oraculares: uno se comunicaba con ellos haciendo una pregunta a través de una ventana en forma de baraja de tarjetas perforadas y luego volvía a recibir una respuesta en forma de una pila de papel con números impresos.
La máquina respondía a la pregunta que uno hacía, que a menudo no era la pregunta que uno quería hacer. Una coma mal colocada podía convertir una pregunta significativa en un galimatías y, como dijo el cibernético Norbert Wiener en 1913, “los agentes de la magia tienen una mentalidad literal”. Los usuarios de sistemas de procesamiento por lotes aprendieron, como el pescador de Las mil y una noches que liberó al genio de la botella, a tener mucho cuidado con lo que pedían.
En cambio, pasar tiempo con un ordenador autónomo e interactivo como el PDP-4 era como ser el ingeniero a cargo de una locomotora: la máquina tenía personalidad porque tenía un cuerpo que se podía sentir y escuchar. Por el sonido se podía saber si funcionaba bien.
La cinta de papel perforada de una pulgada era el medio de entrada del PDP-4. La cinta estaba plegada en abanico y las partes no leídas y las ya leídas se colocaban verticalmente en compartimentos en lados opuestos de las luces del sensor. Se oía un suave sonido rítmico cuando los segmentos se desplegaban de un compartimento y se volvían a plegar en el otro: sswhish, sswash, sswish, sswash.
A menos que no hubieras colocado la cinta en el compartimento de recogida correctamente al principio; en ese caso, el sonido rítmico se disolvía en un crujido furioso y la cinta se convertía en un feo lío de bucles y garabatos.
En aquellos días anteriores a la miniaturización, el funcionamiento normal del procesador central generaba tanta radiación que bastaba con colocar una radio de transistores en la consola y sintonizar una emisora de AM y el tono de la estática indicaba si la máquina al otro lado de la sala se había estropeado.
Estas computadoras tenían su propia magia, pero como tenía el control de toda la máquina, aprendí rápidamente a no tenerles miedo.
Esa primera noche, configuré laboriosamente los interruptores de palanca para que las instrucciones en lenguaje de máquina calcularan 2+2, cadenas de 18 ceros y unos en un patrón codificado que la máquina estaba diseñada para obedecer.
Almacené las instrucciones en ubicaciones sucesivas de la memoria de la computadora usando el interruptor de “depósito” con resorte, contuve la respiración y presioné iniciar . No pasó nada. Volví y verifiqué dos veces mi trabajo; todo parecía estar bien. Entonces me di cuenta de que algo había sucedido (la respuesta, 4, estaba justo donde debía estar), pero todo había sucedido tan rápido que no podía verlo.
Al tener la máquina para mí solo, podía “hacerla funcionar paso a paso” usando otro interruptor y ver que estaba haciendo lo que yo quería.
Esas dos lecciones sobre cómo trabajar con computadoras han resistido la prueba del tiempo. Tenga cuidado con lo que les pide. Puede resultar difícil saber qué están haciendo.
ANTES DE QUE LA MINIATURIZACIÓN los desapareciera casi por completo, los ordenadores se percibían como objetos físicos. Los 0 y 1 que se movían en su interior podían representar mundos imaginarios: los ordenadores eran tejedores de “material mental puro”, como dijo en 1956 el doctor en filosofía Fred Brooks. Sin embargo, su magia tenía sus límites porque no funcionaban muy bien.
Cualquier ilusión de encarnación espiritual se desmoronaba cuando había que limpiar una cinta de papel atascada. Si uno se tuteaba con el mecánico que engrasaba los engranajes y ajustaba los tornillos de fijación, era poco probable que le atribuyera cualidades trascendentes, incluso en los días en que funcionaba perfectamente.
Pero la gente empezó a conversar con las computadoras sin verlas, y resultó que incluso la pantalla más endeble (entre Dorothy, la usuaria, y Oz, la computadora) seducía a la gente a considerar la máquina como humana, o incluso como un mago.
ELIZA fue el chatbot original, creado por Joseph Weizenbaum del MIT a mediados de los años sesenta. Bautizado con el nombre de la florista reprogramada de Pigmalión de George Bernard Shaw (más tarde la base del musical My Fair Lady ), ELIZA imitaba burdamente a un psiquiatra que solo sabía cómo transformar las declaraciones del paciente en nuevas preguntas y nada del significado de las palabras que reordenaba.
Pero, por torpe que fuera, la gente conversaba con ELIZA durante horas, incluso sabiendo perfectamente que «hablaban» a través de un teletipo a una computadora.
Weizenbaum se sorprendió cuando su propia secretaria le pidió que saliera de la habitación, como si quisiera confiar en privado un secreto a un nuevo amigo, siempre atento y nunca crítico. Siendo un refugiado judío que había escapado de la Alemania nazi a los 13 años, Weizenbaum luchó por conciliar las realidades duales que había vivido: que los humanos podían tratar a otros humanos como infrahumanos y a las máquinas electrónicas como humanas.
Weizenbaum pasó el resto de su carrera, incluido un año sabático que pasó en Harvard escribiendo Computer Power and Human Reason, tratando de exorcizar al monstruo que sentía que había creado: el apóstata del fervor pionero por la inteligencia artificial de sus colegas del MIT.
Después de décadas de falsos comienzos y promesas incumplidas, llegamos al florecimiento actual de la inteligencia artificial. Muchas interacciones entre humanos y computadoras siguen siendo torpes y frustrantes, pero los sistemas informáticos inteligentes van permeando en nuestra vida diaria. Existen invisiblemente en la “nube”, el eufemismo etéreo que enmascara sus enormes demandas de energía. Se han metido literalmente bajo la piel de quienes tenemos dispositivos médicos implantados. Afectan y a menudo mejoran la vida de innumerables maneras.
Y a diferencia de los poco fiables artilugios mecánicos de antaño, las computadoras de hoy (por poco interesantes que sean a la vista, si es que las encontramos) en su mayoría no se estropean, por lo que tenemos menos razones para recordar su carácter físico.
¿Importa que la línea entre los humanos y las máquinas que hemos creado se haya desdibujado tanto? Por supuesto que sí. Sabemos desde hace mucho tiempo que perderíamos el juego del cálculo a manos de nuestras creaciones y así ha sido. Es probable que también perdamos el “juego de la imitación” de Turing, en el que un programa informático, que se comunica con un ser humano mediante un texto escrito, intenta engañar al usuario para que lo confunda con un ser humano que está en otro teclado. (ChatGPT y otros similares son conversadores inquietantemente convincentes).
Nuestro desafío, en presencia de agentes inteligentes superiores, invisibles y ubicuos, será asegurarnos de que nosotros, nuestros herederos y sucesores, recordemos lo que nos hace humanos.
Si ese desafío no fuera suficiente, otra tecnología basada en computadoras está haciendo mucho más difícil distinguir a los humanos de las máquinas. Es decir, las pantallas a través de las cuales pasamos nuestras horas de vigilia conversando con computadoras y humanos por igual.
Nuestros teléfonos celulares son un portal único para el banco y las cartas de amor, para ir de compras, el flirteo y el acoso. Así como ahora es mucho más fácil recuperar un libro de la biblioteca (clic-clic, sin tomar el autobús o perder la hora de cierre), ahora es más fácil que nunca decir algo malo o cruel, ingenioso o sugerente. Clic-clic, sin incomodidad: no es necesario mirar a la otra persona a los ojos. El vidrio irrompible nos protege de las emociones de nuestro corresponsal: una Elizabeth humana no obtiene más empatía que la que ELIZA exigía. Los niños son especialmente vulnerables a la seducción inhumana de comunicarse con otros mientras se los aísla de sus reacciones.
Las computadoras pueden tomar decisiones perfectas si tienen todos los hechos y saben cómo evaluar las compensaciones entre objetivos en pugna. Pero en realidad, los hechos nunca se conocen por completo; los juicios siempre requieren una evaluación de incertidumbres. Y se necesita una vida humana entera, y una vida bien vivida, para adquirir los valores necesarios para emitir juicios sobre nuestras propias vidas y las de otras personas.
Cualquier falla particular de la toma de decisiones automatizada se puede reparar, por supuesto. El chatbot de inteligencia artificial de Air Canada proporcionó recientemente a un cliente información incorrecta sobre la política de cancelación de boletos con tarifa especial por duelo. La aerolínea se vio obligada a ofrecer un reembolso después de intentar atribuir al chatbot una mente propia, «responsable de sus propias acciones».
Dada la publicidad adversa, es probable que ese chatbot haya sido reprogramado para no volver a cometer el mismo error. Pero el intento de antropomorfismo fue una evasiva impulsada por el lucro. La aerolínea construyó el dispositivo que ofrecía la garantía de reembolso; el chatbot no sabía, ni podía saber, lo que significa morir, o perder a un ser querido, o cómo las personas buenas tratan a los demás en ese estado de trauma emocional, tampoco sabe qué es una buena persona.
Lo único que pueden hacer las computadoras es simular ser humanas. Pueden ser, como decía el difunto filósofo Daniel Dennett (1963), seres humanos falsos.
PERO ¿ACASO LOS ORDENADORES NO ESTÁN aprendiendo a ser falsos humanos al entrenarse con muchos datos obtenidos a partir de observaciones del comportamiento humano real? ¿Y no significa eso que, a largo plazo, los ordenadores tomarán decisiones como las personas, sólo que mejor, porque habrán sido entrenados con toda la experiencia humana registrada?
Estas preguntas no son triviales, pero su premisa es errónea en al menos dos aspectos. El primer error es sugerir que las computadoras pueden ser entrenadas digitalmente para ser versiones superiores del intelecto humano. Y el segundo es inferir que el juicio humano no será necesario una vez que las computadoras se vuelvan lo suficientemente inteligentes.
Primero hay que aprender. ¿Cómo nos convertimos en las personas que somos? No fue entrenando una pizarra en blanco con datos discretos de experiencias. Nuestros cerebros comienzan preprogramados en un grado significativo, aunque poco comprendido. Luego aprendemos de toda la gama de experiencias humanas en su contingencia totalmente fortuita.
Aprendemos de la sensación de un abrazo y del sabor de un helado, de las heridas de guerra y las ceremonias de boda y las derrotas deportivas, de las picaduras de abeja y los lametones de perro, de contemplar puestas de sol y subirnos a montañas rusas y leer a Keats en voz alta y escuchar a Mozart a solas. Tratar de entrenar a una computadora sobre el significado del amor o del dolor es como tratar de hablarle a un extraño sobre el rock and roll.
Y no sólo de todas nuestra experiencias de vida, sino de las experiencias de todos nuestros antepasados culturales. Nuestros maestros, todos aquellos de quienes hemos aprendido y aquellas almas difuntas que enseñaron a nuestros maestros, han moldeado todas esas experiencias en una estructura de vida, un sistema de valores e ideales, una manera en la que vemos e interpretamos el mundo.
No hay dos personas que vean el mundo exactamente de la misma manera. Dentro de una cultura hay cosas en común, pero las divisiones y las disputas, tanto dentro de los grupos como entre ellos, son el caldo de cultivo para enemistades étnicas y religiosas y para guerras civiles e internacionales.
Nunca nos libraremos de la carga de decidir sobre nuestros valores y luego resolver nuestras diferencias. Así como una aerolínea no puede eludir la responsabilidad por los consejos que brinda su chatbot, ningún sistema de inteligencia artificial puede separarse de los juicios morales de los humanos que lo crearon.
Es fácil entrenar a un ordenador para que imite a un ser humano malvado, algo que se está haciendo en sectores en los que es rentable. Pero, ¿cómo se podría entrenar a los ordenadores para que valorasen la civilización misma, cuando hay tan poco acuerdo entre los seres humanos sobre lo que eso implica?
Algunos de nosotros esperamos que prevalezcan los valores de la Ilustración, por ejemplo, “hacer avanzar el conocimiento y perpetuarlo para la posteridad”, como dijeron los fundadores al crear la Universidad de Harvard en el nuevo continente. Pero, ¿cuál sería el conjunto de datos de entrenamiento para una superinteligencia que decidiera exactamente qué significa eso: qué parte de la civilización hay que preservar y qué hay que abandonar o vencer? ¿Y en qué seres humanos se podría confiar para formular la pregunta?
Los informáticos, los economistas y los estadísticos han perfeccionado el arte de tomar decisiones óptimas en condiciones de restricciones definidas, pero comprender lo que significa ser humano, valorar la alegría y la utilidad, enfrentarse al significado de valores en pugna, es competencia de las humanidades, las artes, la filosofía, el proceso desafiante, desgarrador, introspectivo, estimulante, formador del carácter y que nos quita el sueño de una educación liberal integral.
Los tecno-optimistas y tecno-pesimistas de hoy, aturdidos por la IA, podrían prestar atención a la advertencia de Henri Poincaré: La pregunta no es ‘¿cuál es la respuesta?’, ‘¿cuál es la pregunta?’. Las humanidades han planteado las grandes preguntas a cada nueva generación. En eso se diferencian de las ciencias.
Un erudito literario me explicó una vez que los humanistas no resuelven problemas, los aprecian y los nutren, preparándonos a nosotros, a nuestros hijos y nietos, para enfrentarlos como lo harán las personas mientras persista la condición humana. Nuestra esperanza en un desarrollo beneficioso de la IA se basa en la supervivencia del aprendizaje humanístico.
“Hay inteligencia en sus corazones, y hay palabras en ellos y fuerza, y de los dioses inmortales han aprendido a hacer las cosas”. Así escribió Homero hace unos 2.800 años sobre los robots dorados forjados por el herrero divino Hefesto. Pero estos autómatas semidioses sabían quién mandaba. “Estos se movían ágilmente en apoyo de su amo”, continúa la Ilíada. Solo los humanos arrogantes podían pensar que sus falsificaciones podrían sustituir por completo la compañía, la sabiduría, la curiosidad y el juicio humanos.
Harry R. Lewis, es profesor emérito de informática de Gordon McKay, ex decano de Harvard College y decano interino de la Escuela Paulson de Ingeniería y Ciencias Aplicadas. En su quincuagésimo primer año en la facultad, enseña Computer Science 1910, “Classics of Computer Science”, en el que los estudiantes leen y debaten los artículos que crearon el campo y lidian con las importantes preguntas que aún plantean. Su colección editada de estos artículos, Ideas That Created the Future, fue publicada por MIT Press.
Publicado en Harvard Magazine