La Inteligencia Artificial deslumbra con sus enormes potencialidades. Nuevos modelos se están utilizando para estudiar las células humanas, esencia misma de la vida, y base de las armas biológicas. Los científicos quieren evitar ese posible uso. Pero si no se actúa rápido, y se evita repetir lo ocurrido con las redes sociales, cualquiera, aún sin preparación académica, podrá hacerlo.
Si internet cambió al mundo, la inteligencia artificial lo hará irreconocible. Tanto que ni quienes la están desarrollando saben a ciencia cierta adonde nos conduce. No sabemos si al paraíso o al mismísimo infierno. Lo que queda es prepararnos y tomar medidas. Porque la IA marcha a toda velocidad y su avance luce indetenible. Y como dijo Warren Buffet, no es algo que se pueda “desinventar”. Los resultados de su incorporación al estudio de la biología humana son impactantes. Sin duda, es una gran herramienta. Como todas, puede ser tan buena, o tan mala, como el uso que se le de.
Modelos fundacionales
Investigadores de Stanford entrenaron ordenadores con un programa de inteligencia artificial similar a ChatGPT y datos brutos sobre millones de células reales, incluyendo su composición química y genética. Los ordenadores lograron descubrir las células Norn en tan solo seis semanas. Un proceso que a los humanos les llevó 134 años. Procesaron los datos por sí mismos, creando un modelo de todas las células basado en su similitud en un vasto espacio multidimensional. Al final del proceso, las máquinas habían aprendido a clasificar una célula nunca antes vista en uno de los más de 1.000 tipos diferentes, incluyendo la célula Norn.
Ese software es uno de los nuevos programas basados en la inteligencia artificial, conocidos como «modelos fundacionales», que se centran en los fundamentos de la biología. Los modelos fundacionales de IA no sólo ordenan la información recogida por los biólogos, sino que también hacen descubrimientos sobre el funcionamiento de los genes y el desarrollo de las células.
A medida que se amplíen con más datos de laboratorio y potencia de cálculo, se espera que comiencen a hacer descubrimientos más profundos. Revelando secretos sobre el cáncer y otras enfermedades. Incluso descubriendo formas de convertir un tipo de célula en otro.
El alcance de estos modelos es objeto de debate. Los biólogos han estado tratando de entender cómo las distintas células de nuestro cuerpo utilizan los genes para realizar las funciones vitales. Mientras que algunos escépticos piensan que se toparán con un muro, los científicos más optimistas creen que llegarán a abordar la mayor cuestión biológica de todas: ¿Qué separa la vida de lo que no lo es?
Atlas celulares
Hace aproximadamente una década, los investigadores iniciaron experimentos a escala industrial para extraer fragmentos genéticos de células individuales y registraron sus hallazgos en “atlas celulares”, repletos de miles de millones de datos. La Dra. Christina Theodoris, residente médica del Hospital Infantil de Boston, creó un programa llamado GeneFormer. Lo alimentó con datos de 106 estudios humanos que incluían 30 millones de células. Se inspiró en un modelo de inteligencia artificial creado por Google para traducciones de idiomas.
GeneFormer hizo predicciones precisas sobre el comportamiento de los genes en diferentes células. Por ejemplo, predijo que la desactivación de un gen llamado TEAD4 en un tipo específico de célula cardíaca tendría un efecto significativo. Cuando su equipo probó esta predicción en células reales llamadas cardiomiocitos, el latido de las células cardíacas se debilitó.
En otra prueba, GeneFormer fue presentado con células cardíacas de personas con ritmos de latido defectuosos y de personas sanas. El modelo recomendó reducir la actividad de cuatro genes que nunca se habían relacionado con enfermedades cardíacas. Cuando el equipo de Theodoris siguió el consejo del modelo y eliminó cada uno de los cuatro genes, el tratamiento mejoró la contracción de las células en dos de los cuatro casos.
U.C.E
El grupo de Stanford, que contribuyó a la creación de una de las bases de datos de células más grandes del mundo, conocida como CellXGene, también exploró el ámbito de los modelos fundamentales. Capacitaron a sus computadoras con los 33 millones de células de la base de datos. Enfocándose en un tipo de información genética llamada ARN mensajero.
Estas computadoras aprendieron a categorizar más de mil tipos de células basándose en cómo se activan y desactivan sus genes. A partir de estos datos, desarrollaron un modelo denominado Universal Cell Embedding (U.C.E.). Que calculó la similitud entre las células y las agrupó en más de 1.000 conglomerados según cómo utilizaban sus genes.
La U.C.E. también aprendió aspectos importantes sobre cómo se desarrollan las células a partir de un único óvulo fecundado. El modelo fue capaz de transferir sus conocimientos a nuevas especies. «En esencia, redescubrió la biología del desarrollo», afirma Stephen Quake, biofísico de Stanford que ayudó a desarrollar el U.C.E. Si se le presentaba el perfil genético de las células de un animal que nunca había visto la U.C.E. podía identificar muchos de sus tipos celulares.
Conocer sus limitaciones
Tras el descubrimiento de las células Norn por la U.C.E., los investigadores de Stanford exploraron su origen en la base de datos CellXGene. Aunque la mayoría provenían de riñones, algunas se encontraron en pulmones y otros órganos. Lo que llevó a especular que las células Norn podrían estar dispersas por todo el cuerpo. Es posible que la U.C.E. haya descubierto un nuevo tipo de célula antes que los biólogos. «Quiero comprobar estas células», dijouna escéptica Katalin Susztak, médico-científica de la Universidad de Pensilvania especialista en las Norn.
Al igual que ChatGPT, los modelos biológicos pueden cometer errores. Kasia Kedzierska, bióloga computacional de la Universidad de Oxford, y su equipo sometieron a GeneFormer y a otro modelo, scGPT, a pruebas con atlas celulares desconocidos para ellos. Los modelos tuvieron un rendimiento variable. Kedzierska dijo que, aunque tenía grandes esperanzas puestas en los modelos, por ahora, «no deberían utilizarse de forma inmediata sin conocer bien sus limitaciones»
El Dr Jure Leskovec, informático de Stanford que entrenó a los ordenadores, señaló que los modelos mejoran con más datos. Pero comparados con el entrenamiento de ChatGPT en todo Internet, los atlas celulares actuales ofrecen una cantidad modesta de información. Se están desarrollando atlas celulares más grandes y se están recopilando diferentes tipos de datos de cada célula.
Los científicos están desarrollando herramientas para combinar lo que los modelos aprenden por sí mismos con lo que los biólogos ya han descubierto. Con suficientes datos y potencia de cálculo, podrían llegar a crear una representación matemática completa de una célula.
Célula virtual
Biólogos e investigadores están desarrollando atlas celulares más grandes, recopilando diversos tipos de datos de cada célula. Los datos incluyen moléculas que se adhieren a los genes y la ubicación exacta de las proteínas. Permitirán a los modelos de fundación aprender más sobre el funcionamiento de las células. Además, se están desarrollando herramientas para combinar lo que los modelos aprenden con los descubrimientos de los biólogos.
Con suficientes datos y potencia de cálculo, los científicos podrían crear una representación matemática completa de una célula. Bo Wang, biólogo computacional y creador de scGPT, cree que podría revolucionar la biología. Con una “célula virtual”, los científicos podrían predecir el comportamiento de una célula real y realizar experimentos completos en sus ordenadores.
El Dr. Quake sugiere que los modelos fundacionales podrían permitir conocer no sólo los tipos de células existentes, sino también los posibles. Esto podría llevar a la creación de nuevas células que aún no existen en la naturaleza. Células que podrían tener aplicaciones médicas, como eliminar la placa de los vasos sanguíneos o explorar un órgano enfermo. Aunque esto suena a ciencia ficción, Quake cree que el futuro podría depararnos sorpresas.
Más riesgos
Si cumplen con las expectativas generadas los modelos de fundación con inteligencia artificial en biología molecular, plantean nuevos riesgos. Incluso la creación de armas biológicas. Ante el Congreso de los Estados Unidos Dario Amodei, CEO de Anthropic, empresa competidora de OpenAI, advirtió sobre el potencial de la inteligencia artificial (IA) para facilitar ataques biológicos a gran escala.
Anthropic construye grandes modelos lingüísticos (LLMs), una tecnología que impulsa los chatbots en línea. Aunque los LLMs podrían ayudar a los atacantes a construir nuevas armas biológicas, Amodei reconoció que esto no es posible actualmente, pero “sólo faltan dos o tres años para que esto ocurra, declaró. Le preocupa que, con la mejora de los LLMs y su combinación con otras tecnologías, la IA pueda representar una amenaza en el corto plazo.
OpenAI, creador de ChatGPT, por su parte, realizó un estudio para calmar los temores que demostró que los Modelos de Lenguaje Masivo (MLM) no son significativamente más peligrosos que los motores de búsqueda. Aleksander Mądry, del MIT, espera mejoras en estos sistemas, pero no ve evidencia de que puedan crear armas biológicas.
Científicos piden regulaciones
La declaración del CEO de Anthropic alarmó a los senadores y provocó un debate en la comunidad científica. En respuesta, más de 90 biólogos y científicos especializados en IA para el diseño de proteínas firmaron un acuerdo para garantizar que su investigación no expondría al mundo a daños graves. Argumentaron que los beneficios de la IA, como el desarrollo de nuevas vacunas y medicamentos, superan con creces los riesgos potenciales.
El acuerdo no busca suprimir el desarrollo de la nueva tecnología, sino regular el uso de equipos para la fabricación de material genético. Esenciales para el desarrollo de armas biológicas. David Baker, director del Instituto de Diseño de Proteínas, enfatizó que el diseño de proteínas es solo el primer paso. La regulación debería centrarse en la síntesis de ADN.
Los MLM actuales se crean analizando grandes cantidades de texto de Internet. Lo que significa que regurgitan o recombinan información existente en línea. Sin embargo, los investigadores están comenzando a construir sistemas de IA similares. Para generar nuevos diseños de proteínas y acelerar el desarrollo de medicamentos y vacunas. Aunque esta tecnología podría ayudar a diseñar armas biológicas, su construcción requeriría un laboratorio costoso y equipos de fabricación de ADN.
No obstante, Andrew White, cofundador de Future House, señala que algunos riesgos no requieren una infraestructura costosa y existen desde hace tiempo, independientemente de la IA. Los biólogos han pedido medidas de seguridad para evitar el uso de equipos de fabricación de ADN con materiales nocivos. Así como una revisión de la seguridad de los nuevos modelos de IA antes de su lanzamiento.
No repetir errores
Pero Nathan E. Sanders y Bruce Schneier van más allá. Recuerdan que hace una década, las redes sociales eran elogiadas por impulsar movimientos democráticos. Pero, actualmente, se critican por su papel en la desinformación, la conspiración empresarial y los riesgos para la salud mental. La inteligencia artificial (IA), como las redes sociales, tiene el potencial de cambiar el mundo. Pero también puede causar un daño significativo a la sociedad.
Sanders es científico de datos y miembro del Berkman Klein Center de la Universidad de Harvard. Schneier es tecnólogo de seguridad y profesor de la Harvard Kennedy School. Ambos expertos creen que de la evolución no regulada de las redes sociales se pueden sacar lecciones para evitar cometer los mismos errores con la inteligencia artificial.
Explican que cinco atributos fundamentales de las redes sociales han perjudicado a la sociedad. Lamentablemente la IA comparte estos atributos. No son intrínsecamente malos, pero pueden ser perjudiciales dependiendo de cómo se utilicen. La solución reside en limitar el uso de la tecnología.
Los cinco atributos
- Publicidad: Ha sido fundamental para el desarrollo de Internet. Las tecnológicas apuestan a que la IA mejore la personalización de anuncios. El mayor riesgo puede surgir al introducir publicidad en asistentes virtuales de IA. Será difícil distinguir recomendaciones sinceras de aquellas influenciadas por intereses comerciales.
- Vigilancia: La IA podría incrementar las prácticas de vigilancia a gran escala para perfilar usuarios. Un área crítica son los asistentes virtuales. Su capacidad para extraer datos es especialmente preocupante.
- Viralidad: El modelo de negocios de las redes sociales fomenta la desinformación. Ha viralizado información engañosa. La IA acelera este problema al facilitar la producción y difusión a escala de falsedades personalizadas sobre temas políticos o de consumo.
- Bloqueo: Las tecnológicas dificultan la portabilidad de datos e historial para bloquerar el cambio de servicio. Penalizando la movilidad. Tendencia que se extiende a los asistentes personales de IA personales. Al almacenar gran cantidad de información privada e íntima, dificultarían el porte de datos a otro servicio.
- Monopolización: Las grandes plataformas tecnológicas tienden a dominar sus mercados rápidamente debido a efectos de red e incentivos perversos. Generando un ciclo de explotación de usuarios y concentración excesiva de poder. La IA repetirá este patrón a menos que se establezcan límites.
A tiempo
Para Sanders y Schneier aún no es demasiado tarde para evitar los riesgos que plantea la inteligencia artificial. A diferencia de las redes sociales, que siguen siendo en gran medida un “arma de destrucción masiva” no regulada. “No podemos permitirnos hacer lo mismo con la IA”, afirman.
En su opinión el daño que pueden causar las redes sociales se deriva de cómo afectan a nuestra comunicación. La inteligencia artificial nos afectará de la misma manera y de muchas más. Desde cómo aprendemos y expresamos nuestros pensamientos hasta cómo programamos nuestras actividades diarias, diseñamos productos, redactamos leyes e incluso diagnosticamos enfermedades. Nos expone a riesgos derivados de las decisiones e incentivos de las empresas con ánimo de lucro.
Para mitigar el riesgo que las acciones empresariales suponen para nuestras vidas, tenemos algunas herramientas, incluyendo la regulación, afirman. Por ejemplo, se puede restringir qué empresas y productos pueden incorporar inteligencia artificial, exigir transparencia sobre los datos utilizados para entrenar sus modelos y establecer requisitos de supervisión y rendición de cuentas.
Combatir monopolios
Sanders y Schneier consideran que la legislación antimonopolio es clave. Preservar la competencia es una función principal de los reguladores. Consideran que no es inevitable que OpenAI se convierta en otro gigantesco monopolio tecnológico. Se pueden introducir regulaciones que favorezcan la competencia, como la portabilidad de datos y la interoperabilidad de dispositivos. Los gobiernos también pueden hacer cumplir las normativas existentes sobre publicidad. Limitando el compromiso entre los proveedores de IA y los anunciantes.
A juicio de Sanders y Schneier el desarrollo y suministro de herramientas de IA no tiene por qué ser dominio exclusivo de las empresas. Un punto en el que coinciden con Rama Ranganathan, catedrático de la Universidad de Chicago, para quien estas tecnologías no deberían estar restringidas a un pequeño grupo de personas u organizaciones. “La comunidad científica debe poder explorar y contribuir a ellas libremente”, afirma.
Para los científicos resulta imprescindible mantener un diálogo social intenso sobre cómo utilizar estas herramientas. Lo cierto es que actualmente no se está produciendo ese debate, pero aún no es demasiado tarde. Apenas estamos en los primeros años de las aplicaciones prácticas de la inteligencia artificial para el consumidor. Debemos y podemos hacerlo mejor que con las redes sociales. Por que la inteligencia artificial es un arma de doble filo. Puede ser tan beneficiosa, como destructiva.