Cambio16
15/06/2018
Byton, el auto autónomo que rivaliza con Tesla
Humanos… ¿quién los necesita? Al parecer, muy, muy pronto las máquinas podrán aprender del mundo de una forma más autómata. Se podrán desenvolver por sus propios medios o, mejor dicho, sensores. Los expertos de Google DeepMind crearon un programa capaz de aprender cómo es una composición 3D de un entorno a través de imágenes 2D sin supervisión humana. El estudio fue publicado en la revista Science. Y los avances que presenta son extraordinarios.
Descubrir el mundo
Generalmente, un sistema de aprendizaje automático primero debe recibir un entrenamiento. Es decir, hay que almacenar en su disco una cantidad de imágenes etiquetadas como «esto es un auto», «esto es una pelota», «esto es una mesa»… Por fortuna, a través de Google DeepMind el sistema autónomo puede descubrir por sí mismo la mejor manera de interpretar una escena. El sistema en cuestión fue bautizado Generative Query Network (red generadora de búsqueda). El avance más significativo es que se están instalando las bases para un aprendizaje «natural» de las máquinas.
Para que funcione el aprendizaje no supervisado debe entrar en partida un «juego cooperativo». El portal ABC News explica el proceso. Se utilizan dos redes. La primera observa una imagen e intenta descifrarla de la manera más concisa posible. Por otro lado, la segunda red toma la descripción e intenta predecir cómo sería la escena desde un punto de vista diferente. En caso de hacer una predicción incorrecta, ambas redes se actualizan para reducir la posibilidad de cometer el mismo error.
La prueba
Los científicos de Google DeepMind ya pusieron a prueba al sistema. Lo hicieron en salas con múltiples objetos. También evaluaron la reacción en entornos similares a laberintos. En este sentido, la visión por computadora se enfocó en la creación de algoritmos que realizan tareas específicas. Identificaron perros, personas y diversos objetos. El propósito es que en el futuro el sistema pueda responder a la pregunta: ¿Qué pasa si sucede…? Y generar respuestas de forma automática y espontánea.
Pero, tal como dice el investigador Michael Milford, si los robots aprenden por sí mismos, la humanidad enfrenta nuevos retos. «Estos robots aprenderán a actuar conforme a diversos puntos de vista. Hay que ser conscientes de esto. A medida que se vuelvan más y más complejos, hay que tener más cuidado».
Ali Eslami, autor principal del estudio de Google DeepMind, afirma que desde los años sesenta se ha buscado este tipo de avances. «Hemos querido que los ordenadores miren una imagen y la entiendan de la forma en que lo hacemos nosotros. Que reconozcan cuántos objetos hay, dónde están situados en el espacio tridimensional y de qué tipo son«. De esta forma, los investigadores se inspiraron en los bebés pues ellos aprenden a través de la observación y la interacción con el medio.
Esta investigación se encuentra en sus etapas de desarrollo y requerirá más datos y hardware más rápidos. Luego será viable adaptarlo al mundo real. Pero en lugar de meses de programación de datos para capacitar a la inteligencia artificial, solo bastará datos simples para que los robots se enseñen a sí mismos e interpreten el mundo. Pronto, nuestras necesidades serán cubiertas incluso antes de demostrarlas. ¿Te sientes mal? Un robot con Google DeepMind te hará una sopa sustanciosa para pasar el malestar.