Por Cambio16
28/11/2017
.
La tecnología de prevención del suicidio de Facebook acaba de dar un importante paso adelante. La inteligencia artificial (IA), que rastrea patrones de actividad para determinar cuándo alguien expresa pensamientos de suicidio o autolesiones, ahora puede comunicarse con estas personas antes de que un amigo reporte su comportamiento.
Facebook presentó por primera vez sus herramientas de prevención del suicidio basadas en la IA a principios de este año. Pero hasta ahora, ese ‘software’ requería que un usuario o uno de sus amigos, buscara ayuda al respecto.
Ahora, la red social asegura que la tecnología ha llegado al punto en que puede intervenir proactivamente cuando detecta que alguien corre riesgo de autolesionarse o suicidarse.
A partir de ahora, cuando el sistema identifica publicaciones o transmisiones de Facebook Live que «podrían estar expresando pensamientos de suicidio«, estos ‘posts’ pueden ser enviados a revisores especialmente capacitados de la red social, que a su vez pueden contactarse con equipos de primera respuesta. También pueden sugerirle a un amigo a quien contactar.
«El objetivo de todo esto es que nuestra detección proactiva pueda activarse incluso antes de que se haya informado algo», apunta el vicepresidente de gestión de producto de Facebook, Guy Rosen.
Facebook y la batalla ética
Eso es un gran cambio con respecto a las herramientas anteriores de Facebook, que no podían actuar antes de que se produzca un reporte de dicho contenido. La eliminación de este paso no solo significa que la empresa puede identificar casos que pueden haber fallado previamente, sino que puede llegar a las personas que necesitan ayuda mucho más rápido que antes.
Rosen señala que las primeras pruebas del sistema son prometedoras, ya que solo en el último mes, las herramientas de detección proactiva de Facebook dieron como resultado más de 100 comprobaciones de bienestar, casos en los que Facebook alertó a grupos locales de primera intervención.
Ahora, estas herramientas también estarán disponibles fuera de EEUU. Por primera vez Facebook las está expandiendo a nivel mundial (excepto en los países de la Unión Europea).
Escribiendo en una publicación de Facebook, Mark Zuckerberg defendió los nuevos avances: «Con todo el temor sobre cómo la IA puede ser perjudicial en el futuro, es bueno recordarnos cómo la IA realmente está ayudando a salvar las vidas de las personas en la actualidad».
la red social ha intentado durante mucho tiempo lidiar con las personas que publican sus intenciones de suicidio en la plataforma, y la inteligencia artificial se está volviendo muy buena en la predicción de conductas autodestructivas. La nueva IA utiliza sus decisiones basadas en patrones de texto de publicaciones identificadas como suicidas que habían sido previamente informadas por los usuarios, o comentarios en publicaciones que dicen «¿Estás bien?» O «¿Puedo ayudar?» (Esto, por supuesto, introduce otra pregunta: ¿Qué sucede cuando un grito de ayuda desafía patrones conocidos?).
Planes y controversia
Facebook tiene planes aún más amplios para esta tecnología. «En el futuro, AI podrá comprender más los matices sutiles del lenguaje y podrá identificar diferentes cuestiones además del suicidio, lo que incluye detectar más tipos de acoso y odio», escribió Zuckerberg en su publicación.
Ante ello, la crítica apunta a que también podría tener otras aplicaciones más preocupantes, como por ejemplo si una herramienta similar pueda usarse por gobiernos autoritarios para buscar disidencia política.