OpenAI, la compañía creadora de ChatGPT, presentó un sistema de moderación de contenido basado en su tecnología GPT-4. El mecanismo pretende alcanzar un nivel de ponderación y mesura en el tráfico en línea. La empresa intenta filtrar el material «tóxico y dañino» de Internet para «aliviar la carga mental» de los moderadores humanos que vienen desempeñando esta función.
En los últimos años se ha criticado la falta de moderación de contenido de redes como Facebook, Twitter o Instagram, que permiten insultos o el uso de material indebido. Tradicionalmente la carga de esta tarea ha recaído en los moderadores humanos que filtran grandes cantidades de contenido, con el apoyo de modelos de aprendizaje automático específicos verticales más pequeños
En ese sentido, el laboratorio de investigación de inteligencia artificial destacó la necesidad de aplacar o frenar el contenido en las plataformas digitales. Se trata de algo «crucial en el mantenimiento de la salud» de dichos medios. Lilian Weng, Vik Goel y Andrea Vallone detallaron que la versión GPT-4 de ChatGPT, trabajará con un sistema de moderación de contenido para interpretar reglas y matices en las políticas.
“Creemos que esto ofrece una visión más positiva del futuro de las plataformas digitales. Donde la IA puede ayudar a moderar el tráfico en línea de acuerdo con la política específica de la plataforma. Y aliviar la carga mental de una gran cantidad de moderadores humanos”, indicó OpenAI.
Añadió que “cualquiera con acceso a la API de OpenAI puede implementar este enfoque para crear su propio sistema de moderación asistido por Inteligencia Artificial”.
OpenAI crea sistema moderación de contenido
Un sistema de moderación de contenido que usa GPT-4 da como resultado una iteración mucho más rápida de los cambios de política, lo que reduce el ciclo de meses a horas. Entendiendo la iteración como la práctica de elaborar, refinar y mejorar un proyecto, producto o iniciativa.
Aunque el contenido por las plataformas digitales ha mejorado, el sistema entra a un nuevo nivel: el agotamiento de los moderadores humanos o bien el extremismo de la tecnología al momento de tomar decisiones.
ChatGPT, o específicamente el GPT-4, trabajaría de forma más directa y automática, pero con la sensibilidad en la toma de decisiones que pueda tener un ser humano. Asimismo, la GPT-4 también puede interpretar reglas y matices en la documentación de normas de contenido extenso y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente.
“Creemos que esto ofrece una visión más positiva del futuro de las plataformas digitales. Donde la IA puede ayudar a moderar el tráfico en línea de acuerdo con la política específica de la plataforma. Y aliviar la carga de una gran cantidad de moderadores humanos. Cualquiera con acceso a la API de OpenAI puede implementar este enfoque. Para crear su propio sistema de moderación de contenido asistido por IA”, insistió la compañía.
La moderación de contenido exige un esfuerzo meticuloso, sensibilidad, una comprensión profunda del contexto. Así como una rápida adaptación a nuevos casos de uso, lo que hace que sea un proceso lento y desafiante.
Los modelos pueden emitir juicios
La empresa de Sam Altman está explorando el uso de LLMs o grandes modelos de lenguaje para abordar los desafíos planteados.
Sostuvo OpenAI que sus grandes modelos de lenguaje como GPT-4 pueden comprender y generar lenguaje natural, lo que los hace aplicables a la moderación de contenido. Los modelos pueden emitir juicios en función de las directrices de política que se les proporcionan.
Con este sistema, el proceso de desarrollo y personalización de políticas de contenido se reduce de meses a horas.
Una vez que se escribe una directriz de política, los expertos en políticas pueden crear un conjunto de datos, identificando una pequeña cantidad de ejemplos y asignar etiquetas de acuerdo con la política. Luego, GPT-4 lee la política y asigna etiquetas al mismo conjunto de datos, sin ver las respuestas.
Al examinar las discrepancias entre los juicios de GPT-4 y los de un ser humano, los expertos en políticas pueden pedirle a la versión de ChatGPT que presente un razonamiento detrás de sus etiquetas. O analice la ambigüedad en las definiciones de políticas. E incluso que resuelva la confusión y proporcione más aclaraciones. En consecuencia se podrá repetir los pasos 2 y 3 veces hasta que se esté satisfecho con la calidad.
Este proceso iterativo produce políticas de contenido refinadas que se traducen en clasificadores. Esto permite la implementación de la política y la moderación de contenido a escala. Opcionalmente, para manejar grandes cantidades de datos a escala, se pueden usar las predicciones de GPT-4 para ajustar un modelo mucho más pequeño.