Algunos autores que publican sus investigaciones en revistas de ciencia piden duras medidas contra quienes hacen artículos con IA no declarada. Quieren que se les considere como creadores de contenidos de dudosa credibilidad o de plagio. La profesora de química de la Universidad de Kansas, Heather Desaire, participó junto a su equipo en el desarrollo de una herramienta que diferencia los contenidos escritos por un ser humano de los creados por IA. Utilizó la nueva herramienta para rastrear las ChatGPT.
En su trabajo demostró que la herramienta tiene 99% de precisión en los resultados en los artículos publicados por la Sociedad Estadounidense de Química. Desaire y su equipo quería crear una herramienta muy precisa, «y la mejor manera de hacerlo es centrarse en un tipo concreto de escritura». Las otras herramientas de detección de la escritura mediante IA se presentan como muy funcionales, pero pueden ser menos exactas.
El estudio de la profesora Heather Desaire indica que un ChatGPT suele producir contenidos menos complejos que los humanos, es más general en sus referencias y usa menos signos de puntuación. Los humanos al escribir suelen usar más palabras como “sin embargo”, “aunque” y “pero” y son más precisos con los tiempos verbales.
La herramienta detecta uso de IA en contenidos sobre química
La mayoría de los interesados quiere una herramienta de análisis o un detector general que funcione con cualquier cosa. «Nosotros nos centramos en los contenidos escritos en materia de química y publicados en revistas científicas, porque buscábamos la precisión», dijo Desaire, que aclara que es necesario seguir trabajando para ampliar la capacidad de la herramienta para detectar la escritura artificial.
El rastreador creado por el equipo de Dedaire revisó revistas publicadas por la Sociedad Química Estadounidense. Recopilaron 100 pasajes introductorios escritos por investigadores y luego programaron un ChatGPT para que escribiera sus propias introducciones basadas en resúmenes de revistas o simplemente en los títulos de los informes. Cuando el detector de ChatGPT escaneó las tres categorías de informes, identificó correctamente todos los pasajes escritos por humanos, así como los informes generados con IA que incluían solo los títulos de los informes. Los resultados fueron casi igual de buenos con los informes que se basaban en pasajes introductorios, con una identificación correcta el 98% de las veces.
Desire apuntó que los editores académicos están lidiando con la adopción rápida y generalizada de nuevos generadores de texto con inteligencia artificial. «Estamos seguros que este nuevo detector permitirá a la comunidad científica evaluar la infiltración de artículos hechos con IA ChatGPT, identificar las consecuencias de su uso e introducir rápidamente estrategias de mitigación cuando surjan problemas», añadió.
Se toman estrictas medidas
Las revistas científicas están revisando y añadiendo nuevas normas para seleccionar los artículos que van a publicar. Si los textos fueron hechos usando IA se exige que se haga público. Cualquier proceso de IA utilizado para redactar un estudio científico se debe informar. Se puede publicar siempre y cuando sea información útil, verdadera y verificada por humanos.
Aunque los editores están cada vez más atentos ante la existencia de estudios científicos hechos con IA, todavía no hay un método infalible que detecte que todos los contenidos que se publican no fueron hechos utilizando IA. Heather Desaire enumeró varias preocupaciones sobre los riesgos de que el contenido generado por IA se infiltre en las revistas científicas:
- La publicación de una avalancha de manuscritos de valor marginal.
- Que los artículos científicos muy citados estén muy expuestos.
- Que las publicaciones sobre trabajos científicos poco conocidos, sean totalmente ignorados.
«Lo más preocupante es la tendencia de estas herramientas a inventar hechos que no son ciertos”, subrayó. Como ejemplo, citó los resultados de una biografía escrita sobre ella misma por ChatGPT. Decía que «se graduó de la Universidad de Minnesota, es miembro de la Real Sociedad de Química y ganó la Medalla Biemann». Todos logros muy meritorios, pero totalmente inciertos. Entonces el uso ChatGPT llenaría las publicaciones científicas de datos falsos o poco fiables.
Desaire se mantiene optimista ante esta lucha por detener la infiltración de artículos escritos por IA. Otros científicos creen que es inevitable que la IA siga generando y publicando contenidos. Creen que los humanos no ganarán esta guerra por muchas herramientas de detección de contenidos de IA que desarrollen.
Información falsa, sexista y racista
Los expertos dicen que en el mundo académico hay que hallar un balance en el uso de la IA generativa. Unos están de acuerdo en que su buena utilización haría más eficiente la redacción de los contenidos y ayudaría a los investigadores a transmitir con mayor claridad sus ideas. Sin embargo, esta tecnología ha incluido muchas referencias falsas en sus respuestas, ha inventado respuestas y ha reiterado contenidos sexistas y racistas de internet.
Si los investigadores utilizan estas respuestas generadas en su trabajo, sin un estricto control, podrían tener un grave problema de credibilidad. No revelar el uso de la IA significaría que los autores están haciendo pasar el contenido generado por la IA como propio, lo que se consideraría plagio.
Las revistas científicas combaten el problema con políticas distintas:
La red JAMA, que incluye títulos publicados por la Asociación Médica Estadounidense, prohíbe incluir generadores de inteligencia artificial como autores y exige que se revele su uso.
Las revistas producidas por Science no permite el uso de textos, figuras, imágenes o datos generados por IA sin permiso de los editores.
PLOS ONE exige a cualquiera que utilice IA que mencione la herramienta que usó, cómo la utilizó y cómo evaluó la validez de la información generada.
Nature prohibió las imágenes y videos generados por IA y exige que se revele el uso de modelos de lenguaje.
Todo responsabilizan a los autores de la validez de cualquier información generada por IA.