La artificial está cambiando patrones de manera vertiginosa y revolucionando todos los aspectos de la vida, desde la medicina hasta el entretenimiento, no sorprende que desempeñe un papel muy notorio en la gestión empresarial.
Las empresas recopilan información sobre las actividades de los trabajadores. Vigilan sus movimientos físicos y sus sentimientos, así como el uso que hacen de las redes sociales. Diseñadores de entornos laborales se han valido de máquinas analógicas y digitales para calcular los rendimientos del empleado y para automatizar tareas. Ahora incorporan herramientas y aplicaciones de IA a sus mediciones.
El big data se emplea para entrenar algoritmos que predicen talentos y habilidades, vigilan el rendimiento, fijan objetivos y valoran resultados. También pueden poner en contacto a trabajadores y clientes, juzgar estados de ánimo y emociones o lo más reciente proporcionar información sobre posibles patologías mentales que pueda padecer un trabajador, sobre todo si ocupa un puesto de jerarquía y toma de decisiones. Todos estos cambios generan temores sobre qué tan invasivo de la vida privada del trabajador será un entorno laboral totalmente controlado por una IA integrada
No es secreto que el rendimiento en el trabajo siempre ha sido objeto de vigilancia y supervisión por el beneficio global de la empresa como motivación y con el argumento de relación laboral sana que permita a trabajadores y empleadores obtener beneficios mutuos. Sin embargo, la IA es un nuevo tipo de «actor» determinante, con implicaciones morales y éticas.
Medir el deterioro cognitivo
La salud mental de los líderes ya sea empresariales o políticos es un tema que ha ganado mucha atención en los últimos años. Recientemente salió a relucir en medios internacionales debido a ciertos comportamientos en público del presidente de Estados Unidos, Joe Biden, que han llevado a suponer que puede presentar algún tipo de desorden mental que lo imposibilitaría de ejercer como mandatario de una de las potencias mundiales. Los rumores se intensificaron cuando abandonó la candidatura para una posible reelección como jefe de Estado.
El asunto escaló y se sumó al debate la inteligencia artificial, como es costumbre hacerlo actualmente para cualquier cosa. La revista Alzheimer’s & Dementia publicó un estudio que muestra que la IA puede usar los patrones de habla de una persona para predecir la enfermedad de Alzheimer con aproximadamente un 80% de precisión, seis años antes de que la condición se vuelva diagnosticable.
Pero más allá de la situación cognitiva de Biden, lo destacable es el poder de la IA para hacer este tipo de evaluaciones y lo que significa su aplicación en entornos laborables.
Es indiscutible que un jefe con una buena salud mental no solo es más productivo, sino que también puede crear un ambiente de trabajo más positivo y motivador para su equipo. También que las responsabilidades inherentes al liderazgo pueden afectar negativamente el bienestar mental de las personas en puestos de mando. Sin embargo, el estrés que genera la utilización de la IA para determinar esos problemas tal vez sea mayor por el escrutinio al que se ven sometidos y la utilización para determinar su futuro laboral en la empresa.
El libre albedrío aún existe
Para demostrar si son física y mentalmente aptos para desempeñar un cargo, los aspirantes a menudo pasan por una serie de pruebas. Lo más seguro es que la IA hará que el proceso parezca aún más invasivo. Ya se está avanzanzo en este tipo de programas. Los equipos de investigación de la Universidad de Virginia Occidental y la Universidad de California en San Francisco están probando herramientas de inteligencia artificial que utilizan los niveles de colesterol, la densidad ósea y otros biomarcadores encontrados en la sangre para advertir sobre la enfermedad de Alzheimer con años de antelación.
Steven Blue, director ejecutivo del fabricante de equipos ferroviarios Miller Ingenuity, se sometió a una evaluación psicológica antes de ser contratado. Desde ese momento la junta directiva recibe informes de sus exámenes físicos anuales, incluidos los resultados de análisis de sangre y electrocardiogramas. Blue tiene 73 años de edad. Dice que confía en que la mayoría de los consejos de administración de las empresas no despedirían a un director ejecutivo sólido basándose en una predicción de demencia futura realizada mediante IA. Aun así, acota que los ejecutivos que estén negociando sus próximos contratos harían bien en poner por escrito límites al uso de modelos de salud basados en inteligencia artificial.
“Hay una línea divisoria entre tus responsabilidades fiduciarias y tu privacidad personal”, afirma. “Si la junta directiva dijera: ‘Podrías quedarte en estado vegetal en cinco años, así que te vamos a despedir o te vamos a obligar a que recibas este tipo de tratamiento’, yo simplemente diría que renuncio”.
No todo es malo
Las herramientas basadas en inteligencia artificial pueden ser aliadas para mejorar la labor. Tanto de cualquier ejecutivo de alto rango como de un empleado medio u obrero. ChatGPT de OpenAI y Gemini de Google pueden redactar respuestas instantáneas a preguntas enviadas por empleados durante reuniones públicas. También existen herramientas de clonación de voz creadas por Descript y ElevenLabs que pueden ser entrenadas para imitar la forma de hablar y corregir errores. Las repeticiones tipo «um» y «uh» en una presentación de PowerPoint grabada, puedes hacerlas desaparecer con un guion corregido. El audio resultante suena perfectamente fluido y prácticamente indistinguible de una voz humana, según las muestras de las empresas.
Una función adicional de Descript puede editar la dirección de tu mirada y dar la impresión de estar hablando directamente a la cámara con un control total del material. Aunque los editores de voz y video solo funcionan con grabaciones, las herramientas de IA pueden hacer que parezcas más lúcido en el momento.
Igualmente, los generadores de voz en vivo desarrollados para pacientes con esclerosis lateral amiotrófica podrían adaptarse para otros, dicen los investigadores de IA. Solo habría que imaginar una versión mejorada de la voz de Stephen Hawking. Y que ayude a un jefe que ha perdido un paso a sonar tan inteligente como el difunto e ingenioso físico.
La IA al rescate
La IA puede ser una herramienta eficaz para monitorear y mejorar la salud mental de los líderes. Las aplicaciones de IA pueden analizar patrones de comportamiento, niveles de estrés y otros indicadores clave para proporcionar una evaluación precisa del estado mental. Estas herramientas no solo identifican problemas potenciales, sino que también ofrecen soluciones personalizadas para mejorar el bienestar mental.
Las herramientas de IA utilizan una combinación de datos biométricos, análisis de voz y patrones de comportamiento digital para evaluar el estado cognitivo. Por ejemplo, pueden analizar el tono de voz durante las reuniones. Igual que la frecuencia y el contenido de los correos electrónicos, y los patrones de sueño y actividad física. Toda esta información se procesa para ofrecer una visión integral del bienestar mental del jefe.
La iniciativa de empresa alemana de tecnologías de la salud, Woebot Health, es un buen ejemplo. Su chatbot, diseñado para brindar apoyo psicológico a través de conversaciones, ha demostrado ofrecer alivio emocional a miles de trabajadores. En un estudio, el 60% de los usuarios reportaron mejoras significativas en su bienestar emocional después de interactuar la herramienta. La IA no solo ofrece asistencia en la gestión del estrés, sino que también facilita la identificación de patrones de comportamiento, lo que permite a las organizaciones intervenir antes de que surjan problemas graves de salud mental.
En qué consiste
El chatbot que utiliza técnicas de terapia cognitivo-conductual y análisis de datos para proporcionar apoyo emocional a los usuarios, ayudando a identificar síntomas de ansiedad y depresión. En su primer año, Woebot reportó que el 80% de sus usuarios se sintieron menos ansiosos y más capacitados para enfrentar sus problemas. Este tipo de herramientas no solo ofrece una forma conveniente de acceder a la ayuda, sino que también puede ofrecer alertas sobre cambios en el estado emocional de una persona, facilitando intervenciones tempranas por profesionales de la salud mental.
Otro ejemplo es la plataforma de salud mental Ginger, que combina inteligencia artificial con la experiencia humana. Con más de 5 millones de usuarios, Ginger utiliza algoritmos para analizar patrones de comportamiento y ofrecer recomendaciones personalizadas. Durante la pandemia, la demanda de sus servicios se disparó, reflejando un incremento del 300% en la búsqueda de apoyo en salud mental.
Para quienes buscan implementar soluciones similares, es esencial priorizar la privacidad de los datos. Además, proporcionar entrenamiento adecuado a los profesionales para que puedan interpretar correctamente las alertas generadas por estas herramientas. Asimismo, fomentar la concienciación y eliminar el estigma relacionado con la búsqueda de ayuda puede convertir estas tecnologías en aliados decisivos en la lucha contra los problemas de salud mental.
Privacidad como prioridad
La implementación de la IA en la salud mental laboral no está exenta de desafíos. Es crucial que las empresas no solo implementen medidas estrictas para proteger la información sensible de sus empleados. También es importante que los líderes no se sientan invadidos o controlados por estas herramientas, sino que las vean como un recurso para su propio beneficio.
Take Care, una empresa de asistencia psicológica en Estados Unidos, destaca la importancia de integrar a profesionales de la salud mental en el desarrollo de estas herramientas tecnológicas. La colaboración entre humanos y máquinas puede potenciar la eficacia de las intervenciones. Además, garantizar que las aplicaciones sean sensibles y empáticas.
Para las organizaciones que consideran adoptar soluciones de IA en salud mental, es crucial comenzar con una evaluación interna. Esta evaluación debe abordar la cultura de la empresa, la capacitación de los empleados y la privacidad de los datos personales. Solo así se podrá construir un entorno que no solo utilice la tecnología para mejorar la salud mental, sino que también respete la dignidad y la privacidad de los empleados.
En el caso de Woebot Health, muchos usuarios se preguntaban ¿quién tiene acceso a nuestras conversaciones y cómo se utilizan esos datos? Por lo que la compañía se comprometió a mantener la confidencialidad y a seguir estrictos protocolos de seguridad. No obstante, la en un entorno digital, la línea entre el bienestar del usuario y el uso indebido de información puede ser difusa. Esta situación subraya la necesidad de que las organizaciones que emplean inteligencia artificial en salud mental implementen marcos éticos rigurosos. El fin es proteger la privacidad de sus usuarios y prevenir posibles abusos.