Interesada en aprovechar el poder de la tecnología para mejorar las actividades del gobierno y convertirse en abanderada, la ciudad de Nueva York empleó un chatbot impulsado por inteligencia artificial (IA) que proporcionaría a los ciudadanos información sobre cómo iniciar y operar un negocio. El ambicioso plan inició en octubre pasado. A la vuelta de los meses han surgido cientos de denuncias que apuntan a que el asistente digital motiva a las empresas a infringir la ley.
El robot parece tener autoridad. Pero la información que proporciona sobre política de vivienda, derechos de los trabajadores y reglas para los empresarios suele ser incompleta. Y, según el medio de investigación sin fines de lucro The Markup, es en el peor de los casos, «peligrosamente inexacta», como le confió un experto local en política de vivienda.
Cuando se le preguntó al chatbot si un jefe puede llevarse una parte de las propinas de sus trabajadores, respondió que «sí, puedes llevarte una parte de las propinas de tus trabajadores». Y citó la información sobre nóminas y declaración de propinas de la ciudad de Nueva York. Eso es incorrecto, y el Departamento de Trabajo de Nueva York dice que los empleadores tienen prohibido tomar cualquier parte de la propina de un empleado. El chatbot dio una respuesta similar a Quartz, un sitio en internet sobre negocios, finanzas, economía, tecnología.
También se le preguntó al chatbot si «los caseros tienen que aceptar inquilinos con ayudas al alquiler». Y constestó: «No, los caseros no están obligados a aceptar inquilinos con ayudas al alquiler». Esta respuesta no es acertada: la propia página web de la ciudad dice que discriminar «en función de la fuente legal de ingresos», lo que incluye la asistencia, es una práctica ilegal desde 2008, con algunas excepciones.
El Chatbot de Nueva York impreciso y confuso
El chatbot de Inteligencia Artificial de la ciudad de Nueva York, impulsado por Microsoft, está brindando a los usuarios consejos comerciales no apropiados.
Rosalind Black, directora de vivienda de la ciudad del AI Chatbot de Legal Services NYC, realizó sus propias pruebas y reveló más inexactitudes. El robot afirmó falsamente que era legal bloquear a los inquilinos y afirmó que no existían restricciones en los montos de alquiler, ambas tergiversaciones importantes de la política de vivienda.
Las deficiencias del chatbot se extienden más allá de las cuestiones de vivienda y abarcan la protección de consumidores y trabajadores en la ciudad de Nueva York. No reconoce legislación clave, como la ley de 2020 que obliga a las empresas a aceptar pagos en efectivo, esencial para atender a los clientes no bancarizados.
Incluso en industrias especializadas como los servicios funerarios, los consejos del robot son erróneos y sugieren prácticas prohibidas por las regulaciones federales. Además, las barreras del idioma no eximen a los usuarios de recibir información errónea.
Las ramificaciones de las imprecisiones del chatbot son tangibles. Andrew Rigie, director ejecutivo de NYC Hospitality Alliance, contó casos en los que propietarios de negocios actuaron basándose en la información errónea proporcionada por el robot. Subrayó la urgencia de la rectificación.
Si bien Leslie Brown, de la Oficina de Tecnología e Innovación de AI Chatbot de la ciudad de Nueva York, afirmó que se están realizando esfuerzos para mejorar el robot, las partes interesadas enfatizan a necesidad de una corrección inmediata para evitar una mayor difusión de información incorrecta.
Desafíos de la Inteligencia Artificial
Impulsado por los servicios de inteligencia artificial de Azure de Microsoft, el chatbot se basa en más de 2000 páginas web de AI Chatbot Business de la ciudad de Nueva York. Sin embargo, la falta de transparencia con respecto al desarrollo del bot y el papel de Microsoft genera preocupación, advierte The Markup.
A pesar de las exenciones de responsabilidad que destacan la posibilidad de contenido erróneo o sesgado, es posible que los usuarios carezcan de los medios para discernir información precisa. La ausencia de mecanismos de rendición de cuentas agrava aún más estos problemas.
A medida que las tecnologías de IA continúan permeando diversos aspectos de la gobernanza y la vida diaria, garantizar su implementación responsable y ética se vuelve primordial. La experiencia de la ciudad de Nueva York con el Chatbot sirve como un recordatorio de los desafíos inherentes al aprovechamiento de la IA para los servicios públicos
En junio 2023 Microsoft informó que proveerá la tecnología de ChatGPT, el chatbot desarrollado por OpenAI, a varias agencias gubernamentales de Estados Unidos. Entonces anunció que lo haría a través de su servicio de computación en la nube Azure Government. Actualmente es utilizado por dependencias como la NASA, el Departamento de Defensa y el Departamento de Energía.
Microsoft, el mayor inversionista en OpenAI, indicó que los clientes de Azure Government ahora pueden usar dos de los grandes modelos de lenguaje de OpenAI. El modelo más reciente y más poderoso de la startup, GPT-4, y uno anterior, GPT-3, a través del servicio Azure OpenAI de Microsoft.
Información falsa en las elecciones
Los estadounidenses que esperan votar en las elecciones de noviembre no deberían confiar en los populares chatbots impulsados por inteligencia artificial. Ni siquiera para obtener la información más básica sobre las elecciones, según un estudio publicado por un equipo de periodistas e investigadores académicos y reseñado por La Voz de América.
Cuando se pidió a cinco de los chatbots de IA más conocidos que dieran respuestas a preguntas comunes, como la ubicación de los colegios electorales o los requisitos de registro de votantes, entregaron información falsa al menos el 50 % de las veces.
Chatbots son programas informáticos que simulan y procesan la conversación humana (ya sea escrita o hablada). Y permiten a los humanos interactuar con dispositivos digitales como si se estuvieran comunicando con una persona real.
El estudio fue realizado por AI Democracy Projects. Una colaboración entre la organización periodística Proof News y el Laboratorio de Ciencia, Tecnología y Valores Sociales del Instituto de Estudios Avanzados (IAS). Un grupo de expertos de Princeton, Nueva Jersey.
Se preguntó a los chatbots si sería legal que un elector en Texas llevara a las urnas en noviembre un «sombrero MAGA». El que lleva las iniciales del eslogan «Make America Great Again» del expresidente Trump.
Texas, junto con otros 20 estados, tiene reglas estrictas que prohíben a los votantes usar ropa relacionada con la campaña en las urnas. Dado que se espera que Trump sea el candidato republicano en noviembre, usar ese sombrero sería claramente ilegal en Texas. Sin embargo, según el estudio, los cinco chatbots no señalaron que usar el sombrero sería ilegal.