As empresas monitoram seus funcionários há muito tempo. Primeiro, veio o ponto eletrônico. Depois, o registro de pressionamentos de teclado e da atividade do mouse. Agora, uma nova geração de softwares de vigilância emocional analisa se a expressão do seu rosto enquanto trabalha é suficientemente positiva.
Isso se chama “IA emocional” ou computação afetiva. Já não se trata de medir o quanto você trabalha, mas de quantificar como você se sente enquanto trabalha.
Ferramentas como MorphCast, HireVue e a integração Aware para Slack passam anos aperfeiçoando esse tipo de análise. Algumas escaneiam videoconferências em tempo real para detectar níveis de atenção, emoção ou positividade. Outras processam transcrições de chats para inferir o estado de ânimo coletivo de uma equipe. Há ainda as que analisam o tom de voz de atendentes de call center ligação por ligação. MetLife, Burger King e McDonald’s já utilizam ou testam essas tecnologias.
O mercado global de IA emocional já alcançou 3 bilhões de dólares e as previsões apontam que ele deve triplicar antes de 2030.
Será que funciona?
A premissa científica sobre a qual toda essa indústria se apoia tem um problema: ela é discutível. Boa parte desses sistemas é construída sobre a teoria das emoções básicas do psicólogo Paul Ekman, que propõe seis emoções universais reconhecíveis no rosto de qualquer pessoa. Essa teoria vem sendo questionada há bastante tempo pela comunidade acadêmica.
A neurocientista Lisa Feldman Barrett defende que os gestos faciais não têm um significado emocional intrínseco, mas relacional. Eles dependem do contexto, da cultura e da fisiologia de cada pessoa.
Alguém que franze a testa por estar concentrado pode ser rotulado como irritado. Da mesma forma, um funcionário que demonstra tristeza ao falar com um paciente pode receber uma penalização por falta de cordialidade.
Os LLMs e os sistemas de reconhecimento visual reproduzem os vieses dos dados com os quais foram treinados: um estudo de 2018 descobriu que uma IA de reconhecimento emocional classificava sistematicamente jogadores negros da NBA como mais irritados do que seus colegas brancos, mesmo quando estavam sorrindo.
Nas entrelinhas
Existe uma lógica de mercado clara por trás de tudo isso. O escritor Cory Doctorow teorizou sobre isso: as tecnologias mais extrativistas chegam primeiro aos trabalhadores mais vulneráveis, se normalizam e depois sobem na hierarquia. Primeiro os caminhoneiros, depois os atendentes de call center... e agora os trabalhadores de escritório.
A União Europeia proibiu a IA emocional no ambiente de trabalho em sua Lei de IA, exceto para fins médicos ou de segurança. Foi a exceção, não a regra. Nos EUA, a legislação dá aos empregadores uma margem ampla para monitorar praticamente qualquer coisa que um funcionário faça no horário de trabalho, em propriedades ou dispositivos da empresa.
As empresas que vendem essas ferramentas argumentam que os humanos também são enviesados e que as impressões subjetivas de um chefe são tão falíveis quanto um algoritmo.
É um bom argumento, mas há algo que muda quando a vigilância emocional é automatizada: já não é um chefe percebendo que você está desanimado em uma segunda-feira. É um sistema que analisa 100% das suas interações e registra tudo.
Imagem | Xataka
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários