Tendências do dia

Tesla queria que seu piloto automático dirigisse como um humano; foi assim que ele aprendeu a ignorar algumas placas de trânsito

  • Nos centros de dados da Tesla, a IA é treinada para se adaptar às diferentes condições de condução

  • Alguns funcionários afirmam que, deliberadamente, essa IA é instruída a ignorar certos sinais

Tesla pode estar treinando Autopilot para ignorar sinalização de trânsito
Sem comentários Facebook Twitter Flipboard E-mail
victor-bianchin

Victor Bianchin

Redator

Victor Bianchin é jornalista.

O setor automotivo tem dois grandes objetivos pela frente, assim como dois grandes desafios. Primeiro, fazer com que os veículos a combustão se tornem coisa do passado, o que é fundamental para alcançar as metas de descarbonização em escala global. Segundo, que os carros consigam "dirigir sozinhos". E uma das empresas que mais se dedica tanto à popularização do carro elétrico quanto à sua automação nas estradas é a Tesla.

Além de fabricar a lataria, o motor e demais componentes físicos, a Tesla também faz o software que controla todas as funções do veículo. Esse software está sendo aprimorado para ser capaz de interpretar tudo o que as câmeras do veículo captam, com o objetivo de implementar automatizações e, em última instância, o Autopilot (função de direção autônoma).

Esse sistema não é infalível, o que causou alguns acidentes nos últimos anos. No entanto, além das falhas de software e de alguns bugs, se um Tesla ignora certos sinais, pode ser que esteja programado para isso.

O Autopilot da Tesla ignora alguns sinais

Na segunda metade de 2022, a Tesla anunciou que deixaria de usar radares e sensores em seus carros. Essa medida pegou todos de surpresa, já que esses radares, junto com o trabalho das câmeras, são os mais eficientes em "ler" a situação da via em tempo real.

As consequências logo apareceram, com acidentes que poderiam ter sido evitados na condução semiautônoma caso os carros ainda contassem com certos sistemas. Há alguns meses, a Administração Nacional de Segurança no Trânsito dos Estados Unidos registrava 1.200 notificações de acidentes relatados pela Tesla — em 222 deles, o sistema de condução autônoma estava envolvido. Relatórios como os publicados pelo The Wall Street Journal indicavam que os Teslas colidiam com "objetos claramente visíveis".

O processo para que um carro dirija sozinho ou assista em grande parte a condução é complexo. As câmeras capturam imagens que são enviadas ao computador central, que as analisa e envia um comando aos sistemas de segurança. Tudo isso precisa acontecer em uma fração mínima de tempo, pois a velocidade de reação na estrada é crucial.

Há algumas questões que precisam ser decididas por esse computador: quando o carro deve começar a frear antes de um sinal de “PARE” em condições de pista seca? E se estiver chovendo? E se nevar? Tudo isso o software considera e executa, mas é programado previamente por uma equipe, cuja maior parte está nas instalações que a Tesla possui em Buffalo, Nova York.

A equipe do Business Insider teve a chance de conhecer o trabalho daqueles que cuidam do software. Mas não diretamente no centro de dados, é claro, e sim por meio das declarações de 17 funcionários atuais e antigos desse setor da Tesla.

Em específico, são os analistas de dados da Tesla. Eles são responsáveis por revisar milhares de horas de vídeos capturados pelos Teslas em circulação pelo mundo, além dos registros feitos nos testes da empresa. Nesse processo, adicionam diferentes situações hipotéticas ao software e vão "ensinando" gradualmente a IA a se comportar como um motorista humano.

"Às vezes, é monótono. Você pode passar oito horas por dia durante meses simplesmente registrando linhas de pista e calçadas em milhares de vídeos", comenta um dos ex-funcionários dessas equipes. Não parece o trabalho mais estimulante, mas é necessário para o sistema. E é um trabalho que exige que os funcionários tenham conhecimentos sobre as normas de vários países.

Autopilot da Tesla

O motivo é que eles podem trabalhar com dados de qualquer país em um único fluxo de trabalho (ou seja, um único projeto pode incluir vídeos dos EUA e de outros países). Algo mencionado por vários desses funcionários e ex-funcionários é que "a ideia é treinar o sistema para que dirija como um humano, não como um robô que se limita a seguir as regras".

O que isso implica? Bem, segundo o relato de sete desses funcionários, os carros foram instruídos a ignorar sinais como "não virar com sinal vermelho" ou "não fazer retorno proibido", o que significa que o sistema não seria treinado para obedecer essas sinalizações. Recentemente, veio à tona um vídeo de um Tesla cortando caminho em um congestionamento ao invadir uma faixa proibida para passar à frente, como humanos de carne e osso fazem ocasionalmente.

De acordo com esses funcionários, "é uma mentalidade de priorizar o condutor". Mas o problema não acaba por aí.

Polêmicas no trabalho e violação de privacidade

Trabalhar com imagens captadas pelas câmeras de veículos privados tem um efeito colateral: a privacidade. Em abril do ano passado, surgiu uma polêmica: funcionários da Tesla haviam compartilhado imagens sensíveis gravadas pelos carros de clientes. Em salas de bate-papo dos trabalhadores, imagens privadas captadas pelas câmeras (como o interior de garagens) foram compartilhadas.

Os dados supostamente eram anônimos, mas, dentro de uma dessas garagens, havia um carro-submarino Lotus Esprit que apareceu em O Espião Que Me Amava, o filme de James Bond de 1977. E quem era o dono desse veículo e, portanto, da garagem? Elon Musk, proprietário da Tesla.

Havia também material sensível, como o vídeo de um menino que foi atropelado por um Tesla que circulava em alta velocidade em uma área residencial. Este vídeo, que mostrava a criança indo em uma direção e a bicicleta em outra, foi compartilhado em chats privados e se espalhou "como fogo em pólvora", segundo um ex-funcionário.

Por isso, a Tesla começou a adicionar marcas d'água às imagens antes que elas fossem processadas pelos centros de dados, em uma tentativa de identificar o operador que as estava vazando. E, falando em monitorar funcionários, o artigo da Business Insider também menciona que a empresa vigia minuciosamente o que esses trabalhadores fazem.

Com uma medida chamada “Flide Time” (algo como “tempo de registro”), a empresa pode monitorar ativamente os funcionários. É possível checar, por exemplo, o tempo que os funcionários passam com o software de rotulagem aberto ou a frequência com que pressionam teclas no computador. O objetivo é que os trabalhadores registrem entre cinco e sete horas e meia de “Flide Time” por dia — se ficarem até mesmo cinco minutos abaixo da meta, podem enfrentar uma ação disciplinar.

As visitas aos banheiros também eram registradas e isso levou os trabalhadores deste centro em Nova York a lançar uma campanha sindical. Eles estavam cansados de "ser tratados como robôs". Isso resultou na demissão de cerca de 300 trabalhadores da fábrica de Buffalo. A Reuters, Bloomberg e Business Insider contataram a Tesla e Musk para obter declarações, sem sucesso. O que a Tesla comentou é que eles foram demitidos por baixo desempenho.

E sim, toda a história que envolve o tratamento de dados privados é interessante, mas o fato de que, aparentemente, a Tesla treine seu sistema para desobedecer algumas sinalizações é, no mínimo, curioso.

Este texto foi traduzido e adaptado do site Xataka Espanha.

Imagens | Tesla, Xataka

Inicio