Discriminação algorítmica leva empresas a suspender investimentos em reconhecimento facial

As tecnologias de reconhecimento facial vêm se tornando cada vez mais comuns ao redor do mundo. Ao menos 109 países já utilizam programas de computador para analisar imagens de rostos humanos e incrementar a segurança das cidades. Mas, apesar dos aspectos positivos, há uma questão que preocupa os especialistas: a discriminação algorítmica.

Discriminação algorítmica

A ProPublica recentemente revelou que muitos tribunais estadunidenses estão adotando softwares para análise de reincidência dos réus. Em estudo aprofundado, que envolveu investigar mais de 10 mil casos, a empresa demonstrou que tais algoritmos são enviesados, classificando pessoas negras como sendo mais propensas ao cometimento de crimes.

É provável que você goste:

Sistemas que calculam “índice de reincidência” dos réus crescem nos EUA

Para tornar o reconhecimento facial cada vez mais preciso, empresas estão incorporando softwares similares (de “pontuação de risco”) em câmeras de vigilância (CCTVs). Nos Estados Unidos, só para ilustrar, dezenas de empresas competem atualmente para fornecer tecnologia de reconhecimento facial aos departamentos de polícia e às agências federais.

Suspendendo investimentos em reconhecimento facial

Amazon e IBM também entraram no jogo, mas ambas decidiram suspender os investimentos em reconhecimento facial. Em recente nota, aliás, Amazon afirmou estar freando o fornecimento de sua tecnologia às polícias por um ano. De acordo com a nota, a tecnologia será mantida apenas para ajudar a resgatar vítimas de tráfico humano e crianças desparecidas.

Já a IBM foi mais longe e comunicou estar saindo definitivamente do mercado de reconhecimento facial. Em carta, a CEO Arvind Krishna afirmou que a IBM se opõe firmemente e não tolerará o uso de nenhuma tecnologia, incluindo a de reconhecimento facial, para vigilância em massa, criação de perfil racial, violações de direitos humanos e liberdades básicas.

Amazon Rekognition e discriminação algorítmica

Em 2018, a organização não-governamental ACLU de Massachusetts descobriu que a tecnologia da Amazon, intitulada Rekognition, apresentava viés (bias) contra pessoas negras. Membros da ACLU apresentaram 188 fotografias de atletas profissionais ao algoritmo, que falsamente classificou 26 delas (todas de atletas negros) como criminosos.

discriminação algorítmica 01
A discriminação algorítmica foi identificada no Amazon Rekognition

Logo depois, a ACLU lançou a campanha Press Pause on Face Surveillance, para conscientizar a população sobre os riscos da vigilância em massa e do reconhecimento facial. O debate, que está longe de terminar, traz à tona a importância de reconhecer a problemática da discriminação algorítmica, para evitar replicar os preconceitos nos algoritmos de amanhã.


Quer estar por dentro de tudo que envolve Direito, inovação e novas tecnologias?

Siga-me no Facebook, Instagram e LinkedIn e acompanhe conteúdos diários para se manter atualizado.

Bernardo de Azevedo

Advogado, empreendedor, professor e pesquisador de novas tecnologias. Acredita no poder da informação como forma de incentivar as pessoas a promover mudanças.

Anterior

Este algoritmo pode reconstruir rostos de pessoas a partir da voz

Próximo

3 TED Talks para entender a discriminação algorítmica