Recente relatório elaborado pelo Surveillance Technology Oversight Project (STOP) afirmou que as deepfakes poderão, em breve, ser uma realidade nas audiências virtuais. De acordo com o documento, intitulado Virtual Justice, os tribunais devem estar atentos a essas técnicas, que permitem a manipulação de imagem e áudio em tempo real.
Embora o report reconheça que as deepfakes ainda são incipientes, elas avançam rapidamente e oferecem potencial de colocar em xeque a prova testemunhal durante as audiências. Os riscos vão desde criar versões computadorizadas da fisionomia de qualquer pessoa até a manipulação da fala, colocando, literalmente, palavras na boca de testemunhas.
Substituindo rostos de pessoas
Conforme o relatório, programas como o Avatarify já permitem substituir o rosto de uma pessoa por outra, e vêm sendo adotados em videochamadas, ainda que em tom humorístico. O programador Ali Aliev, que desenvolveu o software, surpreendeu dois amigos durante uma videoconferência semanal no Zoom, passando-se pelo empreendedor Elon Musk:
O falso Elon Musk cumprimenta ambos, confirma sua identidade e, para oferecer maior credibilidade, diz que entrou na videoconferência errada. Ao que tudo indica, o rapaz da direita (Karim) sabia previamente que Ali Aliev apareceria como Elon Musk. Já em relação à moça da esquerda, por outro lado, a reação de surpresa parece ser autêntica.
Deepfakes em audiências virtuais
Embora a movimentação do rosto – e, principalmente, da boca – não seja tão realista no exemplo acima, as deepfakes vêm evoluindo cada vez mais. O próprio Ali facilitou o trabalho, liberando o código-fonte do Avatarify no GitHub. Agora, qualquer programador pode reescrever as linhas de codificação e, se desejar, tornar as técnicas ainda mais realistas.
O cientista de dados Philip Tully, que vem experimentando softwares de código aberto como parte de seu trabalho na empresa de cibersegurança FireEye, refere que mesmo pessoas com poucas experiência já podem usar modelos de machine learning para fazer “coisas bem poderosas com eles”. Só para ilustrar: as aplicações são as mais variadas.
Em breve, as deepfakes poderão enganar magistrados, advogados, litigantes e serventuários da Justiça durante as audiências virtuais, sobretudo se a aparição da testemunha falsa durar pouco tempo. O relatório Virtual Justice sugere, inclusive, que as técnicas poderão condenar inocentes e inocentar culpados. Enfim, será que chegaremos a tanto?
Íntegra do relatório
Clique AQUI para conferir o relatório completo.
Continue explorando o assunto
SIMONITE, Tom. Cheap, easy deepfakes are getting closer to the real thing. Wired, San Francisco, 5 ago 2020.
Quer estar por dentro de tudo que envolve Direito, inovação e novas tecnologias?
Siga-me no Facebook, Instagram e LinkedIn e acompanhe conteúdos diários para se manter atualizado.