Inteligência artificial é usada para fazer montagem com famosos e políticos, substituindo rostos e vozes em vídeos realistas; novidade traz preocupações éticas.
O deepfake é uma tecnologia que usa inteligência artificial (IA) para criar vídeos falsos, mas realistas, de pessoas fazendo coisas que elas nunca fizeram na vida real. A técnica que permite fazer as montagens de vídeo já gerou desde conteúdos pornográficos com celebridades até discursos fictícios de políticos influentes. Circulam agora debates sobre a ética e as consequências da tecnologia, para o bem e para o mal.
Lançado nos EUA em fevereiro, o Impressions App está disponível no Brasil desde 28 de março e ganhou popularidade através dos vídeos do “Justin Bieber brasileiro”. Segundo dados enviados pela Impressions à Agência Pública, os brasileiros já são a segunda maior nacionalidade na plataforma, com 20% do total de usuários — o número total de downloads não foi informado. O aplicativo é propriedade da Synthesized Media, fundada pelos desenvolvedores Murat Deligoz e Ari Bencuya, que saíram da empresa de inteligência artificial aplicada a marketing, AdVelvet.
O Impressions não é o primeiro a disponibilizar ferramentas para criar deepfakes: o chinês ZAO permite que o usuário coloque seu rosto em vídeos famosos; o Doublicat, dos EUA, também. A novidade do aplicativo, contudo, é a alta resolução das imagens e a possibilidade de usar o rosto de celebridades em diferentes contextos, que abrem brechas para um potencial uso danoso da tecnologia.
Segundo Sam Gregory, pesquisador e diretor de projeto da Witness, organização que defende os direitos humanos através de recursos audiovisuais, é cada vez mais comum que recursos de inteligência artificial e deepfakes sejam disponibilizados através de aplicativos, mas o Impressions oferece recursos mais perigosos. “Ele se aproxima mais de possíveis usos maliciosos de deepfakes que os outros, porque através dele você se apropria do rosto de outra pessoa, não do corpo”.
O que é deepfake?
O termo deepfake apareceu em dezembro de 2017, quando um usuário do Reddit com esse nome começou a postar vídeos de sexo falsos com famosas. Com softwares de deep learning, ele aplicava os rostos que queria a clipes já existentes. Os casos mais populares foram os das atrizes Gal Gadot e Emma Watson. A expressão deepfake logo passou a ser usada para indicar uma variedade de vídeos editados com machine learning e outras capacidades da IA.
Efeitos especiais de computador que criam rostos e cenas no audiovisual não são nenhuma novidade; o cinema faz isso há muitos anos. A grande virada do chamado deepfake está na facilidade com que ele pode ser produzido. Comparado ao que costumava ser necessário, o método atual é simples e barato. Qualquer um com acesso a algoritmos e conhecimentos de deep learning, um bom processador gráfico e um amplo acervo de imagens pode criar um vídeo falso convincente.
São utilizados softwares baseados em bibliotecas de código aberto voltadas ao aprendizado de máquina. Segundo entrevista ao site Motherboard, o usuário do Reddit usou TensorFlow aliado ao Keras, uma API de deep learning escrita em linguagem Python. O programador fornece centenas e até milhares de fotos e vídeos das pessoas envolvidas, que são automaticamente processadas por uma rede neural. É como um treinamento, no qual o computador aprende como é determinado rosto, como ele se mexe, como ele reage a luz e sombras.
Esse “treino” é feito com o rosto do vídeo original e com o novo rosto, até que o programa seja capaz de encontrar um ponto comum entre as duas faces e “costurar” uma sobre a outra. O procedimento envolve uma espécie de truque, em que o software recebe uma imagem da pessoa A e a processa como se fosse a pessoa B.
O deepfake é muito recente e sua definição é fluida. O fenômeno se confunde na discussão pública com tecnologias com funções similares ou complementares. Há, por exemplo, um programa anunciado pela Adobe que consegue criar falas com a voz de uma pessoa a partir de amostras reais. Existem ainda experimentos de reencenação facial, com a recriação das mesmas falas e expressões de uma pessoa no rosto de outra, e de sincronização labial, vídeos de alguém falando gerado com áudio e imagens de seu rosto.
Além dos clipes pornográficos, outros vídeos falsos criados com inteligência artificial que ganharam notoriedade mostram o ex-presidente americano Obama. Em um deles, ele chama o atual presidente dos EUA, Donald Trump, de “um completo m*rda”. Em outro, faz discursos que só existiam em áudio ou na forma escrita. Há também um vídeo de Trump produzido com imagens e falas de uma paródia do presidente no programa de humor Saturday Night Live.
Riscos e consequências
Normalmente, vídeos desse tipo não são perfeitos, mas são realistas o suficiente para enganar muita gente. Má intenção não faz parte do conceito dos deepfakes, mas está na equação. A manipulação das imagens e vozes de políticos se mostra como um alerta. Com ferramentas tão acessíveis, fica mais fácil espalhar informações falsas de acordo com interesses próprios, fundamentadas por supostas provas em vídeo. Isso pode representar um perigo para a democracia e a sociedade, inclusive ameaçando a credibilidade de tudo o que é publicado.
No caso dos vídeos pornô fictícios, inclui-se ainda problemas éticos e legais complexos, de teor mais individual. As criações enganosas podem prejudicar a vida de uma pessoa, seja ela famosa ou anônima, e, por enquanto, não se sabe ao certo o que a Justiça pode fazer a respeito. Os vídeos divulgados não são reais; é a face de um inserida no corpo de outro. Porém, se as imagens conseguem se passar como verdadeiras e não há consentimento do indivíduo em questão, como lidar?
Alguns já levantam também questionamentos sobre a possível banalização do termo, de modo semelhante ao que aconteceu com a expressão fake news. A preocupação é que a palavra deepfake passe a ser usada de maneira muito vaga e casual e se torne onipresente, mais forte que o real impacto da tecnologia. Assim, pessoas mal intencionadas podem se aproveitar para lançar dúvidas sobre evidências verdadeiras que não as agradam.
Usos benéficos da tecnologia
Não há só pessimismo no mundo dos deepfakes. Existem exemplos de uso positivo dos algoritmos de machine learning que deram vida ao novo fenômeno. O princípio da tecnologia está no reconhecimento e na reconstrução facial, o que indica um enorme potencial. Na verdade, funções semelhantes já são empregadas em recursos presentes no dia a dia dos usuários da Internet.
Os animojis da Apple e os AR emojis da Samsung mapeiam a face de uma pessoa e reproduzem em tempo real suas expressões em bonecos virtuais. No Instagram Stories e no Snapchat, diversos filtros detectam e transformam os rostos dos usuários. Há inclusive um filtro de troca de rostos entre as pessoas de uma foto.
O cinema e toda a indústria audiovisual também poderia se beneficiar de um método mais simples de executar efeitos especiais com faces, especialmente no caso de produtores de conteúdo independentes com baixos orçamentos. Celebridades e influenciadores digitais poderiam vender suas imagens para anunciantes sem precisarem comparecer a filmagens.
Em entrevista ao site Mashable, porém, o diretor da MultiComp Lab, parte da Universidade de Carnegie Mellon, afirmou que essa tecnologia pode vir a ter aplicações importantes para além do entretenimento. De acordo com o pesquisador, se desenvolvidos com qualidade suficiente para operarem em tempo real, os softwares poderiam servir para oferecer terapia por videoconferência — útil a indivíduos que não se sentem confortáveis em mostrar o rosto. Ou para fazer entrevistas de emprego sem vieses de gênero ou raça.
Como reconhecer um deepfake
Agora que os deepfakes fazem parte da nossa realidade, é essencial aprender a identificá-los. Pode ser que cheguemos a um ponto em que isso seja impossível ou muito difícil, mas hoje ainda existem alguns detalhes que ajudam a revelar um vídeo falso. Preste atenção nos movimentos da boca, se eles correspondem bem ao que está sendo dito. Fique atento também para a própria voz: a entonação e o tom soam normais?
Verifique os olhos para notar se eles estão piscando. Na maioria das vezes, os algoritmos não reproduzem bem esse aspecto nem a respiração da pessoa. Veja ainda se ela se mexe de forma natural como um todo. As recriações podem ter dificuldade em encaixar todas as partes do rosto e do resto do corpo e duplicar certos movimentos orgânicos. E se a pessoa no vídeo em questão é alguém que você não conhece bem, procure outros clipes, de preferência em que haja certeza de veracidade, para comparar.
Fonte: TechTudo
Parceiro:
Ligue e peça seu sanduda! O melhor de Pirenópolis!
A partir das 19h00, pode ligar 99561- 6041