(Foto: YouTube/Miles Fisher)

O deepfake prova que nenhuma tecnologia é 100% boa ou ruim

O documentário Welcome do Chechnya, de 2020, aborda um tema difícil: a perseguição à população LGBTQIAP+ na Chechênia. Não são poucos os relatos de tortura e até mesmo de campos de concentração exclusivos para homens gays na república russa.

Num contexto como esse, é de suma importância garantir a segurança das pessoas que se arriscaram aparecendo no filme. Parte disso envolve ocultar seus rostos. Nesse sentido, os produtores poderiam esconder os entrevistados em sombras e distorcer suas vozes, ou ainda borrar a imagem para proteger as fontes. No entanto, optaram por um caminho diferente: o deepfake.

A tecnologia, muito associada à pornografia e desinformação, encontrou aqui um uso muito peculiar. E nobre. A produção selecionou ativistas dispostos a emprestarem seus rostos aos homens e mulheres chechenos em risco. Quando surgem em tela, é com essa máscara preservando suas identidades.

Esse é um dos exemplos positivos do uso do deepfake. Ele ajuda a reforçar que nem só de aplicações maléficas vive essa tecnologia. Na verdade, desde suas origens o deepfake é pensado para fins absolutamente normais, bem distantes daqueles que renderam a péssima reputação que ele tem.

Uma breve história do deepfake

Não existe um criador único por trás do deepfake. É um campo que evoluiu acompanhando as pesquisas acadêmicas com inteligências artificiais e aprendizagem de máquina. O primeiro exemplo mais sólido do que a técnica podia gerar tem mais de vinte anos: trata-se do Video Rewrite, lançado em 1997.

O programa, desenvolvido pelos pesquisadores, conseguia modificar vídeos a partir de novos trechos de áudio, criando versões em que a pessoa filmada dizia coisas diferentes do que dissera originalmente. É o princípio básico do deepfake, como podemos ver.

Mas quais eram as intenções por trás desse experimento? Dublagem e efeitos especiais são citados como algumas das possibilidades. Ou seja, objetivos absolutamente razoáveis. Nada parecido com os vídeos em que os rostos de atrizes famosas são inseridos em contextos pornográficos.

Isso passaria a se tornar um problema vários anos mais tarde. Isso porque, após o Video Rewrite, não houve uma grande difusão da tecnologia. A qualidade dos resultados ainda era mediana, para dizer o mínimo. Foi assim até 2014, quando surgiram as GANs (Generative Adversarial Networks).

Trata-se de um sistema em que duas redes neurais lutam entre si. A primeira é responsável por criar variações em cima de um ponto de partida, e a segunda, por avaliá-las e atestar que são falsas. Só que isso ocorre na casa das milhares, por vezes milhões de variações. Quando a segunda rede não percebe a falsificação — a criação artificial do artefato em questão —, ali está o objeto vencedor.

No caso do deepfake, esse objeto é o vídeo ou foto falsa, por vezes tão convincente que o olho humano tem dificuldade de perceber. E foi a partir do uso de GANs que os resultados ficaram cada vez mais impressionantes. E que o uso na pornografia e desinformação começou a chamar a atenção para o potencial destrutivo dessa tecnologia.

Eternizando vozes e rostos inesquecíveis

Mas o deepfake não está preso ao terreno do absurdo. Já mencionamos a dublagem como outra possibilidade que ele abre, mas dá para ir mais longe. Fernando Rodrigues de Oliveira, mais conhecido como Fernando 3D, apontou vários caminhos no Tecnocast 268. Ele é um dos fundadores da FaceFactory.

O cinema é um dos campos que mais pode ser beneficiado pelos deepfakes (ou pela “mídia sintética”, termo que 3D prefere). Refilmar uma cena se torna possível mesmo sem a presença física do ator ou atriz, por exemplo. Além disso, a demanda pelo rejuvenescimento de certos personagens deve aumentar com a contínua evolução da tecnologia. Basta notar as aparições de Luke Skywalker jovem em séries de Star Wars.

A aplicação no cinema pode chegar a níveis próximos da ficção científica. Recentemente, surgiu o rumor de que Bruce Willis havia vendido sua imagem para uma empresa ucraniana, que o manteria “atuando” através do deepfake após sua aposentadoria. A notícia foi desmentida posteriormente, mas não é absurdo imaginar um futuro (talvez próximo) em que ícones do cinema jamais desaparecerão das telas. Segundo Fernando, é possível.

E o mesmo vale para vozes. James Earl Jones, icônico ator que deu voz a Darth Vader, terá sua voz reproduzida em filmes e séries futuros graças à inteligência artificial. Fernando 3D chama a tecnologia de deepvoice, e ela manteria entre nós vozes icônicas.

Isso inclui até mesmo dubladores. Um exemplo citado por Fernando é Isaac Bardavid, voz oficial do Wolverine no Brasil, falecido este ano. Usando as diversas amostras de sua voz disponíveis em filmes e desenhos, a IA seria capaz de aprendê-la e aplicá-la sobre a voz de outro dublador.

“Como que a gente pode trazer o Isaac de volta? Um dublador vai fazer a parte de voz, que a gente chama de voz guia, (…) e aí a gente vai encaixar a voz do Isaac nessa voz guia do dublador atual.” Fernando 3D, cofundador da FaceFactory

Ainda é preciso aguardar para saber se a indústria abraçará a ideia. Talvez seja mais simples e econômico apenas encontrar um novo dublador talentoso. Mas não é loucura imaginar um futuro onde essas vozes marcantes se mantenham entre nós. Afinal, nostalgia é um ativo importante no entretenimento.

No fim das contas, o que esses exemplos mostram é que existe espaço para usar o deepfake de maneiras razoáveis e criativas. Afinal, nenhuma tecnologia está fatalmente destinada ao mal; a criatividade humana também pode ser aplicada para coisas boas.

*Com informações do site Tecnoblog

Compartilhar

Últimas Notícias