Menu
Na Hora H!

“Chapolin Bolsonaro” nas redes

Sartori, o “bruxo dos vídeos” é especialista no uso de “deepfakes”, que usam recursos de inteligência artificial para montar imagens e situações ultrarrealistas

Redação Jornal de Brasília

11/05/2020 6h17

foto : reprodução

Por enquanto, é somente uma brincadeira inocente. Uma sátira que provoca muitas risadas nas redes sociais. E algum sucesso e dinheiro para quem a produz. Mas ela embute um grave risco. Amanhã, em vez do político alvo da sátira, pode ser o seu rosto ou a sua vez que apareça em alguma situação falsa, totalmente inventada. Mas que parece totalmente verossímil.

Para o mineiro Bruno Sartori, que tem se notabilizado nas redes sociais pelo uso das ferramentas que tornam isso possível e já chegou a ganhar do escritor Paulo Coelho o apelido de “bruxo dos vídeos”, essa situação, de fato, vai se tornar comum em um futuro breve.

Sartori, o “bruxo dos vídeos” é especialista no uso de “deepfakes”, que usam recursos de inteligência artificial para montar imagens e situações ultrarrealistas, que unem personagens da política com outros do mundo da ficção, alterando situações.

O que pode ser usado para o humor e para a sátira, porém, pode acabar ganhando outros propósitos. Essa é a polêmica.

Dois milhões

O mineiro de 30 anos ganhou notoriedade depois que seu vídeo “Chapolin Bolsonaro”, viralizou nas redes sociais em maio de 2019. Nele, o presidente da República aparece usando a clássica roupa do personagem e dizendo algumas das frases de seu discurso em Dallas, nos Estados Unidos, naquele mês.

“Um amigo viu e pediu para postar no Twitter. No dia seguinte, o vídeo tinha 2 milhões de visualizações e eu ganhei mais de mil seguidores”, diz Sartori, em reportagem da Agência Folha.
Bolsonaro já foi o alvo de diversas outras deepfakes criadas por Sartori. Já pediu cargo de embaixador nos Estados Unidos para seu filho, o deputado Eduardo Bolsonaro (PSL-SP) cantando a canção “Xibom Bombom”, que, no caso, virou “He is Bom Bom Bom”. Em episódio mais recente, apareceu vestido como Tiririca para louvar a “Cloroquina”, medicamento que, segundo ele, tem boa chance de ter resultado como remédio contra a covid-19.

Inteligência artificial

A “deepfake”, explica Sartori, é criada a partir do uso de máquinas de inteligência artificial especializadas na construção de imagens e sons. É como se fosse um Photoshop dos vídeos. Para isso, bancos de dados sonoros e fotográficos são fornecidos ao equipamento, que passa então a identificar padrões e, assim, a reproduzi-los.

“Quando precisamos fazer uma troca de rostos assim, a máquina precisa primeiramente aprender o funcionamento de cada um deles. É como aprender a falar”, compara.

Técnica é usada em vídeos pornográficos

A tecnologia usada pelo produtor de vídeos, que acumula mais de 300 mil seguidores no Instagram, tem duas redes neurais: uma para criar imagens e outra para discriminá-las. A primeira analisa uma série de fotografias para elaborar uma imagem, que será enviada à segunda, responsável por verificar sua existência naquele banco de dados.
Embora também já seja possível fazer cópias ultrarrealistas de sons, Sartori diz que não utiliza essa técnica e sempre convida imitadores de vozes. “Se não, fica muito robótico”, justifica.

Polêmicas

A técnica de “deepfake”, criada em 2017, no entanto, costuma causar polêmicas. O termo surgiu como nome de um dos usuários da rede social Reddit.

“Mas eles usavam para pornografia”, conta Bruno Sartori. “Acredito que eu fui a primeira pessoa a usá-la para paródias. Pensei que seria muito legal ver um cantor cantando com meu rosto.”

“A popularização desses vídeos é algo importante porque faz as pessoas saberem que vídeos falsos existem. É melhor que elas tenham contato com isso de uma forma engraçada, vendo o Lula de ‘usurpadora’ e o Bolsonaro de Anitta, do que descobrir isso em épocas de eleição”, argumenta.

O problema é que, na tentativa de difamar políticos e celebridades, diversos conteúdos pornográficos e notícias falsas já foram publicados com o uso da técnica.

Um estudo publicado no ano passado pelo grupo de segurança online Deep Trace mostra que 96% dos vídeos de “deepfake” disponíveis na internet são pornográficos. Atrizes famosas já tiveram seus rostos colocados no corpo de atrizes pornô.

Sartori diz que reconhece o perigo oferecido pela tecnologia e afirma que, por isso, nunca deu aulas ensinando seu uso. Além disso, afirma já ter recebido propostas para fazer vídeos falsos envolvendo escândalos políticos. “Já me ofereceram muito dinheiro, mas recusei”, diz ele.

Para o “deepfaker”, se esse tipo de conteúdo não estiver muito popularizado em 2022, ano eleitoral, “haverá muita desinformação que poderá mudar os rumos do Brasil.”

Ele diz ainda que seus vídeos são charges modernas, e não conteúdos que tentam propagar notícias falsas. “Eu quero que isso ajude as pessoas a identificarem um vídeo falso. Hoje conseguimos olhar para uma foto e perceber o uso de Photoshop, é a mesma lógica”, afirma Sartori.

Saiba Mais 

Nem todo mundo, porém, acha graça nas sátiras que Bruno Sartori tem feito usado a técnica do “deepfake”.

Ele afirma que tem sido alvo de ameaças. Especialmente depois da publicação do vídeo “Bolsonaro Canta ‘Florentina (Cloroquina)’ – Tiririca”.

No vídeo, Bolsonaro diz não saber se a cloroquina é eficaz de fato no combate à covid-19. Mas diz que isso “se deduz”.

“Clonaram meu cartão de crédito e divulgaram meus dados pessoais na internet. Recebi muitas ameaças pelo WhatsApp, com áudios falando sobre estupro, tortura, morte”, afirma Sartori, que denunciou as ameaças ao Ministério Público. “Gente da direita e da esquerda veio se solidarizar comigo. As pessoas já estão estão sabendo das ameaças e eu não vou abaixar a cabeça”.

As informações são da Folha Press

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado