Você já ouviu falar em deepfake? O nome pode soar estranho, mas deepfakes estão circulando cada vez mais pela internet. São áudios e vídeos manipulados com ferramentas de inteligência artificial que fazem os personagens realizar ou dizer coisas que nunca aconteceram, mas de forma bastante realista. Traduzido do inglês “deep”, profundo, e “fake”, falso, a técnica utiliza da tecnologia de aprendizado profundo, “deep learning technology”, para colocar em vídeo o rosto de alguém que não estava na cena verdadeira.
Já imaginou o ex-presidente Lula no corpo da artista Mariah Carey cantando o hit “Obsessed”? Ou Jair Bolsonaro no corpo do personagem mexicano Chapolin Colorado citando seu slogan de campanha? Esses são alguns dos vídeos de deepfake mais virais de Bruno Sartori.
Também conhecido como o bruxo dos vídeos ou mago do deepfake, Bruno Sartori é um jornalista, humorista e influenciador digital mineiro. Intitulado como “deepfaker”, é considerado um dos pioneiros na criação de sátiras pela técnica, e a maior referência no Brasil quando o assunto são os vídeos manipulados com inteligência artificial. Sartori ficou famoso nas redes sociais pelo uso do deepfake com humor, fazendo sátiras e paródias ultrarrealistas de políticos como Bolsonaro, Sergio Moro e Lula.
Em entrevista exclusiva para a TVGGN, Sartori alerta para o uso de deepfakes por voz em golpes e nas eleições. “Eu me atentaria ao deepfake de voz, é esse que eu acho que é o maior perigo. Você vai ter golpes utilizando dessa tecnologia para se copiar a voz de uma pessoa, criar um número novo e, a partir daí, chamar pelo WhatsApp um parente e pedir um PIX com a voz da pessoa”, Bruno exemplifica.
O deepfaker ainda afirma que, apesar de deixar algumas pistas como, por exemplo, a entonação da voz, é muito difícil detectar se o áudio é real ou feito a partir de um computador. “Você não tem nenhum imitador de deepfake de voz, você tem a própria pessoa falando, você tem a dicção, a velocidade de fala, a cadência, a respiração, você tem todas as características de uma voz mesmo.”
Assista a entrevista completa abaixo:
Democracia é coisa frágil. Defendê-la requer um jornalismo corajoso e contundente. Junte-se a nós: www.catarse.me/jornalggn
O USO DE DEEPFAKES NAS ELEIÇÕES
Com a chegada das eleições nos próximos meses, há uma preocupação com que o deepfake se transforme em uma ameaça para a disseminação de desinformação e criação de fakenews. Contudo, Bruno Sartori lembra que no último cenário eleitoral, em 2018, não foi necessário o uso dos deepfakes para se criar uma grande campanha de desinformação. Ele explica que a tecnologia em um vídeo de qualidade – ao ponto de enganar alguém – é cara e requer uma mão de obra qualificada. Assim, é pouco provável a utilização da técnica para gerar uma notícia falsa, que pode ser facilmente feita com uma foto, por exemplo.
“É como se você tivesse dando um tiro de bazuca em uma formiga, você não necessita do deepfake para espalhar desinformação. Então talvez por isso a gente não tenha até hoje grandes casos da tecnologia sendo utilizada com esse intuito”, afirma o deepfaker. Todavia, Bruno não subestima a capacidade do brasileiro: “Mas a gente tem o fator Brasil, né? Não pode-se duvidar da capacidade do brasileiro. Pode ser que já estejam fabricando esse conteúdo para soltar durante as eleições, a gente precisa ficar atento”, ele alerta.
DICAS PARA IDENTIFICAR UM DEEPFAKE
Bruno explica que a qualidade do deepfake depende do profissional que o cria. Por vezes, é possível identificar algumas características que indiquem que o vídeo é manipulado, como, por exemplo, uma diferença entre o rosto e o restante do vídeo, o rosto estar mais nítido e o resto do vídeo mais embaçado, ou vice-versa, ou então uma diferença entre as cores e sombras. Contudo, mesmo quem trabalha no ramo considera desafiador a “busca dos 7 erros”.
“A gente precisa ficar atento nisso, mas, às vezes, o profissional já faz com a intenção de enganar e tem a capacidade de esconder essas falhas, então pode ser que o vídeo esteja perfeito e a gente não consiga perceber, até a gente que trabalha com isso, analisando quadro a quadro, é difícil ter essa percepção”, ele explica.
Como solução para o problema, Bruno aconselha reparar o contexto que circunda o vídeo. “Isso costuma entregar muito, você vai ter aí vídeos com manipulação de inteligência artificial onde as pessoas vão estar assumindo crimes, ou desistindo de eleição 1, 2 dias antes dela acontecer. Eu me atentaria ao absurdo do contexto do vídeo mais do que a essas características que o deepfake pode entregar”, recomenda.
A PEDAGODIA NOS DEEPFAKES DE BRUNO SARTORI
Pioneiro no uso da tecnologia no país, Bruno relata que inicialmente começou a fazer os vídeos utilizando a técnica deepfake pela sátira, com a intenção de criar humor e divertir as pessoas. Seu objetivo mudou quando ele percebeu que a maior parte das pessoas desconheciam a existência da ferramenta e, devido à sua característica ultrarrealística, confundiam os vídeos com a realidade. Foi então que ele entendeu que carregava um papel importante dentro da sociedade brasileira: conscientizar e educar as pessoas sobre a manipulação de vídeos com inteligência artificial.
“Se as pessoas não tivessem tido um contato anterior com o deepfake, se você chega em uma eleição por exemplo, você tem a possibilidade de prejudicar os rumos da democracia com gente com a capacidade de criar esse conteúdo com a intenção de enganar. Então vim demonstrando, fazendo o maior número de vídeos possível com essa tecnologia, de uma forma que a pessoa já batesse o olho e percebesse que apesar de realista, era uma coisa falsa, e isso foi muito importante para que as pessoas tivessem um contato e que fosse popularizado a tecnologia.”, o deepfaker explica.
O jornalista ainda conta que está preparando um conteúdo de vídeos especialmente para o período eleitoral que se aproxima no próximos meses. “Eu estou roteirizando vídeos para que eles sejam uma forma de conscientizar das possibilidades do uso da tecnologia durante as eleições”, o deepfaker afirma. E, além disso, ele acredita que esses vídeos são um importante alerta para as pessoas sobre a manipulação de imagens por meio da inteligência artificial. “Essa é a minha contribuição para que as pessoas vejam e saibam que é possível manipular a mídia, se criar mídia sintética, e para que elas fiquem atentas porque isso pode chegar para elas durante as eleições e elas precisam estar educadas em relação a isso.”, Bruno adiciona.
A QUESTÃO LEGAL DO USO DO DEEPFAKE
Bruno narra que até hoje não passou por nenhum processo na justiça devido ao seus vídeos. Segundo o jornalista, por se tratar de uma mídia sintética de figuras públicas, seu conteúdo não fere o direito de imagem. Para explicar melhor, o deepfaker faz uma analogia com o trabalho de um cartunista:
“Se você desenha uma pessoa, essa obra é sua, essa arte é sua. Da mesma forma é uma mídia sintética, o computador ele observa um banco de dados e ele consegue imaginar e recriar por ele mesmo essas imagens. Então não são as imagens originais, são recriações. Quando a gente passa por direito de imagem, eu busco sempre retratar políticos, figuras públicas, então ali os representados não são a pessoa em si. E o deepfake é hoje uma tecnologia que aprimora o desenho, faz ele com um certo realismo, não são as imagens originais, são imaginações computacionais. Quando você entende o processo por dentro, você entende que não são os arquivos de origem, são sínteses na verdade. Então da mesma forma ocorre com a charge.”, ele explica.
Porém, Bruno também deixa claro que o uso da tecnologia de forma criminosa é penalizado perante à lei. “Quem utiliza desses meios e acha que porque é uma coisa nova, que ainda não se tem uma lei especial para se condenar, para se julgar, cai do cavalo, porque é possível penalizar uma pessoa que aplica golpes com deepfake e ela acaba pagando na justiça sim”, o jornalista adverte.
Publicada originalmente em 4 de junho de 2022
Você pode fazer o Jornal GGN ser cada vez melhor.
Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.
Ou param essa libertinagem de eu ter que tá recebendo mensagem de golpista o tempo inteiro ou me celular vai continuar SÓ para conversas amenas, seja por voz, vídeo ou texto. Depois que facilitaram para a bandidagem, supostamente para promover negócios ilícitos virou um inferno; ninguém tem mais segurança nem em recebe um telefonema: UM SIM PARA ALGUM DESCONHECIDO e poder-se-á selando uma imensa dor de cabeça de anos. Vou voltar à caderneta. Fiado, só na caderneta e com a minha assinatura convencional; nada de modernidade eletrônica. Tem ladrão demais. E agora que até a casa se pode perder… será um mangue total.