Deepfake

Origem: Wikipédia, a enciclopédia livre.

Deepfake, uma amálgama de "deep learning" (aprendizagem profunda em inglês) e "fake" (falso em inglês),[1] é uma técnica de síntese de imagens ou sons humanos baseada em técnicas de inteligência artificial. É mais usada para combinar a fala qualquer a um vídeo já existente (exemplo: combinar um vídeo qualquer de Barack Obama com a fala "O programa Obamacare não foi uma boa ideia"). A técnica de aprendizado de máquina mais utilizada para criação de vídeos falsos é a chamada Rede Generativa Adversarial.[2]

Vídeos criados via deepfake foram muito utilizados para criar falsos vídeos de caráter sexual de celebridades, ou falsos vídeos de pornografia de vingança. A pornografia deepfake foi muito utilizada em 2017, particularmente em fóruns do Reddit,[3] e tem sido banido de sites incluindo Reddit, Twitter e Pornhub.[4][5] Deepfakes também podem ser utilizadas para gerar notícias falsas, como o exemplo na definição, e embustes maliciosos.[6][7]

Vídeos não pornográficos criados por deepfakes podem ser facilmente encontrados em sites de streaming como o Youtube. Um aplicativo famoso de manipulação de vídeos e imagens é o FakeApp,[8] o qual utiliza o framework de aprendizagem de máquina TensorFlow, desenvolvido pela Google, para as desejadas criações. Outro aplicativo mais recente é o Deep Voice, porém a ideia do programa é clonar a voz original do orador.[9]

Técnicas para gerar gestos faciais falsos e renderização de imagens em vídeos alvos para que uma pessoa alvo ficasse parecida com a pessoa de entrada, foram apresentadas em 2016 e permitiram um falsificador de quase tempo real para expressões faciais em vídeos de 2 dimensões já existentes.[10]

A partir do desenvolvimento desta tecnologia, naturalmente, passou-se a utilizar essa inovação tecnológica para a prática de fatos moralmente reprováveis, tais como pornografia, falsidades ideológicas e principalmente ofensa ao direito à imagem. O deepfake é uma recente inovação tecnológica, razão pela qual, não existe legislação específica para tutelá-lo.[11] A Câmara dos Deputados aprovou um projeto de lei que criminaliza a prática do deepfake no Brasil. A ideia é coibir o uso da tecnologia para a criação de vídeos ou imagens íntimas falsas de pessoas.[12] Há necessidade, portanto, de criar uma legislação que atenda às nossas exigências do Direito Digital – como o deepfake, no campo cível, criminal, administrativo, eleitoral, dentre outros, visando a segura proteção dos indivíduos em meio às novas tecnologias.[13]

Cinematografia[editar | editar código-fonte]

O primeiro caso registrado de deepfake foi em 2017, quando um usuário do Reddit sob o pseudônimo "Deepfakes" publicou vários vídeos de caráter pornográficos na Internet. O primeiro a chamar mais atenção foi o vídeo de Daisy Ridley, atriz de vários filmes renomados como Star Wars: Episódio VII – O Despertar da Força. Outra deepfake que chamou a atenção foi da atriz Gal Gadot, a qual interpretou Mulher-Maravilha, fazendo sexo com seu meio-irmão. Vários outros vídeos com várias famosas renomeadas como Emma Watson, Katy Perry, Taylor Swift e Scarlett Johansson também foram divulgados.[14] Todas as cenas não eram reais e foram criadas por redes neurais artificiais. Os vídeos foram desmascarados pouco tempo depois.

Com as pesquisas em imagens avançando a cada dia, a comunidade do Reddit consertou muitos dos erros grotescos dos vídeos gerados e tornou mais difícil de se distinguir um vídeo falso de um vídeo verdadeiro, a olho nu. Com uma base de dados enorme de vídeos pornôs e outra base de vídeos de várias atrizes, os usuários do Reddit treinaram diversas redes neurais para gerar mais deepfakes. A primeira notícia de deepfake foi reportada pela revista Vice, na seção de Tecnologia e Ciências, decorrendo em ampla disseminação do ocorrido em vários outros meios midiáticos.[15]

No Reino Unido, produtores de conteúdo de deepfake podem ser acusados por abuso sexual, porém há casos que fazem o deepfake um crime específico.[16]

As deepfakes também podem ser amplamente utilizadas no ramo cinematográfico. Hoje em dia, dublês são usados para fazer cenas perigosas, as quais os atores comuns não se arriscam a fazer. Uma aplicação bem plausível seria utilizar uma deepfake para substituir a fisionomia do dublê pela fisionomia dos atores. Outra aplicação no ramo, pode ser a substituição de fisionomia de um animal ou monstro. No filme O Hobbit: A Desolação de Smaug, o ator Benedict Cumberbatch interpretou o dragão Smaug com ajuda do software "Tissue" da Weta Digital. A técnica utilizada para tal feito, utiliza várias tags para identificação de expressão facial. Hoje poderiam ser aplicadas as técnicas de deepfake para produzir o Dragão.

Uma equipe de pesquisadores da Disney criou um projeto de deepfake mais realista do que os principais sistemas já existentes. A tecnologia foi publicada pelo Disney Research Studios, braço de novas tecnologias da empresa, com resultados melhores que outros conhecidos, como DeepFaceLab. O sistema da Disney usa aprendizado de máquina para compreender o padrão do rosto do usuário e criar uma camada com o rosto falso que vai em cima do rosto original. Contudo, para dar mais realismo ao sistema, a plataforma usa um algoritmo treinado que estabiliza a imagem e cria efeitos de luz para se encaixar ao rosto da pessoa. A diferença aqui é a que a Disney tenta trabalhar em alta resolução, para conseguir adicionar mais detalhes ao rosto, tornando o resultado o mais próximo possível do rosto real. Dessa forma, enquanto modelos do DeepFakeLab trabalham com imagens em 256 x 256 pixels, a plataforma da Disney usam 1024 x 1024 pixels. A proposta, aqui, é também permitir que a tecnologia seja usada em telas maiores, ou seja, para produções de cinema.[17]

Política[editar | editar código-fonte]

Dado o cenário político mundial atual, as deepfakes são uma ameaça enorme para assuntos como relações internacionais, corrida à presidência etc. As notícias falsas (fake news, como são amplamente conhecidas em inglês) ultimamente têm causado muitos impactos na política mundial, principalmente em 2016.[18][19] As eleições presidenciais dos Estados Unidos de 2016 foram comprovadamente afetadas por notícias falsas geradas pela empresa Cambridge Analytica.[20] A empresa Facebook foi chamada à corte para explicar vazamentos de dados para a Cambridge Analytica e assim conhecer os perfis de eleitores (melhor explicado em Escândalo de dados Facebook–Cambridge Analytica). Fatos parecidos podem acontecer futuramente, porém sendo vídeos, imagens e áudios falsos gerados para manipular os eleitores.[21] Alguns vídeos de caráter divertido foram criados para exemplificar o fato, como o do presidente argentino Mauricio Macri que teve sua face substituída pela face do ditador Adolf Hitler, e a face da Chanceler Angela Merkel substituída pela face do Presidente Donald Trump.[22][23] O exemplo mais famoso é o vídeo divulgado pelo BuzzFeed onde o ator Jordan Peele interpreta vocalmente Barack Obama, alertando os males que a deepfake pode vir a causar.[24]

Em 2018, durante as Eleições gerais realizadas no Brasil, circulou nas redes sociais um vídeo com o rosto do candidato a governador de São Paulo João Doria (PSDB) no corpo de um homem fazendo orgia com seis mulheres. Apesar das suspeitas de que se tratasse de um deepfake, investigações indicaram que o vídeo não sofreu manipulação digital.[25]

No Brasil, a técnica do deepfake é muito popular pelo criador de conteúdo digital Bruno Sartori, que utiliza a técnica na forma de humor para satirizar o atual Governo Federal, mas sempre deixando claro que os vídeos postados em suas plataformas digitais são deepfake.[13] Sartori, autodenominado deepfaker, em seu perfil no Instagram,[26] tem publicado diversos vídeos satíricos com a face do presidente da República Jair Bolsonaro substituída em clipes de personalidades internacionais e até dos personagens Chaves e Chapolin.[27]

Aplicações[editar | editar código-fonte]

Em Janeiro de 2018, foi lançado um aplicativo de computador chamado "FakeAPP". O aplicativo permite que os usuários facilmente criem e compartilhem vídeos com as faces substituídas. O aplicativo usa uma rede neural artificial, o poder da Unidade de processamento gráfico do usuário e três a quatro Gigabytes de armazenamento para gerar os vídeos falsos. Para informações detalhadas, o programa precisa de muitos dados visuais (imagens, vídeos) da pessoa a ser inserida para a rede "aprender" quais parâmetros das imagens têm que ser trocados (posição dos olhos, cor do cabelo, por exemplo). O software usa o framework de inteligência artificial TensorFlow, desenvolvido pela Google, o qual dentre as mais variadas aplicações foi usado no programa DeepDream.[28][29]

As celebridades são os principais alvos de vídeos falsos, como os de pornografia, mas também outros são afetados pela onda de ataques.[30][31][32]

Em Agosto de 2018, pesquisadores na Universidade da Califórnia em Berkeley publicaram um artigo científico introduzindo um aplicativo de "danças falsas" onde uma criança pode fazer movimentos de um dançarino profissional usando inteligência artificial.[33][34]

Críticas[editar | editar código-fonte]

Abusos[editar | editar código-fonte]

O jornal Aargauer Zeitung expõe como a manipulação de imagens e vídeos usando métodos de inteligência artificial pode ser um fenômeno extremamente perigoso para nossa sociedade atual.[22] Porém, a falsificação de imagens e vídeos é tão velha quanto o marco dos programas de edição de vídeo e edição de imagens, a verossimilhança seria "apenas" mais um aspecto a ser considerado.

Os casos de pornografia de vingança, deepfakes direcionadas a embustes e escândalos políticos são os mais graves atualmente.[35][36] Casos deste tipo, podem ser tratados como crime atualmente, como no Reino Unido. A Administração do Ciberespaço da China (CAC) informou que "qualquer alteração feita com inteligência artificial ou realidade virtual em conteúdo online precisa estar claramente sinalizada. Não seguir as novas regras [em vigor desde janeiro de 2020] pode ser considerado ofensa criminal".[37]

Efeitos na credibilidade e autenticidade[editar | editar código-fonte]

Outro feito impactante das deepfakes é fazer as pessoas desacreditarem em toda e qualquer mídia divulgada, pois aquela informação pode não ser genuína e também indistinguível do conteúdo original. O pesquisador Alex Champandard comunicou que todos deveriam entender o quão rápido as coisas podem ser corrompidas com a tecnologia atual, e que o problema não é técnico, mas um problema que tem que ser resolvido pelo jornalismo e pela confiabilidade da informação.[38] A primeira "armadilha" é que o Homem pode entrar em uma era a qual não poderá ser distinguido o verdadeiro do falso.[22]

Reações na Internet[editar | editar código-fonte]

Alguns sites, como o Twitter e o Gfycat, anunciaram que deletariam conteúdos relacionados a deepfakes e bloqueariam os usuários.[39][40] Anteriormente, a plataforma de conversas Discord bloqueou um canal de comunicação dedicado a compartilhar vídeos pornográficos falsos de celebridades. O site de pornografia, Pornhub, também planeja bloquear tais conteúdos, porém foi comunicado que o mesmo não tem dado força ao combate.[41][42] Já no Reddit, a situação inicial permaneceu como "não concluída" até o subreddit ser suspenso em Fevereiro de 2018 devido à violação de políticas de uso pelo artigo de "Pornografia involuntária".[43][44][45][46]

A rede social Facebook lançou, em 2019, a competição “Deepfake Detection Challenge” (Desafio de Detecção de Deepfake, em inglês) para criar tecnologias e software capazes de detectar vídeos usando a técnica de vídeo infox.[47][48]

Ver também[editar | editar código-fonte]

Referências

  1. Brandon, John (16 de fevereiro de 2018). «Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise». Fox News (em inglês). Consultado em 8 de dezembro de 2018 
  2. Schwartz, Oscar (12 de novembro de 2018). «You thought fake news was bad? Deep fakes are where truth goes to die». The Guardian (em inglês). ISSN 0261-3077 
  3. Roettgers, Janko; Roettgers, Janko (21 de fevereiro de 2018). «Porn Producers Offer to Help Hollywood Take Down Deepfake Videos». Variety (em inglês). Consultado em 8 de dezembro de 2018 
  4. tweet_btn(), Katyanna Quach 9 Feb 2018 at 08:06. «It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet». www.theregister.co.uk (em inglês). Consultado em 8 de dezembro de 2018 
  5. Moscaritolo, By Angela; February 7, 2018 10:10AM EST; February 7, 2018. «PornHub, Twitter Ban 'Deepfake' AI-Modified Porn». PCMAG (em inglês). Consultado em 8 de dezembro de 2018 
  6. Christian, Jon. «Experts fear face swapping tech could start an international showdown». The Outline (em inglês). Consultado em 8 de dezembro de 2018 
  7. Roose, Kevin (4 de março de 2018). «Here Come the Fake Videos, Too». The New York Times (em inglês). ISSN 0362-4331 
  8. Gillespie|Jan. 25, Nick; Am, 2018 12:50 (25 de janeiro de 2018). «FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! - Hit & Run». Reason.com (em inglês). Consultado em 8 de dezembro de 2018 
  9. Arık, Sercan (12 de outubro de 2018). «Neural Voice Cloning with a Few Samples» (PDF). Cornell University Library. Consultado em 8 de dezembro de 2018 
  10. Thies, Justus (2016). «Face2Face: Real-Time Face Capture and Reenactment of RGB Videos» (PDF). The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Consultado em 8 de dezembro de 2018 
  11. «Conteúdo Jurídico». Conteúdo Jurídico. Consultado em 10 de novembro de 2020 
  12. Junqueira, Daniel (29 de novembro de 2018). «Câmara aprova projeto que criminaliza uso de deepfake para imagens íntimas - Olhar Digital». Olhar Digital - O futuro passa primeiro aqui. Consultado em 10 de novembro de 2020 
  13. a b «Deepfake, inteligência artificial e Direito Penal Eleitoral». Canal Ciências Criminais. 31 de maio de 2020. Consultado em 10 de novembro de 2020 
  14. Lee, Dave (3 de fevereiro de 2018). «'Fake porn' has serious consequences». BBC News (em inglês) 
  15. Cole, Samantha (11 de dezembro de 2017). «AI-Assisted Fake Porn Is Here and We're All Fucked». Motherboard (em inglês). Consultado em 8 de dezembro de 2018 
  16. Sabbagh, Dan; Ankel, Sophia (21 de junho de 2018). «Call for upskirting bill to include 'deepfake' pornography ban». The Guardian (em inglês). ISSN 0261-3077 
  17. «Disney cria sistema de deepfake mais convincente até agora». Canaltech. 1 de julho de 2020. Consultado em 10 de novembro de 2020 
  18. «Fake news: O impacto das notícias falsas em ano de eleições». HuffPost Brasil. 20 de julho de 2018. Consultado em 8 de dezembro de 2018 
  19. Graves, Lucia. «How Trump Weaponized 'Fake News' for His Own Political Ends». Pacific Standard (em inglês). Consultado em 8 de dezembro de 2018 
  20. Blake, Aaron (3 de abril de 2018). «A new study suggests fake news might have won Donald Trump the 2016 election». The Washington Post. Consultado em 8 de dezembro de 2018 
  21. Hsu, Jeremy (22 de junho de 2018). «Experts Bet on First Deepfakes Political Scandal». IEEE Spectrum: Technology, Engineering, and Science News (em inglês). Consultado em 8 de dezembro de 2018 
  22. a b c «Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos». az Aargauer Zeitung (em alemão). Consultado em 8 de dezembro de 2018 
  23. tagesschau.de. «Deepfakes: Auf dem Weg in eine alternative Realität?». tagesschau.de (em alemão). Consultado em 8 de dezembro de 2018 
  24. Romano, Aja (18 de abril de 2018). «Jordan Peele's simulated Obama PSA is a double-edged warning against fake news». Vox. Consultado em 8 de dezembro de 2018 
  25. Gizmodo (25 de Outubro de 2018). «Os indícios de que o vídeo do Doria é falso e por que deveríamos nos preocupar com isso». Consultado em 20 de Dezembro de 2018 
  26. «Perfil do Instagram de Bruno Sartori (@brunnosarttori) • 374 fotos e vídeos». www.instagram.com. Consultado em 10 de novembro de 2020 
  27. «Deepfakes: vídeos falsos divertem hoje, mas potencial para crimes é grande». www.uol.com.br. Consultado em 10 de novembro de 2020 
  28. «DeepDream». Wikipedia (em inglês). 19 de novembro de 2018 
  29. «Deep Dream Generator». deepdreamgenerator.com. Consultado em 8 de dezembro de 2018 
  30. Bauchmüller, Britta (29 de janeiro de 2018). «„Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!». Berliner-Kurier.de (em alemão). Consultado em 8 de dezembro de 2018 
  31. Kühl, Von Eike. «Künstliche Intelligenz: Auf Fake News folgt Fake Porn». ZEIT ONLINE (em alemão). Consultado em 8 de dezembro de 2018 
  32. online, heise. «Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien». heise online (em alemão). Consultado em 8 de dezembro de 2018 
  33. Farquhar, Peter (27 de agosto de 2018). «An AI program will soon be here to help your deepfake dancing - just don't call it deepfake». Business Insider Australia (em inglês). Consultado em 8 de dezembro de 2018 
  34. Vincent, James (26 de agosto de 2018). «Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted». The Verge. Consultado em 8 de dezembro de 2018 
  35. «Künstliche Intelligenz: Selfies sind eine gute Quelle». ZEIT ONLINE (em alemão). Consultado em 8 de dezembro de 2018 
  36. «„Deepfake" - FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?». www.wbs-law.de. Consultado em 8 de dezembro de 2018 
  37. «Fake News e deepfakes serão considerados ofensa criminal na China». Computerworld. 5 de dezembro de 2019. Consultado em 10 de novembro de 2020 
  38. «Tweet de Alex Champandard». Alex Champandard. 11 de dezembro de 2017. Consultado em 8 de dezembro de 2018 
  39. «Twitter bans 'deepfake' AI-generated porn». Engadget (em inglês). Consultado em 8 de dezembro de 2018 
  40. Matsakis, Louise (14 de fevereiro de 2018). «Artificial Intelligence Is Now Fighting Fake Porn». Wired. ISSN 1059-1028 
  41. «Pornhub hasn't been actively enforcing its deepfake ban». Engadget (em inglês). Consultado em 8 de dezembro de 2018 
  42. «Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them». BuzzFeed News (em inglês). Consultado em 8 de dezembro de 2018 
  43. Böhm, Markus (7 de fevereiro de 2018). «"Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor». Spiegel Online 
  44. barbara.wimmer. «Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos». futurezone.at (em alemão). Consultado em 8 de dezembro de 2018 
  45. online, heise. «Deepfakes: Auch Reddit verbannt Fake-Porn». heise online (em alemão). Consultado em 8 de dezembro de 2018 
  46. «Reddit verbannt Deepfake-Pornos - derStandard.de». DER STANDARD. Consultado em 8 de dezembro de 2018 
  47. «Facebook et Microsoft partent à la chasse aux "deepfakes"». www.lesnumeriques.com (em francês). 6 de setembro de 2019. Consultado em 10 de novembro de 2020 
  48. «Facebook, Microsoft e acadêmicos lançam competição de detecção de deepfake». SempreUPdate. 6 de setembro de 2019. Consultado em 10 de novembro de 2020