Jornal de Brasília

Informação e Opinião

Opinião

“Revenge porn” e “deepfake”: as ferramentas de inteligência artificial podem ser responsabilizadas por essa prática?

A criação ou edição de imagens artificiais por ferramentas de inteligência artificial é conhecida como “DeepFake”

Foto: AFP

Isabela Pompilio*

O uso da inteligência artificial para criar ou editar imagens ganhou destaque em 2023, apesar de diversas ferramentas de inteligência artificial já serem utilizadas há certo tempo. O que chamou a atenção, especialmente esse ano, foi o realismo das imagens criadas pelas avançadas ferramentas de inteligência artificial.

A criação ou edição de imagens artificiais por ferramentas de inteligência artificial é conhecida como “DeepFake”. Esse termo é oriundo vocábulo “DeepFace” que, no âmbito das redes sociais, é associado a um sistema de reconhecimento facial utilizado por plataformas (a título de exemplo, o Facebook) para reconhecer a face dos usuários em fotos.

Recentemente, imagens do Papa Francisco usando um casacão estilo “puffer” circularam na internet. A tendência “puffer”, segundo os sites especializados, vem dominando as passarelas e inspirando famosos. Também circularam na internet imagens do ex-presidente americano Donald Trump entrando em confronto com a polícia e sendo preso, justamente no momento em que havia certa expectativa de sua prisão. No mesmo sentido, imagens do presidente francês Emmanuel Macron sentado em volta de lixos espalhados pelo chão após protestos contra a reforma da previdência na França circularam em diversos sites.

Essas imagens têm alguns pontos em comum. Por óbvio, destaca-se que todas foram criadas a partir de ferramenta de inteligência artificial. Outro ponto em comum nessas imagens diz respeito aos sujeitos envolvidos: todos os três mencionados são pessoas públicas, que tiveram as imagens criadas a partir de um contexto no qual estavam associados, à exceção do Papa Francisco.

Pode-se destacar, por fim, que as imagens têm em comum (e o que causa mais espanto) uma alta qualidade e ao alto grau de realismo. O espanto está vinculado a um fato que tem preocupado a todos que se interessam pelo tema: em tempos de disseminação de “fake News”, o alto grau de realismo pode causar sérios prejuízos para quem foi vítima de “DeepFake”.

Talvez essa preocupação não seja tão evidente quando se trata de pessoas públicas. Em tese, basta uma nota oficial emitida por seus assessores para que qualquer dúvida sobre a autenticidade das imagens possa ser dirimida, o que não é tão simples de ser feito por uma pessoa “comum”, que sofrerá as consequências relacionadas à sua falsa exposição.

CONTINUA DEPOIS DA PUBLICIDADE

De modo a deixar mais evidente a problemática que, cedo ou tarde, as autoridades deverão se debruçar, pode-se imaginar uma pessoa vítima de “Revenge Porn”, prática de divulgação de fotos e vídeos íntimos por seus ex-parceiros.
Inicialmente, essa prática “dependia” da obtenção, de forma autorizada ou não, de fotos íntimas do(a) ex-parceiro(a). No entanto, as atuais ferramentas de inteligência artificial podem ser capazes de criar, com alto grau de realismo e qualidade, imagens ou vídeos de pessoas em situações íntimas.

No Brasil, tanto a legislação civil e como a penal prevê a responsabilização de quem divulga, sem autorização, vídeos e fotos íntimas de terceiros. Em relação aos provedores, o Marco Civil da Internet – Lei nº 12.965/2014 dispõe que a responsabilidade civil do provedor de internet pelos danos decorrentes do conteúdo gerado por terceiro é subsidiária e somente ocorrerá em caso de descumprimento de ordem judicial que determina a indisponibilização do conteúdo ilícito ou da permanência de imagens/vídeos íntimos após a ciência do ocorrido.

Ou seja, além de a legislação prever punição para quem produz o conteúdo ilícito, o provedor de internet poderá ser responsabilizado se, após notificado da decisão judicial, não indisponibilizar o conteúdo ilícito. A rigor, a responsabilidade é de quem produziu o conteúdo.
Note, no entanto, que, em relação à prática do “Deepfake”, há um novo componente: a ferramenta de inteligência artificial utilizada para a produção do falso conteúdo.

Considerando a sensibilidade do tema, é de se imaginar que a resposta do Poder Público para essa situação será rígida. A discussão, assim, poderá ser em torno dos seguintes questionamentos, dentre outros: Poderá haver alguma responsabilização da ferramenta eventualmente utilizada na criação/edição dessas falsas imagens? É possível atribuir a responsabilidade do controle sobre a utilização de imagens por essas plataformas?

CONTINUA DEPOIS DA PUBLICIDADE

As respostas podem parecer óbvias. Entretanto, dada a sensibilidade do tema, qualquer resposta deve, necessariamente, ser precedida de muitos estudos e debates, ainda mais considerando que o tema pode se tornar mais sensível, como, por exemplo, nos casos em que envolver menores de idade.
Assim, qual seria a melhor solução para evitar esse tipo de prática? A conscientização sobre as terríveis consequências, notadamente psicológicas, que as vítimas podem sofrer? A regulamentação do uso dessas ferramentas pelo Poder Público? Exigir que as ferramentas de inteligência artificial controlem as imagens submetidas para edição? De forma mais extrema, a proibição do uso dessas ferramentas?

A pornografia de vingança é crime e sua prática deve ser combatida em qualquer hipótese. Com as atuais ferramentas de inteligência artificial, a discussão envolvendo “Revenge Porn” ganha mais um elemento que, cedo ou tarde, deverá ser objeto de debate: a prática de “revenge porn” com o uso da “deepfake”.

*Isabela Pompilio é responsável pela área de contencioso da unidade de Brasília de TozziniFreire Advogados, com larga experiência em atuação nos Tribunais Superiores. Atua em causas estratégicas há duas décadas e no acompanhamento de teses visando a formação de novos entendimentos jurisprudenciais em direito cível, internacional e digital.

CONTINUA DEPOIS DA PUBLICIDADE






Você pode gostar