Mídia
Embora o uso recreativo dessa tecnologia seja o que mais circula nas redes sociais, os impactos jurídicos começam a preocupar magistrados, advogados e peritos, sobretudo quando tais arquivos são apresentados como provas em processos criminais e cíveis.
Nos últimos anos, a inteligência artificial (IA) deu um salto significativo na criação de conteúdos digitais falsos, conhecidos como deepfakes. Esses arquivos, que utilizam algoritmos de aprendizado para substituir rostos, alterar falas ou gerar cenas inteiramente fabricadas estão se tornando cada vez mais realistas e difíceis de detectar.
O uso recreativo dessa tecnologia é o que mais circula nas redes sociais, mas os impactos jurídicos começam a preocupar magistrados, advogados e peritos, sobretudo quando tais arquivos são apresentados como provas em processos criminais e cíveis.
O desafio jurídico é enorme: como garantir a autenticidade de uma prova digital em um contexto em que qualquer áudio, vídeo ou imagem pode ser manipulado de forma praticamente imperceptível? Essa pergunta ganha força diante de casos recentes em diversos países, inclusive no Brasil, em que deepfakes foram usados para incriminar inocentes, fraudar investigações ou influenciar decisões judiciais.
“Embora a disseminação de deepfakes represente um desafio contemporâneo, a essência do problema não é nova no Direito. A tentativa de manipular a verdade sempre existiu — seja por meio de testemunhos falsos, documentos forjados ou provas forjadas fisicamente”, observa Marcelo Roitman, especialista em tecnologia e sócio do escritório PLKC.
A prova digital no processo judicial
De acordo com o Código de Processo Civil (CPC) e o Código de Processo Penal (CPP), provas digitais – sejam mensagens de aplicativos, e-mails, imagens ou vídeos – têm validade jurídica, desde que atendam aos requisitos de autenticidade, integridade e cadeia de custódia. Na prática, isso significa que o material deve ser coletado de forma lícita, preservado sem alterações e capaz de demonstrar sua origem.
Com a popularização dos deepfakes, esses requisitos se tornam ainda mais complexos. Um vídeo, por exemplo, que aparentemente mostra um réu cometendo um crime, pode ter sido gerado por IA e inserido no processo por terceiros mal-intencionados. Da mesma forma, uma empresa pode ser vítima de montagens que afetem sua reputação em uma disputa comercial.
“É importante reconhecer que, embora existam ferramentas capazes de detectar deepfakes e atribuir um score de confiabilidade, elas não oferecem 100% de precisão. Essas soluções podem indicar a probabilidade de uma imagem ou vídeo ter sido manipulado, mas jamais devem substituir a perícia técnica humana, dado que produzem falsos positivos — quando algo autêntico é identificado como fake — e falsos negativos — quando um deepfake é erroneamente tratado como genuíno”, alerta Juliano Maranhão, professor da Faculdade de Direito da USP e diretor do Legal Wings Institute.
“Entender a origem, a integridade, a cadeia de custódia e os metadados das provas digitais é essencial — ainda mais considerando que a possibilidade de manipulação (como via Photoshop) existe há anos. Nesse contexto, notarizar provas digitais — em vez de usar apenas prints — é uma prática consolidada no direito digital para garantir a veracidade das informações”, ressalta Maranhão.
O Supremo Tribunal Federal (STF) e o Superior Tribunal de Justiça (STJ) já reconhecem que provas digitais precisam ser analisadas de forma criteriosa. No entanto, a legislação brasileira ainda carece de dispositivos específicos que tratem da manipulação por inteligência artificial, o que gera insegurança para magistrados e partes envolvidas.
Casos reais no Brasil e no mundo
Na Ásia, um funcionário do setor financeiro de uma multinacional foi enganado por fraudadores que usaram tecnologia deepfake para se passar pelo diretor financeiro da empresa em uma videoconferência, levando-o a transferir cerca de US$ 25 milhões. O caso aconteceu no início de 2024. Segundo a polícia de Hong Kong, o trabalhador acreditou que estava em uma reunião com colegas reais, pois todos os participantes eram recriações digitais extremamente realistas. Ele só percebeu o golpe após confirmar com a sede da empresa.
As autoridades locais informaram que o caso faz parte de uma série de crimes recentes envolvendo deepfakes. Foram usados documentos roubados e recriações digitais para abrir contas bancárias, solicitar empréstimos e até enganar sistemas de reconhecimento facial. A polícia de Hong Kong já prendeu seis suspeitos ligados aos golpes.
No Brasil, o uso de inteligência artificial para criar vídeos falsos de profissionais de saúde, conhecidos como deepfakes médicos, tem se tornado uma preocupação crescente em 2025. Com a popularização de ferramentas digitais sofisticadas, conteúdos falsos simulando médicos e especialistas se multiplicaram nas redes sociais, alcançando milhões de pessoas. Esses vídeos costumam disseminar dietas, tratamentos e conselhos de saúde sem respaldo científico, oferecendo riscos reais à população.
Produzidos por softwares que geram imagens e vozes sintéticas, os deepfakes médicos apresentam avatares realistas, capazes de imitar gestos, expressões faciais e até a entonação da fala. O grande desafio está em diferenciar esses conteúdos fraudulentos de vídeos feitos por profissionais de saúde legítimos, o que torna a desinformação ainda mais perigosa.
Os desafios da cadeia de custódia
A cadeia de custódia, prevista no artigo 158-B do CPP, é o conjunto de procedimentos utilizados para documentar e preservar a integridade de uma prova. No caso das evidências digitais, essa cadeia é ainda mais sensível, pois arquivos podem ser copiados e modificados com facilidade.
Se uma mensagem de WhatsApp é apresentada em um processo, por exemplo, é necessário comprovar que foi obtida do aparelho original, que não sofreu alterações e que está vinculada ao número do usuário. Para vídeos e imagens, a complexidade aumenta: é preciso atestar não apenas a origem do arquivo, mas também sua integridade visual e sonora.
Com os deepfakes, a perícia digital ganha um papel fundamental. Ferramentas de detecção baseadas em IA estão sendo desenvolvidas por empresas de tecnologia e universidades, mas os resultados ainda não são infalíveis. Pequenas distorções em pixels, sombras e movimentos podem indicar falsificação, mas a sofisticação dos algoritmos que geram deepfakes dificulta a detecção.
“Não há uma tecnologia isolada capaz de identificar deepfakes com total segurança. Hoje, as soluções mais eficazes combinam análise forense digital com inteligência artificial. Entre os métodos utilizados estão a identificação de inconsistências visuais, como problemas de iluminação, distorções em pixels, sombras fora do padrão e piscadas anormais, além da análise de metadados para checar as informações embutidas nos arquivos de mídia”, afirma Théo Meneguci Boscoli, do Gaia Silva Gaede Advogados.
Hoje está em tramitação no Congresso Nacional o Projeto de Lei nº 1884/2025, que tem como objetivo regulamentar o uso de deepfakes no Brasil. “A proposta traz pontos importantes, como a obrigatoriedade de identificação clara desses conteúdos por meio de metadados ou marcas d’água, além de prever exceções para paródias e homenagens, desde que a identidade do autor seja conhecida pelas plataformas”, diz o advogado.
Outro ponto relevante do projeto é a responsabilização de plataformas que disponibilizam ferramentas de criação de deepfakes sem mecanismos de transparência, criando um arcabouço legal mais robusto para coibir o uso malicioso dessa tecnologia.
Riscos em processos criminais e cíveis
A utilização de provas manipuladas pode ter consequências trágicas. Em processos criminais, um deepfake pode levar à condenação de inocentes ou à absolvição de culpados. Em ações cíveis e empresariais, montagens podem ser usadas para desmoralizar concorrentes, manipular contratos ou forjar situações que favoreçam uma das partes.
Além disso, há o risco de chantagem digital: criminosos podem criar vídeos falsos para pressionar vítimas, ameaçando divulgar imagens comprometedoras caso não recebam valores em dinheiro. Esse tipo de prática já foi registrado em países da Europa e deve ganhar relevância no Brasil.
Especialistas em Direito Digital defendem que a legislação brasileira precisa evoluir para lidar com os deepfakes. Uma das propostas é incluir artigos específicos no CPP e no CPC que tratem da falsificação por IA, estabelecendo penalidades mais severas para quem insere provas adulteradas em processos judiciais.
“O ponto central não é necessariamente criar uma categoria legal específica para deepfakes, mas sim reforçar critérios já previstos no processo civil e penal quanto à autenticidade e integridade das provas digitais. No entanto, ajustes normativos são sempre bem-vindos”, avalia Larissa Pigão, especialista em Direito Digital.
A advogada destaca medidas que podem fortalecer a autenticidade das provas digitais. “Algumas sugestões viáveis, na minha opinião, são: a previsão legal expressa sobre a obrigatoriedade de verificação técnica de mídias digitais, quando contestadas por qualquer das partes; a tipificação penal mais precisa da manipulação de conteúdo digital com finalidade de fraude ou indução do juízo em erro, o que hoje ainda depende de interpretações extensivas; e os critérios objetivos para aferição da cadeia de custódia digital, com parâmetros mínimos para assegurar a confiabilidade da mídia apresentada”, diz a advogada.
Outra solução é investir em certificação e autenticação de arquivos digitais por meio de tecnologias como blockchain. Esse sistema permite registrar a criação e cada modificação de um arquivo em um banco de dados imutável, facilitando a comprovação de sua autenticidade.
No campo tecnológico, empresas como Microsoft, Google e OpenAI já desenvolvem ferramentas de detecção de deepfakes, capazes de identificar padrões de manipulação. Contudo, os criadores de falsificações também aprimoram seus métodos, o que gera uma espécie de corrida armamentista digital.
Responsabilidade dos advogados e das partes
Advogados, defensores públicos e promotores devem estar atentos à possibilidade de deepfakes em processos. O Estatuto da Advocacia (Lei nº 8.906/1994) e o Código de Ética da OAB determinam que o profissional do Direito não pode apresentar provas sabidamente falsas. Caso isso ocorra, ele pode ser responsabilizado disciplinarmente.
Já as partes que produzem ou utilizam provas adulteradas podem ser enquadradas em crimes como fraude processual (art. 347 do Código Penal) e falsidade ideológica (art. 299). As penas variam de dois a cinco anos de prisão, além de multa.
Estamos preparados?
O Brasil ainda está longe de ter um sistema judicial plenamente preparado para lidar com os desafios trazidos pelos deepfakes. Embora exista conscientização crescente, faltam recursos para investir em perícias digitais de alta qualidade em todo o país. Muitas vezes, delegacias e fóruns não dispõem de equipamentos adequados para análise técnica detalhada.
“Uma prioridade legislativa seria a criação de um marco específico para a autenticidade e admissibilidade de conteúdos sintéticos, exigindo a verificação da cadeia de custódia digital, metadados e certificações de integridade”, reforça Marcelo Roitman.
A velocidade da evolução tecnológica exige constante atualização dos magistrados, advogados e peritos. Cursos de capacitação em Direito Digital e parcerias com instituições de pesquisa são caminhos possíveis para aumentar a segurança jurídica.
O combate aos deepfakes no ambiente jurídico, portanto, depende de uma combinação de medidas legislativas, investimentos em tecnologia e capacitação contínua dos profissionais envolvidos. Especialistas alertam que, sem essas ações coordenadas, o sistema de Justiça permanecerá vulnerável a fraudes sofisticadas capazes de comprometer investigações, processos e a própria confiança social nas decisões judiciais. Criar estruturas capazes de identificar e conter manipulações digitais é fundamental para proteger direitos e preservar a integridade das provas no Brasil.
Por: Luciano Teixeira.
Fonte: LexLegal.







