Deepfakes, IA e Direitos da Personalidade Digital: Desafios e Proteção Jurídica
- José Bentivi
- 2 de ago.
- 2 min de leitura
A revolução das inteligências artificiais (“IA”) e das técnicas de “deepfake” – que permitem criar ou alterar vídeos e áudios com rostos e vozes “sintéticas” – traz à tona riscos inéditos à imagem, à voz e à honra de pessoas e empresas. Sem norma específica, o Direito Civil brasileiro demanda soluções que assegurem a punição de abusos e a reparação de danos.

Deepfakes e personalidade digital
• Conceito de deepfake: uso de redes neurais (GANs) para gerar “conteúdo hiper-real” que imita ícones públicos ou privados.
• Personalidade digital: no ambiente virtual, subsistem todos os atributos clássicos da personalidade (nome, imagem, honra, privacidade – CC, art. 20), acrescidos de perfis em redes, avatares e “legado digital” (Enunciado 687, IX Jornada).
• Riscos: desfocagem de fatos, fraude de identificação, difamação em massa e violação de dados pessoais.
Responsabilidade civil e marcos jurídicos
• Tutela subsidiária: aplica-se a responsabilidade civil genérica (CC, art. 927) e, quando demonstrado o risco inerente à atividade de geração/distribuição de deepfakes, admite-se a responsabilidade objetiva (CC, art. 927, § único).
• Elementos do dever de indenizar:
– Dano: moral (honra, imagem) e patrimonial (lucros cessantes, perda de contratos).
– Nexo causal: ligação direta entre a manipulação e o prejuízo.
– Culpabilidade ou risco: dolo, culpa ou risco criado pela tecnologia.
• Marco Civil da Internet (Lei 12.965/2014), art. 19: obrigação do provedor de remover conteúdo “ofensivo” após ordem judicial; Art. 7º, LGPD (Lei 13.709/2018): proteção de dados pessoais, inclusive “sensíveis” gerados por IA.
Jurisprudência e experiências internacionais
• STF/STJ: no REsp 1.660.168/RJ (Rel. Nancy Andrighi, 2020), reafirmou-se a retirada de imagens íntimas sem consentimento. No AgInt no AREsp 1.015.451/SP (2019), aplicou-se responsabilidade objetiva de plataforma que deixou de remover conteúdos após notificação.
• Europa (GDPR): “direito ao apagamento” (right to erasure) autoriza remoção de perfis e deepfakes que violem privacidade.
• EUA: tribunais federais vêm concedendo injunctions que proíbem a distribuição de deepfakes antes de prova de consentimento ou liberdade de expressão (First Amendment).
Provas e prevenção de litígios
• Ferramentas de prova: perícia forense digital (análise de metadados, assinatura de compressão), blockchain e timestamping para atestar data e autoria originais, watermarking invisível em arquivos.
• Cláusulas contratuais preventivas:
– Licenciamento expresso de uso de imagem/voz, com delimitação de escopo, prazo e finalidades.
– Consentimento específico para criação de “clones” digitais ou avatares.
– Multas e obrigações de indenização em caso de uso indevido ou deepfake malicioso.
A rápida evolução das deepfakes e das IAs impõe ao advogado a urgente combinação de princípios dos direitos da personalidade, responsabilidade civil objetiva e ferramenta tecnológica. A importância de mapear riscos, redigir instrumentos contratuais robustos e atuar de forma preventiva e contenciosa continua a aumentar. Compartilhe nos comentários suas experiências práticas e fortaleça este debate.

Comentários