
Por Nayara Caixeta* e Rita Machado** — Imagine um cliente atendendo o telefone e, do outro lado, ouve a voz de seu advogado de confiança. As informações repassadas são fidedignas e correspondem de fato ao processo. O profissional informa sobre uma movimentação processual e recomenda a confirmação de um código por mensagem. O cliente obedece às instruções e cai num golpe que lhe gera um prejuízo de R$12 mil.
O caso, que foi noticiado essa semana, ocorreu em Minas Gerais e expõe uma nova realidade dos crimes digitais no Brasil: o uso de inteligência artificial para clonar vozes para fins criminosos. E, nesse caso, a voz do advogado foi imitada com precisão por criminosos que se passaram por ele e enganaram seus clientes, sendo que utilizaram, ainda, informações que podem ser encontradas facilmente nos sites dos próprios Tribunais, o que dificulta ainda mais a identificação pela vítima de que aquilo trata-se de golpe.
Esse não é um incidente isolado. A OAB já noticiou outros casos similares e recomendou códigos de verificação entre advogados e clientes, bem como mais cautela com a exposição de vídeos e áudios nas redes sociais. A recomendação é bastante razoável, embora insuficiente, diante da sofisticação dos golpes e da ausência de crimes específicos para punir esse tipo de conduta com o devido rigor.
A clonagem de vozes de pessoas, imagens ou vídeos, é conhecida como deepfake — conduta que expõe a existência de uma lacuna normativa e técnica para combater o crime digital. A verdade é que não estamos mais lidando com fraudes que antes ocorriam por meio de links recebidos no e-mail ou aquelas velhas fraudes já conhecidas do WhatsApp, em que golpistas pedem dinheiro a pessoas próximas da vítima utilizando-seapenas da foto no aplicativo e alegando que havia trocado de número. Hoje, existe tecnologia para simulação de altíssimo realismo do rosto, voz e gestos de uma pessoa — e, com isso, eleva o potencial para fraudes, crimes contra o patrimônio, violação de imagem e até de violênciapsicológica.
Nesse contexto, o direito penal brasileiro precisa se atualizar. Algumas condutas podem, sim, ser qualificadas como estelionato (art. 171 do Código Penal), falsidade ideológica (art. 299) ou até extorsão (art. 158), mas não se amoldam à complexidade e à gravidade do uso de IA como meio de execução desses crimes. A ausência de normas específicas para punir tais delitos fragiliza a persecução penal e dificulta a aplicação das penas.
Um marco significativo foi a aprovação da Lei 15.123/2025, publicada no último dia 24 de abril. A nova lei traz alteração ao Código Penal para aplicar causa deaumento de pena no crime de violência psicológica contra a mulher, quando praticado com o uso de inteligência artificial ou de qualquer outro recurso tecnológico que altere a imagem ou voz da vítima.
Embora a novidade legislativa tenha aplicação apenas quanto ao crime previsto no art. 147-B do CP, ela abre caminho para refletirmos sobre a responsabilidade criminal pelo uso de IA na prática de crimes.
Além disso, constitui um passo importante, já que o legislador, pela primeira vez, reconheceu o impacto da tecnologia de deepfake e a possibilidade de que ela seja utilizada para praticar violência psicológica contra as mulheres. Tal reconhecimento, sem dúvidas, reflete oinício do caminho para combater o uso de IA na prática de outros crimes.
Contudo, é preciso avançar. O Brasil ainda não criou tipos penais específicos para punir os crimes digitais, sendo aplicadas as disposições atinentes aos tipos penais comuns, por analogia. Também não há uma legislação específica que aborde os riscos e responsabilidades pelo uso de inteligência artificial para manipulação de informações sensíveis, nem há protocolos claros para a cadeia de custódia de evidências digitais, necessários para estabelecer a validade processual de vídeos e áudios manipulados — seja para acusação ou defesa. A perícia digital, uma tecnologia ainda pouco difundida, que serviria para atestar a autenticidade ou adulteração desses conteúdos em tempo hábil, enfrenta sérias dificuldades na aplicação prática.
O uso de IA para a prática de crimes é a nova realidade da era digital, na qual as armas convencionais foram substituídas pela tecnologia. O novo aparato tecnológico utilizado na prática desses crimes digitais desafia o senso comum, abala a confiança pública nas provas e coloca em xeque até mesmo as relações de confiança pessoal — como entre um advogado e seu cliente. E, nessa nova era tecnológica, a manipulação darealidade tornou-se a nova arma do crime.
Assim, precisamos avançar em três frentes, sendo elas: a criação de uma legislação clara e eficiente com tipos de crime específicos, que dê uma resposta no uso deIA em relação às fraudes, crimes contra o patrimônio e crimes contra a honra; o incentivo à melhoria das habilidades tecnológicas para os operadores do direito, principalmente na área de perícia digital e segurança cibernética; bem como o fomento a educação digital para a população, a fim de que as pessoas possam reconhecer possíveis crimes praticados por meio desse novo artifício tecnológico e tomar as providências cabíveis.
Se essas novas tecnologias nos oferecem ferramentas poderosas para o bem, elas também funcionam, nas mãos erradas, como armas para atacar a integridade emocional, o patrimônio e até a confiança nas instituições. O direito penal não pode continuar indiferente a isso. Em tempos de realidade manipulada, proteger a verdade é proteger a própria democracia.
Saiba Mais