A Meta anunciou ter intentado ações judiciais no Brasil e na China contra alegados esquemas de fraude que recorreram a deepfakes de celebridades para promover produtos enganosos nas suas plataformas, nomeadamente no Facebook e no Instagram. Em comunicado, diz que apresentou queixa "contra quatro anunciantes desonestos" que terão usurpado a identidade de figuras públicas e marcas conhecidas para induzir consumidores em erro através de publicidade paga.
No Brasil, a tecnológica avançou judicialmente contra duas empresas e quatro indivíduos, alegadamente responsáveis por uma operação que utilizou conteúdos gerados por inteligência artificial com a imagem e voz de um médico reconhecido. Os vídeos manipulados promoviam produtos de saúde sem autorização regulamentar, explorando a credibilidade associada ao profissional.
Segundo a Meta, os anúncios foram veiculados como campanhas legítimas, recorrendo a técnicas de edição avançadas que dificultam a distinção entre conteúdos autênticos e falsificados.
Na China, a ação judicial visa um grupo suspeito de operar uma rede de anunciantes que promovia esquemas semelhantes, também baseados em deepfakes de celebridades. Os responsáveis terão utilizado contas publicitárias múltiplas e técnicas de evasão para contornar sistemas automatizados de deteção.
A Meta indica que tem vindo a reforçar os mecanismos de verificação de identidade de anunciantes, bem como ferramentas de deteção de conteúdos sintéticos manipulados por IA. Ainda assim, reconhece que as redes fraudulentas adaptam rapidamente as suas técnicas, recorrendo a infraestruturas distribuídas e identidades falsas.
A utilização de modelos de inteligência artificial para replicar voz, imagem e expressões faciais de figuras públicas tem registado um aumento significativo nos últimos dois anos. Estes conteúdos são frequentemente utilizados para promover investimentos fraudulentos, suplementos de saúde, esquemas de criptomoedas ou aplicações financeiras não autorizadas.
As autoridades reguladoras em vários países têm alertado para o impacto económico e reputacional destas práticas, sublinhando que as deepfakes dificultam a aplicação da lei e colocam desafios acrescidos à moderação de conteúdos em plataformas digitais globais.
A iniciativa judicial surge num contexto de maior escrutínio regulatório sobre as grandes plataformas digitais, nomeadamente no que respeita à responsabilidade na prevenção de conteúdos ilegais e enganosos. Na União Europeia, o Regulamento dos Serviços Digitais (DSA) reforça obrigações de monitorização e mitigação de riscos sistémicos, incluindo manipulação informativa e fraude.
A Meta sustenta que as ações judiciais pretendem não apenas responsabilizar os autores, mas também sinalizar que o uso de ferramentas de IA para fins fraudulentos constitui violação das políticas de publicidade e dos termos de serviço das plataformas. A big tech não divulgou o montante estimado das perdas associadas aos esquemas identificados, nem o número de utilizadores afetados, referindo que as investigações continuam em articulação com autoridades locais.
Conflito entre Anthropic e Trump não trava utilização empresarial da IA