Black Friday: Revista em casa a partir de 8,90/semana
Continua após publicidade

Uso de deepfakes desponta como candidato a vilão nas próximas eleições

TSE trabalha para criar uma normativa que discipline o uso da IA. E o Congresso também está se movimentando

Por Isabella Alonso Panho Materia seguir SEGUIR Materia seguir SEGUINDO , Adriana Ferraz Atualizado em 4 jun 2024, 09h25 - Publicado em 21 jan 2024, 08h00
  • Seguir materia Seguindo materia
  • Três dias antes do último Natal, o prefeito de Manaus, David Almeida (Avante), acordou pouco antes das 5 da manhã. Ao pegar o celular, viu que circulava em grupos de Whats­App um áudio, com uma voz bastante parecida com a sua, que chamava os professores da rede pública de “vagabundos”, além de proferir outros impropérios. O episódio aconteceu dias depois do anúncio de que o pagamento de um abono para a categoria não seria feito. Alertado por assessores de que poderia ser uma mídia montada de maneira criminosa, ele foi à Polícia Federal. “Ter a sua imagem ligada a algo que você não fez é muito ruim”, disse o prefeito a VEJA. O caso se transformou em um inquérito, protegido por sigilo, que será usado de paradigma de como enfrentar aquele que se insinua como o inimigo de turno das eleições limpas: o uso da inteligência artificial para constranger adversários, espalhar fake news e, ao fim, distorcer a avaliação do eleitor.

    Por causa de episódios como esse, a nova tecnologia entrou na mira da Justiça Eleitoral. Na tentativa de se antecipar a problemas como o vivido pelo prefeito de Manaus, que é candidato à reeleição, o TSE trabalha para criar uma normativa que discipline o uso da IA. O texto, que ainda vai ser analisado em audiências públicas e terá de ser aprovado pelo plenário da Corte, prevê que conteúdos feitos por IA precisam ter aviso que os identifique. Se esses materiais contiverem notícias falsas sobre candidato ou o processo eleitoral, o caso será tratado como abuso de poder ou crime eleitoral de disseminação de notícias falsas, cuja pena é de até um ano de prisão ou multa. Também poderá, a depender da gravidade, provocar a cassação da candidatura e a perda do mandato.

    FÁCIL - Criação de vídeo fake: criminosos têm material abundante na internet
    FÁCIL - Criação de vídeo fake: criminosos têm material abundante na internet (iStock/Getty Images)

    O Congresso também está se movimentando. Na Câmara, há quatro projetos de lei com o intuito de proibir a manipulação de conteúdos e punir autores e disseminadores de deepfakes. No Senado, existe uma comissão estudando o assunto, além de um projeto de lei do presidente da Casa, Rodrigo Pacheco (PSD-MG), que almeja a criação de um Marco Civil da Inteligência Artificial. O relator da comissão, Eduardo Gomes (PL-TO), e o presidente dela, Carlos Viana (Podemos-­MG), prometem uma normativa sobre o tema ainda em 2024.

    A inteligência artificial, por si, não é exatamente um problema. Como qualquer nova tecnologia, há vários usos positivos para ela. A velocidade do raciocínio da máquina permite a análise de documentos e dados em prazo recorde, economizando tempo de trabalho humano e com margens de erro muito menores. Nesta semana, o INSS, por exemplo, anunciou um teste com IA para identificar fraudes em atestados médicos apresentados em pedidos de auxílio-doença. O Supremo Tribunal Federal (STF) faz uso da tecnologia para separar por assunto os milhares de processos que chegam à Corte. O problema é quando a ferramenta é colocada a serviço de propósitos pouco republicanos ou até mesmo criminosos. “Tem muitos riscos a inteligência artificial. Um deles é este, o seu impacto sobre as democracias, as potencialidades da desinformação e do deepfake. Porque a democracia é feita da participação esclarecida das pessoas”, disse o presidente do STF, Luís Roberto Barroso, no Fórum de Davos (Suíça), na quarta-feira 17.

    Continua após a publicidade
    Alexandre de Moraes, ministro so STF
    DE OLHO - Alexandre de Moraes, presidente do TSE: Corte prepara resolução (Alejandro Zambrana/Secom/TSE)

    A grande ameaça ao sistema eleitoral é o deepfake, nome dado à junção das expressões deep learning (aprendizado da máquina) e fake (falso). A tecnologia pode ser usada para criar vídeos falsos, com o rosto e a voz praticamente idênticos aos da vítima. Não é fácil, porém, produzir um conteúdo com a qualidade técnica necessária para se passar por verdadeiro. Mesmo um deepfake capaz de enganar o eleitor mediano exige o trabalho de um profissional. Mas o acesso aos programas de IA é pouco controlado. Há vários aplicativos que disponibilizam a ferramenta e, na maioria, o cadastro nem checa a identidade do usuário. “A pessoa pode cadastrar qualquer e-mail, qualquer nome, e não há uma checagem disso. Ela fica protegida pelo sigilo dos seus dados pessoais”, diz Álvaro Machado Dias, pesquisador da Unifesp. Não há entidade governamental, no Brasil ou no mundo, que controle o uso desses programas ou quem faz uso deles.

    Outro gargalo é a abundância de recursos à disposição de quem quer produzir uma montagem. A matéria-­prima de um deepfake são os dados fornecidos por usuários enquanto navegam na internet. Um registro de segundos, que mostre o interlocutor falando por alguns ângulos, é material mais do que suficiente para criar um vídeo falso. O áudio precisa de ainda menos recursos. Políticos produzem esse tipo de material em abundância ao disponibilizarem vídeos, áudios e fotos nas redes sociais. “O problema é que todo mundo tem algum tipo de coleta de voz. Você pode estar falando com uma central de atendimento do seu banco e sua voz estar sendo gravada”, diz Ricardo Vieira, advogado e presidente do Legal Cyber Institute.

    Continua após a publicidade
    FREIO LEGAL - Rodrigo Pacheco: presidente do Senado é autor de projeto para criar um marco civil para a IA no Brasil
    FREIO LEGAL - Rodrigo Pacheco: presidente do Senado é autor de projeto para criar um marco civil para a IA no Brasil (Andre Borges/EFE)

    O enfrentamento ao mau uso das ferramentas da internet vai muito além do Judiciário. O sucesso desse tipo de empreitada depende muito de mecanismos legais para regular o serviço, o que sempre avança — quando avança — com muita resistência. Depois da implementação do Marco Civil da Internet, em 2014, a legislação brasileira passou a ter um pouco mais de controle sobre a coleta de dados dos usuários, mas o terreno ainda é bastante pantanoso. Atrás de um deepfake existe um trabalho organizado de coleta de dados e produção de conteúdos arquitetados para viralizar. Essa cadeia produtiva ainda não está completamente regulada. Em 2023 o Brasil viu uma tentativa de regulamentar a ação das “big techs” — o projeto de lei 2630/20, conhecido como PL das Fake News — morrer na praia mesmo com a intervenção direta do presidente da Câmara, Arthur Lira (PP-AL). A votação acabou adiada em meio à pressão das companhias de tecnologia, mas deve voltar à pauta neste ano.

    Pressionadas, especialmente pelo Judiciário, as plataformas cederam em alguns pontos. Um deles foi a criação de protocolos para remoção de conteúdos falsos, o que não resolve completamente o problema. Hoje não existem ferramentas que controlem quantas pessoas estão armazenando nos seus celulares um vídeo falso, por mais que ele tenha sido removido das plataformas. Depois que “caiu na rede”, o estrago está feito. “O que me preocupa é a velocidade de disseminação. A combinação de notícias falsas que podem ser feitas em meia hora pela IA é absurda”, afirma Carlos Irineu da Costa, pesquisador e consultor de IA.

    Continua após a publicidade

    O dilema é mundial. Vários países estão construindo regulamentações na tentativa de lidar com algo que está em constante mudança. Na União Europeia, o Threads, concorrente do X (antigo Twitter), enfrentou uma série de entraves para poder funcionar. As empresas também estão se movimentando, mas não na mesma velocidade. Na segunda 15, a OpenAI, proprietária do ChatGPT, divulgou um comunicado proibindo o uso da ferramenta para fins eleitorais. Em novembro de 2023, a Meta (que administra Whats­App, Facebook, Instagram e Threads) passou a exigir que os anunciantes divulguem o uso de IA em seus conteúdos. O Google disse que suas políticas “proíbem conteúdo e anúncios que confundam os eleitores sobre como votar”. Apesar desses esforços, os algoritmos das big techs e as informações pessoais que podem ser coletadas ainda são um dado confidencial, o que impede ação mais efetiva do poder público no controle da IA. “Essas plataformas se tornaram espaços virtuais do debate público. Seus algoritmos deveriam deixar de ser um segredo industrial”, defende o professor Carlos Peres de Figueiredo Sobrinho, da Universidade Federal de Sergipe.

    O inimigo da vez do processo eleitoral é, na verdade, a reencarnação de um velho problema: o uso de fake news como estratégia. O dilema começou a se desenhar em 2018, com o disparo massivo por meio do Whats­App e Facebook que marcou a campanha de Jair Bolsonaro. Quatro anos depois, surgiu um novo vilão, o Telegram, aplicativo de origem russa que sequer tinha representantes no Brasil — e que chegou a ser retirado do ar pelo TSE. A guerra, complexa, às vezes parece infrutífera. Em 2022, a Justiça fez talvez o seu maior esforço nesse sentido, mas não conseguiu impedir que a proliferação de fake news fosse uma triste marca da disputa. O método vai ficando mais sofisticado, e a estratégia de enfrentamento usada na eleição passada já não serve mais para a próxima. Mais do que punir resultados danosos com o pulso firme do Judiciário, o poder público precisa se debruçar sobre a regulamentação desse mercado para separar, com urgência, o joio do trigo no uso das novas tecnologias.

    Publicado em VEJA de 19 de janeiro de 2024, edição nº 2876

    Publicidade
    Publicidade

    Matéria exclusiva para assinantes. Faça seu login

    Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

    Semana Black Friday

    A melhor notícia da Black Friday

    BLACK
    FRIDAY

    MELHOR
    OFERTA

    Digital Completo
    Digital Completo

    Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

    a partir de 5,99/mês*

    ou
    BLACK
    FRIDAY
    Impressa + Digital
    Impressa + Digital

    Receba 4 Revistas no mês e tenha toda semana uma nova edição na sua casa (a partir de R$ 8,90 por revista)

    a partir de 35,60/mês

    ou

    *Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
    *Pagamento único anual de R$71,88, equivalente a 5,99/mês.

    PARABÉNS! Você já pode ler essa matéria grátis.
    Fechar

    Não vá embora sem ler essa matéria!
    Assista um anúncio e leia grátis
    CLIQUE AQUI.