banner

blog

Jun 18, 2023

Pesquisador constrói anti

Will Knight, wired.com - 30 de agosto de 2023 13h51 UTC

Em maio, a Sputnik International, um meio de comunicação estatal russo, publicou uma série de tweets criticando a política externa dos EUA e atacando a administração Biden. Cada um suscitou uma refutação curta, mas bem elaborada, de uma conta chamada CounterCloud, às vezes incluindo um link para uma notícia relevante ou artigo de opinião. Gerou respostas semelhantes aos tweets da embaixada russa e dos meios de comunicação chineses criticando os EUA.

As críticas russas aos EUA estão longe de ser incomuns, mas a resposta do material de CounterCloud foi: os tweets, os artigos e até mesmo os jornalistas e sites de notícias foram criados inteiramente por algoritmos de inteligência artificial, de acordo com a pessoa por trás do projeto, que atende pelo nome de nomeia Nea Paw e diz que foi projetado para destacar o perigo da desinformação de IA produzida em massa. Paw não postou publicamente os tweets e artigos do CounterCloud, mas os forneceu à WIRED e também produziu um vídeo descrevendo o projeto.

Paw afirma ser um profissional de segurança cibernética que prefere o anonimato porque algumas pessoas podem considerar o projeto irresponsável. A campanha CounterCloud contra as mensagens russas foi criada usando a tecnologia de geração de texto da OpenAI, como a do ChatGPT, e outras ferramentas de IA facilmente acessíveis para gerar fotografias e ilustrações, diz Paw, por um custo total de cerca de US$ 400.

“Não acho que exista uma solução mágica para isso, da mesma forma que não existe uma solução mágica para ataques de phishing, spam ou engenharia social”, disse Paw por e-mail. Mitigações são possíveis, como educar os usuários para estarem atentos ao conteúdo manipulativo gerado pela IA, fazer com que os sistemas generativos de IA tentem bloquear o uso indevido ou equipar os navegadores com ferramentas de detecção de IA. “Mas acho que nenhuma dessas coisas é realmente elegante, barata ou particularmente eficaz”, diz Paw.

Nos últimos anos, investigadores de desinformação alertaram que os modelos de linguagem de IA poderiam ser usados ​​para criar campanhas de propaganda altamente personalizadas e para alimentar contas de redes sociais que interagem com os utilizadores de formas sofisticadas.

Renee DiResta, gerente de pesquisa técnica do Stanford Internet Observatory, que rastreia campanhas de informação, diz que os artigos e perfis de jornalistas gerados como parte do projeto CounterCloud são bastante convincentes.

“Além dos atores governamentais, as agências de gestão de redes sociais e os mercenários que oferecem serviços de operações de influência irão, sem dúvida, utilizar estas ferramentas e incorporá-las nos seus fluxos de trabalho”, afirma DiResta. Distribuir e compartilhar amplamente conteúdo falso é um desafio, mas isso pode ser feito pagando usuários influentes para compartilhá-lo, acrescenta ela.

Já surgiram algumas evidências de campanhas de desinformação online alimentadas por IA. Pesquisadores acadêmicos descobriram recentemente uma botnet grosseira que impulsiona criptografia, aparentemente alimentada por ChatGPT. A equipe disse que a descoberta sugere que a IA por trás do chatbot provavelmente já está sendo usada para campanhas de informação mais sofisticadas.

Campanhas políticas legítimas também passaram a usar IA antes das eleições presidenciais de 2024 nos EUA. Em abril, o Comitê Nacional Republicano produziu um vídeo atacando Joe Biden que incluía imagens falsas geradas por IA. E em junho, uma conta de mídia social associada a Ron Desantis incluiu imagens geradas por IA em um vídeo destinado a desacreditar Donald Trump. A Comissão Eleitoral Federal disse que pode limitar o uso de deepfakes em anúncios políticos.

Micah Musser, um investigador que estudou o potencial de desinformação dos modelos de linguagem da IA, espera que as principais campanhas políticas tentem usar modelos de linguagem para gerar conteúdo promocional, e-mails de angariação de fundos ou anúncios de ataque. “É um período totalmente instável neste momento, onde não está realmente claro quais são as normas”, diz ele.

Muitos textos gerados por IA permanecem bastante genéricos e fáceis de detectar, diz Musser. Mas fazer com que os humanos controlem o conteúdo gerado pela IA, promovendo a desinformação, pode ser altamente eficaz e quase impossível parar de usar filtros automatizados, diz ele.

COMPARTILHAR