Home / Tecnologia / Rússia manipula dados de treinamento de IA com narrativas falsas, alertam especialistas

Rússia manipula dados de treinamento de IA com narrativas falsas, alertam especialistas

A Rússia estaria alimentando bots de IA com informações falsas sobre diferentes assuntos, influenciando debates sobre processos eleitorais, guerra da Ucrânia, imigração e outros temas controversos. A suspeita voltou a ganhar destaque na última semana, após uma reportagem da Wired citando uma campanha de manipulação iniciada em 2023.

Conhecida por nomes como “Operação Sobrecarga”, “Matryoshka” e “Tempestade-1679”, a campanha é baseada em um processo chamado “lavagem de informações”, que facilita a divulgação em massa de conteúdos favoráveis ao governo de Vladimir Putin. O método inclui o uso da Wikipedia na disseminação da desinformação.

Como funciona a “lavagem de informações”?

Segundo o The Washington Post, que também investigou a suposta manipulação das IAs pelo Kremlin, os conteúdos pró-Rússia são publicados primeiro em fontes oficiais do país, como a agência Tass. Em seguida, eles aparecem em sites independentes, que chegam a fazer milhares de publicações automatizadas por dia.

  • Lançada em 2014 e presente em dezenas de países, a rede de sites Pravda é apontada como uma das principais divulgadoras desses materiais;
  • Embora tenha uma baixa quantidade de visitantes humanos, a plataforma apresenta conteúdos otimizados para rastreadores, que varrem a web em busca de dados para alimentar modelos de linguagem;
  • Os materiais também são encontrados pelos bots com capacidade de pesquisar na web em tempo real, podendo influenciar as respostas dadas ao usuário;
  • Para aumentar a visibilidade desses conteúdos, links da rede são adicionados à Wikipedia e ao Facebook, consideradas fontes precisas por algumas IAs;
  • Em uma estratégia ousada, a campanha russa envia emails para organizações de checagem de fatos, solicitando que elas verifiquem a veracidade dos materiais;
  • O objetivo é fazer o conteúdo ser publicado por grandes veículos de comunicação mesmo que sinalizado como falso, para facilitar a indexação;
  • Pelo menos 170 mil emails do tipo foram disparados desde setembro de 2024, conforme estudo publicado em junho.

A lavagem das informações é uma forma de driblar as sanções aplicadas aos meios de comunicação russos em vários países, fazendo os conteúdos chegarem a outros mercados. Além disso, leva a outra estratégia, denominada “aliciamento LLM”, em referência aos modelos de linguagem.

De acordo com a organização sem fins lucrativos American Sunlight Project (ASP), a técnica aumenta a probabilidade de os grandes modelos de IA absorverem e passarem a divulgar as narrativas falsas à medida que elas aparecem no conteúdo indexado e nos resultados das buscas.

ilustracao-de-bot-exibindo-cartaz-de-fake-news
Com o acesso às narrativas falsas, as IAs podem passar a citar as fake news em suas respostas. (Imagem: Getty Images)

Quais são as consequências?

A alimentação das IAs com conteúdos manipulados pelos hackers russos aumenta a exposição dos usuários de bots populares aos conteúdos pró-Putin e contrários à Ucrânia, por exemplo. Isso se dá principalmente nas ferramentas de inteligência artificial generativa que coletam dados em fontes como a Wikipedia.

O método também pode facilitar interferências da Rússia em processos eleitorais de diferentes países. Uma investigação feita pelo canal ABC News aponta que isso ocorreu durante as eleições federais da Austrália em maio, com 16,6% das respostas dadas pelos bots consultados refletindo narrativas falsas propagadas pelo Kremlin.

“À medida que os chatbots de IA continuam avançando, a Rússia os infecta com conteúdo manipulado pelo Kremlin feito sob medida para influenciar a internet global, distorcendo a compreensão do público sobre os fatos e a capacidade de tomar decisões bem informadas”, alertou o pesquisador de segurança do Atlantic Council, Valentin Châtelet, que investigou a prática.

Para lidar com o problema, especialistas sugerem parcerias entre as empresas de IA e plataformas de verificação de fatos para confirmar a integridade das informações antes que elas sejam utilizadas na alimentação dos modelos de IA. Outra alternativa apontada é a regulamentação, tratada por algumas autoridades como “censura”.

Gostou do conteúdo? Continue no TecMundo e não se esqueça de compartilhar as notícias com os amigos nas redes sociais.

Fonte: TecMundo

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *