'Deepfakes’ na guerra de Gaza aumentam receios do poder da Inteligência Artificial
A nova modalidade de desinformação, criada por meio de IA tem sido utilizada em grande escala para enganar as pessoas e criar indignação.
Entre imagens das casas bombardeadas e das ruas devastadas de Gaza, há algumas que se destacam pelo horror: bebés abandonados e ensanguentados. Vistas milhões de vezes ‘on-line’ desde o início da guerra, estas imagens são ‘deepfake’, (nova modalidade de desinformação, criada por meio de inteligência artificial).
Olhando com atenção, é possível ver pistas: dedos que se mexem de forma estranha ou olhos que brilham com uma luz não natural – tudo sinais reveladores de fraude digital. Contudo, a indignação que estas imagens pretendem criar é muito real.
As imagens da guerra entre Israel e o Hamas ilustraram de forma viva e dolorosa o potencial da Inteligência Artificial (IA) como ferramenta de propaganda, usada para criar imagens de uma carnificina.
Desde o início da guerra, as imagens alteradas digitalmente e divulgadas nas redes sociais têm sido utilizadas para enganar as pessoas sobre atrocidades que nunca aconteceram ou lançar falsas alegações sobre a responsabilidade das mortes.
Apesar de a maior parte dessas falsas alegações que circulam na Internet sobre a guerra não necessitarem de IA para serem criadas e terem origem em fontes mais convencionais, os avanços tecnológicos estão a surgir com uma frequência cada vez maior e com pouco controlo. Isso fez com que o potencial da IA se tornasse uma nova arma, dando uma ideia do que está para vir em futuros conflitos, eleições e outros grandes acontecimentos.
“Isto vai piorar – e piorar muito – antes de melhorar”, disse Jean-Claude Goldenstein, director executivo da CREOpoint, empresa tecnológica com sede em São Francisco e Paris que utiliza a IA para avaliar a validade de algumas reivindicações ‘online´. A empresa criou uma base de dados das ‘deepfakes’ mais virais sobre Gaza. “Imagens, vídeo e áudio: com a IA generativa, vai ser uma escalada nunca vista”.
Em alguns casos, fotografias de outros conflitos e catástrofes foram reaproveitadas e divulgadas como se fossem novas. Noutros, foram utilizados programas de IA generativa para criar imagens de raiz, como a de um bebé a chorar no meio de destroços de um bombardeamento que se tornou viral nos primeiros dias do conflito.
Outros exemplos de imagens geradas por IA incluem vídeos que mostram supostos ataques de mísseis israelitas ou tanques a passar por bairros em ruínas, ou ainda famílias a vasculhar os escombros em busca de sobreviventes.
Os propagandistas que criam estas imagens são hábeis em apelar aos impulsos e ansiedades mais profundas das pessoas, disse Imran Ahmed, diretor executivo do Center for Countering Digital Hate, uma organização sem fins lucrativos que tem acompanhado a desinformação sobre a guerra. Quer se trate da imagem de um bebé ‘deepfake’ ou de uma imagem real de uma criança de outro conflito, o impacto emocional para quem vê é o mesmo.
Quanto mais horrível for a imagem, maior é a possibilidade de uma pessoa se lembrar dela, partilhá-la, espalhando involuntariamente desinformação.
Conteúdos enganadores gerados por IA começaram a espalhar-se depois da invasão da Ucrânia pela Rússia, em 2022. Um vídeo adulterado parecia mostrar o presidente, Volodymyr Zelensky, a pedir aos ucranianos que se rendessem. Estas afirmações voltaram a circular há uma semana, o que mostra como a desinformação pode ser persistente, mesmo quando é facilmente desmontada.
Em todo o mundo, várias empresas tecnológicas estão a trabalhar em novos programas que podem detectar falsificações profundas, colocar marcas de água para provar a sua origem ou digitalizar um texto para verificar quaisquer informações enganadoras ou erradas que possam ter sido inseridas pela IA.
Embora esta tecnologia seja promissora, quem utiliza a IA para mentir está muitas vezes um passo à frente, nesse campo.