Combater deepfakes com mais transparência sobre a IA
Pouco depois da invasão da Ucrânia em 2022, os fotógrafos locais começaram a documentar a destruição de espaços culturais para ajudar a preservar o património do país e recolher provas para a restituição. No entanto, a disseminação de imagens falsas relacionadas com a guerra estava a causar um problema: as pessoas não conseguiam ter a certeza de quais eram as fotografias verdadeiras.
A situação levou os fotógrafos a utilizar uma nova ferramenta para mostrar que as suas fotografias não eram “deepfakes” – conteúdo gerado por Inteligência Artificial (IA) que se assemelha realisticamente a pessoas, locais ou eventos existentes de uma forma não autêntica. O protótipo deu origem ao conjunto de ferramentas Content Integrity Suite da Microsoft, concebido para conferir maior transparência ao conteúdo online.
Com a previsão de que as eleições, a nível global, atinjam um recorde de dois mil milhões de eleitores este ano, várias organizações políticas, eleitorais e mediáticas estão agora a utilizar as ferramentas para credibilizar o seu trabalho, melhorar a transparência, incutir confiança e evitar a desinformação. Apoiar um ecossistema de informação mais fiável com ferramentas e práticas de IA responsáveis é apenas uma forma da Microsoft combater os deepfakes .
Os conteúdos manipulados não são novidade e, por vezes, são claramente sátira ou comédia. Mas o avanço da IA generativa tem facilitado a disseminação de desinformação por pessoas com más intenções, o que pode conduzir a fraudes, roubo de identidade, interferência eleitoral e outros danos. Detalhes como a autoria e as legendas desaparecem frequentemente quando o conteúdo é partilhado, tornando mais difícil para as pessoas saberem em que confiar.
De acordo com Andrew Jenks, diretor da Microsoft Media Provenance, conhecer a origem e traçar a história do conteúdo pode ajudar as pessoas a estarem mais informadas e menos vulneráveis a enganos. As ferramentas da Microsoft incluem uma aplicação, atualmente em fase de private preview, para que os criadores e editores possam adicionar Credenciais de Conteúdo ao seu trabalho, ou metadados certificados com detalhes como quem produziu o conteúdo, quando foi concebido e se foi utilizada IA. Parte da norma técnica da Coalition for Content Provenance and Authenticity (C2PA), as credenciais de conteúdo são anexadas criptograficamente a fotografias, vídeos e áudios para que qualquer edição ou adulteração posterior possa ser detetada mais facilmente.
Uma vez que os metadados são invisíveis, a Microsoft também disponibiliza uma ferramenta pública de Verificação da Integridade do Conteúdo e uma extensão do browser Web para os consumidores procurarem credenciais e analisarem as informações de proveniência. As pessoas também podem procurar um ícone de Credenciais de Conteúdo em imagens e vídeos em plataformas como o LinkedIn.
“As credenciais de conteúdo fornecem uma camada importante de transparência, quer a IA esteja ou não envolvida, para ajudar as pessoas a tomar decisões mais informadas sobre o conteúdo que partilham e consomem online”, afirma Andrew Jenks. “À medida que se torna mais fácil identificar a origem e a história do conteúdo, as pessoas podem tornar-se mais reticentes em relação ao material que não tem informações de proveniência específicas.”
A Microsoft utiliza as suas ferramentas de Credenciais de Conteúdo nos seus próprios produtos de IA responsáveis pela criação de imagens - Designer, Copilot, Paint e modelos selecionados no Azure OpenAI Service - para revelar que a IA foi utilizada, quando a imagem foi criada e outros detalhes. Outros controlos de IA responsáveis para impedir o abuso de deepfake incluem a desfocagem de rostos de pessoas em fotografias carregadas no Copilot.
No contexto das eleições deste ano, a Microsoft está a disponibilizar a private preview das suas ferramentas de proveniência primeiro a campanhas, organizações eleitorais e jornalistas como parte do compromisso de combater o uso enganoso de IA no contexto eleitoral. A tecnológica criou também um site para os candidatos denunciarem deepfakes eleitorais que aparecem no LinkedIn, Xbox e outros serviços de consumo da Microsoft e lançou um fundo de 2 milhões de dólares com a OpenAI para aumentar a educação sobre IA entre eleitores e comunidades vulneráveis.
Como detetar deepfakes:
- Conhecer e compreender a fonte: Procure a atribuição, as legendas e as credenciais de conteúdo. Pesquise imagens através de uma pesquisa visual. Pergunte a si próprio se a fonte é respeitável e proceda com cautela se não houver uma fonte clara.
- Considere a intenção: O conteúdo destina-se a entreter, informar ou persuadir o utilizador? Analisar o objetivo pode ajudá-lo a perceber melhor se alguém está a tentar enganá-lo.
- Procurar incoerências e anomalias: As imagens geradas por IA podem ter erros ortográficos, figuras desfocadas, vestuário não adequado, iluminação inconsistente e texturas estranhas.
- Teste as suas capacidades de deteção de IA: Responda ao quizz Real or Not para ver se consegue distinguir imagens geradas por IA de imagens reais.
Tags: