Combater deepfakes com mais transparência sobre a IA

Report this content

Pouco depois da invasão da Ucrânia em 2022, os fotógrafos locais começaram a documentar a destruição de espaços culturais para ajudar a preservar o património do país e recolher provas para a restituição. No entanto, a disseminação de imagens falsas relacionadas com a guerra estava a causar um problema: as pessoas não conseguiam ter a certeza de quais eram as fotografias verdadeiras.
A situação levou os fotógrafos a utilizar uma nova ferramenta para mostrar que as suas fotografias não eram “deepfakes” – conteúdo gerado por Inteligência Artificial (IA) que se assemelha realisticamente a pessoas, locais ou eventos existentes de uma forma não autêntica. O protótipo deu origem ao conjunto de ferramentas Content Integrity Suite da Microsoft, concebido para conferir maior transparência ao conteúdo online.

Com a previsão de que as eleições, a nível global, atinjam um recorde de dois mil milhões de eleitores este ano, várias organizações políticas, eleitorais e mediáticas estão agora a utilizar as ferramentas para credibilizar o seu trabalho, melhorar a transparência, incutir confiança e evitar a desinformação. Apoiar um ecossistema de informação mais fiável com ferramentas e práticas de IA responsáveis é apenas uma forma da Microsoft combater os deepfakes .

Os conteúdos manipulados não são novidade e, por vezes, são claramente sátira ou comédia. Mas o avanço da IA generativa tem facilitado a disseminação de desinformação por pessoas com más intenções, o que pode conduzir a fraudes, roubo de identidade, interferência eleitoral e outros danos. Detalhes como a autoria e as legendas desaparecem frequentemente quando o conteúdo é partilhado, tornando mais difícil para as pessoas saberem em que confiar.

De acordo com Andrew Jenks, diretor da Microsoft Media Provenance, conhecer a origem e traçar a história do conteúdo pode ajudar as pessoas a estarem mais informadas e menos vulneráveis a enganos. As ferramentas da Microsoft incluem uma aplicação, atualmente em fase de private preview, para que os criadores e editores possam adicionar Credenciais de Conteúdo ao seu trabalho, ou metadados certificados com detalhes como quem produziu o conteúdo, quando foi concebido e se foi utilizada IA. Parte da norma técnica da Coalition for Content Provenance and Authenticity (C2PA), as credenciais de conteúdo são anexadas criptograficamente a fotografias, vídeos e áudios para que qualquer edição ou adulteração posterior possa ser detetada mais facilmente.

Uma vez que os metadados são invisíveis, a Microsoft também disponibiliza uma ferramenta pública de Verificação da Integridade do Conteúdo e uma extensão do browser Web para os consumidores procurarem credenciais e analisarem as informações de proveniência. As pessoas também podem procurar um ícone de Credenciais de Conteúdo em imagens e vídeos em plataformas como o LinkedIn.
“As credenciais de conteúdo fornecem uma camada importante de transparência, quer a IA esteja ou não envolvida, para ajudar as pessoas a tomar decisões mais informadas sobre o conteúdo que partilham e consomem online”, afirma Andrew Jenks. “À medida que se torna mais fácil identificar a origem e a história do conteúdo, as pessoas podem tornar-se mais reticentes em relação ao material que não tem informações de proveniência específicas.”

A Microsoft utiliza as suas ferramentas de Credenciais de Conteúdo nos seus próprios produtos de IA responsáveis pela criação de imagens - Designer, Copilot, Paint e modelos selecionados no Azure OpenAI Service - para revelar que a IA foi utilizada, quando a imagem foi criada e outros detalhes. Outros controlos de IA responsáveis para impedir o abuso de deepfake incluem a desfocagem de rostos de pessoas em fotografias carregadas no Copilot.

No contexto das eleições deste ano, a Microsoft está a disponibilizar a private preview das suas ferramentas de proveniência primeiro a campanhas, organizações eleitorais e jornalistas como parte do compromisso de combater o uso enganoso de IA no contexto eleitoral. A tecnológica criou também um site para os candidatos denunciarem deepfakes eleitorais que aparecem no LinkedIn, Xbox e outros serviços de consumo da Microsoft e lançou um fundo de 2 milhões de dólares com a OpenAI para aumentar a educação sobre IA entre eleitores e comunidades vulneráveis.
Como detetar deepfakes:

  • Conhecer e compreender a fonte: Procure a atribuição, as legendas e as credenciais de conteúdo. Pesquise imagens através de uma pesquisa visual. Pergunte a si próprio se a fonte é respeitável e proceda com cautela se não houver uma fonte clara.
  • Considere a intenção: O conteúdo destina-se a entreter, informar ou persuadir o utilizador? Analisar o objetivo pode ajudá-lo a perceber melhor se alguém está a tentar enganá-lo.
  • Procurar incoerências e anomalias: As imagens geradas por IA podem ter erros ortográficos, figuras desfocadas, vestuário não adequado, iluminação inconsistente e texturas estranhas.
  • Teste as suas capacidades de deteção de IA: Responda ao quizz Real or Not para ver se consegue distinguir imagens geradas por IA de imagens reais.
Esta mensagem faz parte da série Microsoft's Building AI Responsibly, que explora as principais preocupações com a implementação da IA e a forma como a empresa as está a abordar com as suas práticas e ferramentas de IA responsável.

Tags:

Media

Media