ANÁLISE
Muitas vezes não nos damos conta, mas nem toda imagem é real. E é admirável como consumimos informação através de imagens digitais. Chamadas de deepfakes, imagens falsas podem ser criadas por inteligência artificial. Aos nossos olhos, algumas deepfakes são quase imperceptíveis. É possível, por exemplo, criar rostos de pessoas que não existem, fazer vídeos com trocas de rosto e criar falas sintéticas. E sabia que imagens de satélite também podem ser alteradas por deepfake?
Confiamos tanto nas imagens geoespaciais que essa dúvida não passa pela nossa cabeça. Um exemplo de como imagens de satélite estão presentes no nosso dia a dia é o mapa criado pelo Google, dados que servem como base de muitos navegadores de GPS. Eles nos informam caminhos e trânsito na cidade. Mas o que aconteceria se uma parte do mapa fosse alterada?
Missões militares
As aplicações militares são mais sensíveis. Os mapas geoespaciais são usados para o planejamento de missões como lançamento de míssil e operações de drones. Os alvos podem ser prédios, pontes e estradas. Agora, imagine que o edifício alvo na verdade não existe e a missão tem que ser abortada quando o drone chega ao local, ou uma ponte foi estrategicamente escondida na imagem e o alvo real nunca será encontrado. São possibilidades que o avanço da tecnologia deepfake nos faz pensar.
Recentemente, foi publicado um trabalho de Bo Zhao da Universidade de Washington e colegas sobre deepfakes em imagens de satélite. Baseado em mapas das cidades de Tacoma (WA, EUA), Seattle (WA, EUA) e Beijing (China), imagens fake foram simuladas com rede de inteligência artificial CycleGAN, do tipo GAN (rede adversária geradora, tradução livre de Generative Adversarial Network). Com essa rede neural, os cientistas foram capazes de criar elementos geográficos realísticos, mas que misturavam elementos urbanos de cidades diferentes, criando cenas inéditas (e não reais).
É possível saber se é fake ou não é? Aos olhos de humanos, esses novos elementos de imagem passam despercebidos no mapa, entretanto ainda são possíveis de serem detectados se houver um contra-algoritmo capaz de apontar a fraude. As cenas fake carregam características de contraste em regiões da imagem, canais de cores usados, características de sensores usados e compressão de dados, que as tornam detectáveis, como se houvesse uma assinatura na imagem para essa fraude.
O pesquisador Zhao usou um algoritmo que detectou cenas fake com até 94% de precisão. Mesmo assim, é bom lembrar que há imagens identificadas como fake, mas que não são. A não ser que sejam elementos muito grosseiros na imagem, apenas algoritmos mais avançados conseguem identificar padrões diferentes do real. Outro desafio é que, mesmo assim, eles precisam evoluir à medida que os geradores de imagem fake evoluem. Essa é uma área de grande atenção dos especialistas militares.
Mudanças no clima e desmatamento
Outra aplicação sensível das imagens de satélite, além da militar, são os eventos relacionados ao clima, aos desastres naturais ou às alterações provocadas pelo homem. Um exemplo é o avanço do desmatamento na Amazônia causado por queimadas, que pode ser facilmente detectado por satélite. Mas há como acobertar por algum tempo esse crime ambiental se as imagens foram forjadas? Assim, fiscais que se baseiam nesse tipo de imagem podem perder o timing de ação.
Além dos algoritmos que detectam deepfake, pelo menos existem outras formas de perceber alterações. Uma delas é acompanhar uma área com fotos ao longo do tempo. Existem redes de satélites que tiram fotos do globo todo ao menos uma vez ao dia, como a constelação de mais de 200 cubesats (satélites-cubo) da empresa Planet Labs. Dessa forma, as mudanças são perceptíveis acompanhando as alterações diárias.
Opinião pública
Uma vez que possa existir dúvidas se uma imagem de satélite é real ou não, pode existir um jogo de verdade ou mentira. Um exemplo são as imagens de queimadas na floresta Amazônica que, apesar de verdadeiras, podem ser questionadas e tidas como falsas diante acusações de que elas foram fraudadas. A dúvida divide o público e cada lado acredita em sua verdade. Uma vantagem é que as imagens de satélite são mais difíceis de serem obtidas, visto que vêm do espaço. Assim, pode existir um controle maior do que é publicado pois são imagens proprietárias. De qualquer forma, é preciso ficarmos atentos ao que a tecnologia deepfake tem possibilitado.
Leitura crítica
Mesmo que métodos e algoritmos possam detectar a quebra de integridade de uma imagem feita com deepfake, vivemos em um novo momento de pós-verdade que um fato ou evidência não é tão importante quanto a interpretação que damos a ele. A leitura delas vai além do que enxergamos e passam por nossas crenças e sentimentos. Uma forma de fazer uma leitura crítica de imagens digitais foi proposta por Lackovic, e a leitura atenta passa por ver a imagem, identificar os elementos que ela contém e quais as interpretações que estes elementos incitam juntamente com a mensagem associada. Se a mensagem passada corrobora com crenças e sentimentos de uma população, ela amplifica aqui.
Análise de Daniel Schultz, Monica Matsumoto, Shridhar Jayanthi, Guilherme Pimentel , Luiz Gustavo Martins e Cristina Schultz para o Tilt/UOL
Nenhum comentário:
Postar um comentário