DARPA inicia busca de uma solução para a Deepfake

0
12

O Departamento de Defesa dos Estados Unidos está procurando construir ferramentas que possam detectar rapidamente deepfakes e outras mídias manipuladas em meio à crescente ameaça de “ataques de desinformação automatizados em larga escala”.

A Agência de Projetos de Pesquisas Avançadas de Defesa anunciou na terça-feira que vai sediar um dia proponente para uma próxima iniciativa focada em conter a disseminação de deepfakes maliciosos, imagens chocantemente realistas, mas falsificadas, áudio e vídeos gerados pela inteligência artificial. Sob o programa Semantic Forensics, ou SemaFor, os pesquisadores pretendem ajudar aos computadores a usar o bom senso e o raciocínio lógico para detectar meios manipulados.

À medida que os adversários globais aprimoram suas capacidades tecnológicas, os deepfakes e outras táticas avançadas de desinformação estão se tornando uma das principais preocupações da comunidade de segurança nacional. A Rússia já mostrou o potencial da mídia falsa para influenciar a opinião pública durante as eleições de 2016 e, à medida que ferramentas profundas se tornam mais avançadas e prontamente disponíveis, os especialistas temem que os maus atores usem a tecnologia para impulsionar campanhas de influência cada vez mais poderosas.

A indústria começou a desenvolver tecnologia que usa métodos estatísticos para determinar se um vídeo ou imagem foi manipulado, mas, de acordo com a DARPA, as ferramentas existentes “estão se tornando rapidamente insuficientes”, conforme as técnicas de manipulação continuam avançando.

“Técnicas de detecção que dependem de impressões digitais estatísticas muitas vezes podem ser enganadas com recursos adicionais limitados”, disseram autoridades em um post no FedBizOpps.

No entanto, eles acrescentaram que a mídia manipulada geralmente contém “erros semânticos” que as ferramentas de detecção existentes geralmente negligenciam. Ao ensinar os computadores a detectar esses erros – como brincos incompatíveis em uma pessoa – os pesquisadores podem dificultar que os falsificadores digitais saiam do radar.

Além de simplesmente detectar erros, os funcionários também querem que as ferramentas atribuam a mídia a diferentes grupos e determinem se o conteúdo foi manipulado para fins nefastos. Usando essa informação, o técnico iria sinalizar posts para revisão humana.

“Um conjunto abrangente de detectores de inconsistência semântica aumentaria dramaticamente a carga sobre falsificadores de mídia, exigindo que os criadores de mídia falsificada corrigissem todos os detalhes semânticos, enquanto os defensores só precisariam encontrar uma ou poucas inconsistências”, disseram os funcionários da DARPA.

Mas é mais fácil falar do que fazer. Hoje, mesmo as plataformas de inteligência de máquina mais avançadas têm dificuldade em entender o mundo além de seus dados de treinamento. Nos próximos anos, a DARPA planeja despejar recursos significativos na construção de máquinas capazes de raciocínio e lógica do senso comum.

A agência sediará um dia de proponentes para o programa SemaFor em 28 de agosto, e grupos interessados ​​em participar devem se inscrever até o dia 21 de agosto. Os oficiais antecipam o lançamento de um amplo anúncio da agência sobre o programa nas próximas semanas.

Deixe uma resposta