Impedindo a manipulação no reconhecimento facial automatizado

Desde o desbloqueio de smartphones até a aceleração das verificações de segurança nos aeroportos: o uso do reconhecimento facial automatizado para identificação pessoal continua a crescer. Mas esse método de autenticação é vulnerável a ataques morphing: os criminosos podem usá-lo mal ao combinar duas imagens faciais diferentes em uma. Um único passaporte com uma fotografia manipulada dessa maneira pode ser usado por duas pessoas diferentes. Juntamente com seus parceiros, as equipes de pesquisa da Fraunhofer estão desenvolvendo um sistema que frustra esse tipo de ataque usando métodos de aprendizado de máquina.

Os viajantes que visitam regularmente os EUA costumam ser convidados a olhar para a câmera durante a inspeção do passaporte. A foto eletrônica é comparada instantaneamente com a foto armazenada no passaporte biométrico. Nesse processo de reconhecimento facial biométrico, um programa captura os dados digitais da imagem ao vivo e os compara com os dados da imagem do chip para determinar se as características faciais individuais nas fotos são ou não compatíveis. O reconhecimento de rosto também pode ser usado para desbloquear smartphones e tablets. Este método visa bloquear terceiros não autorizados e restringir o acesso a dados confidenciais. Mas a tecnologia é vulnerável a ataques direcionados, como uma variedade de testes já demonstrou. “processamento digital de imagens em processos de transformação. “Em um ataque de transformação, duas imagens faciais são fundidas em uma única imagem facial sintética que contém as características de ambas as pessoas”, explica Wandzik. Como resultado, os sistemas biométricos de reconhecimento de faces autenticam a identidade de ambas as pessoas com base nessa foto manipulada no passaporte.

Esses ataques podem ocorrer, por exemplo, antes ou durante o processo de solicitação de um documento de identificação. No projeto ANANAS (da sigla alemã para “Detecção de anomalias para prevenção de ataques em sistemas de autenticação baseados em imagens faciais”), os parceiros estão focando esse problema analisando e pesquisando dados de imagem simulados. Aqui eles aplicam métodos modernos de processamento de imagens e aprendizado de máquina, em particular redes neurais profundas projetadas explicitamente para o processamento de dados de imagens. Essas redes complexas consistem em um grande número de níveis que estão vinculados entre si em estruturas multicamadas. Eles são baseados em conexões entre unidades de cálculo matemático e imitam a estrutura neural do cérebro humano.

Prevenção de roubo de identidade com redes neurais

Para testar os processos e sistemas que estão sendo desenvolvidos, os parceiros do projeto começam gerando os dados usados ​​para treinar os programas de processamento de imagens para detectar manipulações. Aqui faces diferentes são transformadas em uma face. “Usando imagens faciais morphed e reais, treinamos redes neurais profundas para decidir se uma determinada imagem facial é autêntica ou o produto de um algoritmo de metamorfose. As redes podem reconhecer imagens manipuladas com base nas alterações que ocorrem durante a manipulação, especialmente em áreas semânticas. como características faciais ou reflexos nos olhos “, explica o professor Peter Eisert, chefe do departamento de Tecnologias de Visão e Imagem da Fraunhofer HHI.

Os algoritmos LRP tornam as previsões de IA explicáveis

As redes neurais tomam decisões muito confiáveis ​​sobre se uma imagem é genuína ou não, com uma taxa de precisão superior a 90% nos bancos de dados de teste criados no projeto. “Mas o problema real é muito mais do que não sabemos como a rede neural toma a decisão”, diz Eisert. Assim, além da precisão da decisão, os pesquisadores da Fraunhofer HHI também estão interessados ​​na base da decisão. Para responder a essa pergunta, eles analisam as regiões da imagem facial que são relevantes para a decisão usando os algoritmos LRP (Propagação de Relevância por Camada-Sábia) que eles mesmos desenvolveram. Isso ajuda a identificar áreas suspeitas em uma imagem facial e a identificar e classificar artefatos criados durante um processo de transformação. Testes de referência inicial confirmam que os algoritmos podem ser usados ​​para identificar com sucesso imagens morphed. O software LRP rotula as áreas faciais relevantes para a decisão de acordo. Os olhos freqüentemente fornecem evidências de violação de imagem.

Os pesquisadores também usam essas informações para projetar redes neurais mais robustas, a fim de detectar a maior variedade possível de métodos de ataque. “Os criminosos podem recorrer a métodos de ataque cada vez mais sofisticados, por exemplo, métodos de IA que geram imagens faciais completamente artificiais. Ao otimizar nossas redes neurais, estamos tentando ficar um passo à frente dos culpados e identificar futuros ataques”, diz a equipe de TI. professor.

Já existe um pacote de software demonstrador, incluindo procedimentos de detecção e avaliação de anomalias. Ele contém vários módulos detectores diferentes dos parceiros individuais do projeto que foram fundidos. Os módulos interconectados aplicam diferentes métodos de detecção para encontrar manipulações, gerando um resultado geral no final do processo. O objetivo é integrar o software nos sistemas de reconhecimento facial existentes nos pontos de verificação de fronteira ou aprimorar os sistemas para incluir componentes de transformação e, assim, descartar falsificações através de ataques correspondentes desse tipo.



PROPAGANDA
PROPAGANDA
PROPAGANDA