Como a detecção facial no dispositivo da Apple funciona

A Apple lançou hoje uma nova publicação no seu blog Machine Learning Journal, lançado no verão.

Intitulada “Uma rede neural profunda no dispositivo para detecção de rostos”, a publicação mais recente do blog se esforça bastante para detalhar processos que exigem muitos recursos de reconhecimento de rostos em suas fotografias, aproveitando o poder das CPUs e GPUs personalizadas da Apple.

A Apple reconhece que seu forte compromisso com a privacidade do usuário impede que ela use o poder da nuvem para cálculos de visão computacional. Além disso, todas as fotos e vídeos enviados para a Biblioteca de fotos do iCloud são criptografados no seu dispositivo antes de serem enviados para o iCloud e só podem ser descriptografados por dispositivos registrados com a conta do iCloud.

Alguns dos desafios que enfrentaram na execução de algoritmos de aprendizado profundo no iPhone:

Os modelos de aprendizado profundo precisam ser enviados como parte do sistema operacional, ocupando um valioso espaço de armazenamento NAND. Eles também precisam ser carregados na RAM e requerem tempo computacional significativo na GPU e / ou CPU. Diferentemente dos serviços baseados na nuvem, cujos recursos podem ser dedicados exclusivamente a um problema de visão, a computação no dispositivo deve ocorrer enquanto o compartilhamento desses recursos do sistema é feito com outros aplicativos em execução..

Mais importante, o cálculo deve ser eficiente o suficiente para processar uma grande biblioteca de fotos em um período razoavelmente curto, mas sem uso significativo de energia ou aumento térmico.

DICA: Ensine seu iPhone ou iPad a reconhecer o rosto das pessoas

Para superar esses desafios, a Apple usa o BNNS e o Metal para desbloquear e alavancar totalmente o poder de suas GPUs e CPUs projetadas internamente, incorporadas aos dispositivos iOS. Você pode sentir essa detecção facial no dispositivo no trabalho depois de atualizar para uma nova versão importante do iOS.

Isso geralmente solicita que o iOS verifique novamente toda a sua biblioteca de Fotos e execute o algoritmo de detecção facial em todas as fotos do zero, o que pode causar superaquecimento ou lentidão no dispositivo até que o Photos termine de digitalizar sua biblioteca.

A Apple começou a usar o deep learning para detecção de rosto no iOS 10.

Com o lançamento da nova estrutura Vision no iOS 11, os desenvolvedores agora podem usar essa tecnologia e muitos outros algoritmos de visão computacional em seus aplicativos.

A Apple observa que enfrentou "desafios significativos" no desenvolvimento da estrutura Vision para preservar a privacidade do usuário e permitir que a estrutura fosse executada com eficiência no dispositivo.