A Apple está testando o recurso de câmera Deep Fusion no iPhone 11 e iPhone 11 Pro no iOS 13 developer beta

A Apple atualiza o iOS 13 em um ritmo recorde, em parte para adicionar novos recursos, mas principalmente para corrigir bugs.

Mas isso não significa que recursos adicionais ainda não estejam no horizonte. Por exemplo, o recurso da câmera Deep Fusion, que a Apple anunciou em seu evento "apenas por inovação" no início deste ano, ao lado do iPhone 11 e iPhone 11 Pro. A Apple sempre disse que o recurso seria lançado em uma data posterior, com uma atualização de software subsequente para o iOS 13, e agora o recurso está na versão beta.

The Verge tem o relatório hoje, descrevendo como a Apple está trabalhando no próximo lançamento público do Deep Fusion e como o recurso tornará as câmeras já impressionantes nos mais novos smartphones da Apple ainda melhores.

Você pode ver o resultado de uma foto capturada com o Deep Fusion na imagem na parte superior deste artigo.

O Deep Fusion é um recurso importante para imagens de "luz média a baixa". Também é um recurso executado inteiramente em segundo plano, trabalhando para otimizar e melhorar as imagens enquanto o proprietário do iPhone 11/11 Pro tira fotos em movimento.

O relatório apresenta uma boa descrição de como deve funcionar em segundo plano:

  1. Quando você pressiona o botão do obturador, a câmera já capturou três quadros em uma velocidade rápida do obturador para congelar o movimento na foto. Quando você pressiona o obturador, são necessárias três fotos adicionais e uma exposição mais longa para capturar detalhes.
  2. Essas três fotos regulares e de longa exposição são mescladas ao que a Apple chama de "longa sintética" - essa é uma grande diferença do Smart HDR.
  3. O Deep Fusion seleciona a imagem de exposição curta com mais detalhes e a mescla com a exposição longa sintética - ao contrário do Smart HDR, o Deep Fusion mescla esses dois quadros, e não mais. Essas duas imagens também são processadas para um ruído diferente do Smart HDR, de uma maneira melhor para o Deep Fusion.
  4. As imagens são executadas em quatro etapas de processamento de detalhes, pixel por pixel, cada uma adaptada a quantidades cada vez maiores de detalhes - o céu e as paredes estão na faixa mais baixa, enquanto a pele, o cabelo, os tecidos etc. são os mais altos. Isso gera uma série de ponderações sobre como mesclar as duas imagens - obtendo detalhes de uma e tom, cor e luminosidade da outra..
  5. A imagem final é gerada.

De acordo com o relatório, a lente telefoto utilizará principalmente o Deep Fusion, com o recurso Smart HDR assumindo apenas um tiro quando houver cenas muito claras. Enquanto isso, a lente grande angular padrão dependerá principalmente do recurso Smart HDR para cenas brilhantes a médias e o Deep Fusion entrará em cena com as cenas de luz média a baixa. A lente ultra-larga nunca usará o Deep Fusion ou o Modo noturno, porque suporta apenas o recurso Smart HDR e nenhum dos outros recursos..

O modo noturno sempre entra em ação e é o principal recurso em um cenário de pouca luz.

Conforme observado no relatório, a Apple atualmente está testando o recurso em uma versão beta do iOS 13. No entanto, essa versão não está disponível no momento para desenvolvedores nem testadores beta públicos. A Apple provavelmente lançará a primeira versão beta, com o Deep Fusion, em breve, possivelmente ainda mais tarde hoje, com o iOS 13.2.

Você está ansioso pela chegada do Deep Fusion?