Celulares

Por Filipe Garrett, para o TechTudo


Os novos iPhones 11, 11 Pro e 11 Pro Max contam com o suporte ao recurso Deep Fusion, liberado pela Apple a partir do iOS 13.2. Em linhas gerais, a tecnologia permite que os smartphones apliquem a capacidade de processamento do chip A13 Bionic para compor imagens com menos ruído e de maior qualidade, formando fotografias a partir da combinação de uma série de fotos extras que o aparelho gera sem que o usuário sequer perceba. A tecnologia de processamento de imagem da Apple não é a única no arsenal do iOS, que oferece ainda o Modo Noturno e o Smart HDR.

iPhone 11 em mãos: saiba tudo sobre o lançamento da Apple

iPhone 11 em mãos: saiba tudo sobre o lançamento da Apple

O Deep Fusion funciona a partir de nove imagens que são combinadas para formar a foto final. Antes mesmo do usuário clicar no botão que dispara o obturador no app de câmera, o iPhone já gerou pelo menos quatro dessas fotos. Depois do clique, mais quatro fotos são formadas, complementadas ainda por uma última captura de maior tempo de exposição.

Todas as imagens são analisadas imediatamente, de forma que os recursos de processamento de IA do A13 Bionic identifiquem as melhores amostras entre cada uma delas. Na sequência, o iPhone combina esses melhores trechos de cada foto para a formação da imagem final.

O resultado é que as fotos formadas com Deep Fusion tendem a ter melhor contraste e nitidez, além de se beneficiarem de um tratamento que reduz o nível de ruído. Em fotos, ruído é aquela distorção formada por pontinhos multicoloridos espalhados na foto, comuns especialmente em fotos feitas em locais com pouca iluminação.

Como o ruído não vai ser igual de foto a foto, o iPhone consegue isolar os melhores recortes entre as imagens capturadas no processo, de forma a condensar tudo numa foto final que apresenta um índice menor de ruído.

Além da eliminação do ruído

Fotos com Deep Fusion tem menos ruídos e realçam traços em texturas — Foto: Divulgação/Apple Fotos com Deep Fusion tem menos ruídos e realçam traços em texturas — Foto: Divulgação/Apple

Fotos com Deep Fusion tem menos ruídos e realçam traços em texturas — Foto: Divulgação/Apple

O uso de várias amostras de uma mesma cena para formar a foto final não serve apenas para que a fotografia pareça mais limpa, com menor intensidade de ruído. Uma vantagem da tecnologia é a de que o processamento pela IA acaba realçando traços e elementos que tendem a ficar em menor evidência nas fotos geradas por smartphones.

Como a análise que confere cada uma das imagens para montar a foto final analisa os resultados pixel a pixel, o sistema tende não apenas a isolar ruídos e outros artefatos, como também a ressaltar detalhes menores, como são o caso do aspecto de tecidos, da pele, cabelos etc.

Outros exemplos mais perceptíveis são texturas, como tecidos, pele ou mesmo o revestimento de uma parede ou piso. Com o Deep Fusion, a foto final expõe mais granularidade e revela detalhes desses elementos.

Foto de longa exposição e o HDR

Recurso depende do A13 Bionic para funcionar e por isso fica restrito aos iPhones 11, 11 Pro e 11 Pro Max — Foto: Thássius Veloso/TechTudo Recurso depende do A13 Bionic para funcionar e por isso fica restrito aos iPhones 11, 11 Pro e 11 Pro Max — Foto: Thássius Veloso/TechTudo

Recurso depende do A13 Bionic para funcionar e por isso fica restrito aos iPhones 11, 11 Pro e 11 Pro Max — Foto: Thássius Veloso/TechTudo

Longa exposição, em fotografia, significa uma foto formada com o obturador – o disparo da câmera – aberto por mais tempo. No processo Deep Fusion, o iPhone gera uma foto com exposição longa para compensar deficiências em iluminação que o ambiente pode oferecer. Além disso, o clique extra tem papel fundamental na criação de imagem HDR.

No começo do processo, entre aquele primeiro grupo de fotos, o iPhone gera uma delas com um valor de exposição negativo, algo que cria uma foto bem mais escura.

A combinação desses dois extremos é essencial para que o sistema crie o HDR da foto. A tecnologia, que basicamente aumenta a qualidade de imagem por conta da amplitude entre o ponto mais escuro e o mais claro, se benefício dessa abordagem por conta da presença de duas fotos que definem esses dois extremos.

Estratégia da Apple

Tecnologia da Apple lembra a estratégia do Google com os Pixel: software poderoso em vez de muitos megapixels — Foto: Thássius Veloso/TechTudo Tecnologia da Apple lembra a estratégia do Google com os Pixel: software poderoso em vez de muitos megapixels — Foto: Thássius Veloso/TechTudo

Tecnologia da Apple lembra a estratégia do Google com os Pixel: software poderoso em vez de muitos megapixels — Foto: Thássius Veloso/TechTudo

O Deep Fusion é uma ferramenta poderosa que promete funcionar sem que o usuário sequer perceba (embora não possa ser usado no modo de disparo contínuo por conta da impossibilidade de que o sistema capture as fotos extras) e que indica uma estratégia diferente da Apple quando o assunto é fotografia.

Em vez de se envolver na corrida por mais e mais megapixels, a maçã parece mais interessada em contornar as limitações da fotografia digital em smartphones por meio de processamento e software, caminho que já vem sendo trilhado com sucesso pelo Google na linha Pixel.

Com informações de Apple (1/2), iMore, Pocket-Lint, PhoneArena e 9to5Mac

Confira os preços de iPhone 11, iPhone 11 Pro e iPhone 11 Pro Max no Brasil

Confira os preços de iPhone 11, iPhone 11 Pro e iPhone 11 Pro Max no Brasil

Mais do TechTudo