O Google Pixel 2 é um “animal” completamente diferente dos concorrentes, entenda!

Google Pixel 2 / XL se parece exatamente com qualquer outro smartphone, mas há algo poderoso e inovador escondido por dentro dele: a inteligência artificial (AI). Primeiro, vejamos o óbvio: o Pixel 2 / XL, ao contrário de muitos outros Smartphones, não possui duas câmeras na traseira nem na frontal. Mas ainda ainda assim, consegue capturar imagens com o Modo Retrato com muita precisão, mesmo com apenas uma câmera.

Mas como isso é possível? Pois bem, o renomado site PhoneArena tomou a liberdade de criar um artigo descrevendo tudo que é possível fazer com o conjunto de câmeras dos novos smartphones do Google. Tudo se resume na engenharia inteligente e o poder da IA ​​que se juntam para tornar isso possível.

Explicando o modo retrato.

Existem três coisas importantes que acontecem no Pixel 2 / XL para ativar o modo retrato com apenas uma câmera: HDR+, máscara de segmentação formada pela inteligência artificialmapa de profundidade.

HDR+ é “animal”

O HDR+ no Pixel 2 é completamente diferente. Faz até 10 fotografias, e faz isso toda vez. Essas imagens são subexpostas para evitar ficar com brilho estourado (queimados) e, em seguida, são todas combinados e alinhadas em uma única imagem.

O poder da Inteligencia artificial (IA)

Ao usar a imagem HDR+, o Smartphone deve decidir qual parte da imagem deve estar em foco e qual deve ser borrada. É aí que a inteligência artificial trabalha: o Google treinou uma rede neural para reconhecer pessoas, animais de estimação, flores e coisas do gênero. A rede neural filtra a imagem reconhecendo as sombras dos arredores em torno de cada pixel primeiro, e começa a descobrir cores e bordas, então continua a filtrar até achar rostos, depois características faciais, e assim por diante.

A tecnologia de Pixels Duplos

O Pixel 2 possui um sensor de câmera dual pixel. Isso não é novo: os celulares Samsung foram os primeiros a ter isso. O que se resume é que, no sensor da câmera, cada pixel está realmente dividido em dois pequenos subpíxeles (é chamado de Autofoco Dual Pixel ou DPAF) que captura a mesma informação de um ângulo muito, muito rapidamente.

Essa diferença foi usada no Galaxy S7 em diante, mas para dar um nível superior por sua auto-focagem ultra rápida. O Google encontrou outro uso para isso: ele usa essa diferença muito pequena para determinar quão longe cada objeto está da câmera. Veja o gráfico abaixo:

O resultado disso tudo:

Aqui está o resultado final, que a propósito é bastante surpreendente: as partes mais brilhantes estão mais próximas, enquanto as partes mais escuras estão mais longe:

Se parece complicado, é porque realmente é, algum trabalho de engenharia impressionante foi feito para aperfeiçoar isso e o Google trabalhou arduamente para fazer com que fosse filtrado o ruído em uma explosão adicional de imagens para obter resultados mais adequados.

Estes são os resultados da máscara de profundidade

[gallery columns="2" link="file" size="medium" ids="56656,56657,56658,56621"]

Finalmente, todas essas etapas são combinadas em uma única imagem que entrega um resultado deslumbrante. Observe como a quantidade de desfocagem é correta e até mesmo a massa em frente é desfocada, observe cada fio de cabelo devidamente reconhecido e com foco nítido.

Via

Sobre Uanderson Conceição

Chief executive officer (CEO) na empresa Meu-Smartphone. Youtuber, adora praticar Downhill Mountain Bike, entusiasta da natureza e acredita soberanamente em Deus.