O iPhone é muitas coisas. É um portal de rede social, é um console de jogos – às vezes até um telefone. Para Jon McCormack da Apple, vice-presidente de engenharia de software de câmeras da Apple, é “principalmente uma câmera da qual você pode enviar mensagens de texto”.
Nem sempre foi assim. Quando Steve Jobs apresentou o iPhone em 2007, ele descreveu a famosa descrição de que ele era um iPod, um telefone e um dispositivo de comunicação pela Internet; o primeiro iPhone tive uma câmera, novos iPhones são câmeras. As fotos que o primeiro iPhone tirou eram mais úteis do que bonitas.
Hoje, porém, as fotos do iPhone cresceram e ele é hoje a câmera mais popular do mundo. Agora a questão é quão nítidas devem ser as imagens, e houve até algumas críticas de que as imagens obtidas são muito nítidas, se é que são muito nítidas. A câmera do iPhone não é mais apenas uma adição útil, mas é usada em contexto profissional e é frequentemente apontada como o principal motivo para atualizar para novos modelos.
Os novos modelos do iPhone 15, em particular os premium Pro e Pro Max, dão continuidade à missão da Apple de transformar seus smartphones em câmeras como nada na história da fotografia. Eles têm novos formatos de imagem, a adição de distâncias focais extras, e o iPhone 15 Pro Max ainda inclui uma lente 5x que faz uso de uma lente “tetraprismo” que reflete a luz dentro do telefone para adicionar muito mais zoom sem prejudicar o telefone. maior. Todo esse hardware adicional funciona em colaboração com software aprimorado: os usuários não precisam mais clicar no modo retrato, por exemplo, porque a câmera captura automaticamente informações de profundidade ao tirar uma foto de pessoas, para que o desfoque de fundo possa ser adicionado e editado mesmo depois a foto foi tirada.
A Apple também adicionou uma série de recursos que muitas pessoas provavelmente nem sequer olharão, muito menos usarão, mas que são importantes para os profissionais. Eles incluem a adição da codificação de log e do sistema de codificação de cores da Academy – ambos essenciais para quem precisa deles. A Apple também afirma que o novo iPhone tem “o equivalente a sete lentes profissionais”, apesar de na verdade ter apenas três; o que eles querem dizer é que você pode escolher cortes diferentes, o que em parte é uma tentativa de atrair aqueles fotógrafos profissionais que teimosamente dizem que só trabalharão com lentes de 50 mm, por exemplo. (Essas novas opções de lentes não são apenas uma versão recortada das lentes existentes, diz McCormack, uma vez que o telefone também possui redes neurais personalizadas projetadas especificamente para otimizar imagens nessa distância focal.)
Esses novos recursos complexos são um lembrete de que o iPhone é muitas coisas para muitos usuários: alguns podem simplesmente querer lembrar eventos importantes ou tirar fotos de seus animais de estimação. Outros podem ser fotógrafos verdadeiramente profissionais, precisando confiar no iPhone para capturar eventos valiosos e fugazes. Algumas pessoas são, sem dúvida, as duas coisas – e a Apple sabe que o iPhone também tem que ser as duas coisas.
“Para nós, o que consideramos realmente importante – especialmente desde que a fotografia computacional começou a confundir a linha entre hardware e software, e realmente permitir que qualquer pessoa tire fotos impressionantes com o mínimo de esforço – é garantir que a ferramenta que temos no seu bolso seja adaptando-se às suas necessidades”, afirma Maxime Veron, diretor sênior de marketing de produtos iPhone da Apple. “Então, se você está apenas tentando tirar uma foto rápida de seus filhos, pode sair do caminho e permitir que você faça isso. E se você deseja criar um vídeo no estilo de Hollywood criado profissionalmente, ele também pode oferecer a personalização e o poder para fazer isso.”
McCormack diz que a Apple constrói a câmera a partir da “crença central de que todo mundo tem uma história que vale a pena contar”. Para algumas pessoas, essa história pode ser a de seus filhos dando os primeiros passos, capturada em um vídeo que será compartilhado com apenas algumas pessoas. Ou pode ser um fotojornalista tirando imagens que serão compartilhadas com milhões de pessoas. “Nossa crença é que seu nível de conhecimento técnico não deve atrapalhar sua capacidade de contar essa história”, diz ele.
As câmeras de última geração muitas vezes exigem que seus usuários pensem em uma série de questões antes mesmo de pressionarem o botão para tirar uma foto: “a temperatura da luz, a quantidade de luz, a direção da luz, quão rápido é o assunto está se movendo? Quais são os tons de pele? observa McCormack.
Acesse streaming ilimitado de filmes e programas de TV com Amazon Prime Video
Inscreva-se agora para um teste gratuito de 30 dias
Acesse streaming ilimitado de filmes e programas de TV com Amazon Prime Video
Inscreva-se agora para um teste gratuito de 30 dias
“Cada segundo que você passa pensando nisso e brincando com suas configurações e coisas assim, são segundos que você sai do momento”, diz ele. “E o que queremos criar é esta ligação muito profunda entre o fotógrafo, o cinegrafista e o momento.” Ele aponta para o botão de ação dos modelos Pro deste ano, que pode ser programado para iniciar a câmera com um toque.
“É tudo uma questão de ser capaz de dizer toda essa complexidade louca da fotografia ou videografia – a Apple pegou isso, entendeu isso e escondeu isso de você”, diz ele. “Você, como fotógrafo, consegue se concentrar no que quer dizer e em encontrar aquele momento decisivo, encontrar aquele belo enquadramento, que diz o que você quer dizer.
“Mas a motivação para tudo isso e para usar toda essa ótima fotografia computacional e videografia computacional é que não queremos distraí-lo de contar a história que deseja contar.” Isso significou construir a câmera do iPhone de uma forma que os recursos “se desdobrassem”, diz ele. “Pronto para usar, vamos oferecer uma coisa incrível que cobrirá a maioria dos seus momentos, com muita faixa dinâmica, muita resolução, zero atraso do obturador, para que você possa capturar o momento.
“Mas é claro que há pessoas que vão olhar para isso e dizer, você sabe, tenho uma visão muito específica e prescritiva”, diz ele. Ele aponta para uma variedade de novas ferramentas integradas ao telefone, como o formato ProRAW, que cria arquivos enormes e não é especialmente útil para a maioria – mas pode ser fundamental para alguém que realmente deseja garantir que será capaz de processar cada detalhe de uma fotografia depois de tirada. Eles estão escondidos em ambientes, para as pessoas que precisam deles, mas não incomodando aqueles que não precisam. Veron também observa que muitos desses recursos extras são habilitados por “um incrível ecossistema de parceiros terceirizados” que criam aplicativos que permitem às pessoas obter os recursos que procuram.
É um lembrete de tudo o que está acontecendo assim que alguém tira uma foto com o iPhone. Primeiro, a luz passa por uma das três lentes da Apple e atinge um sensor de 48 megapixels – mas isso é apenas o começo de um longo processo de fotografia computacional que analisa e otimiza essa imagem. A fotografia tirada não é apenas uma imagem, por exemplo: na verdade é composta por múltiplas exposições, com mais ou menos luz, que podem então ser fundidas numa fotografia com toda a gama dinâmica.
“Este ano, pela primeira vez, nós os fundimos em uma resolução maior”, diz McCormack. Tira uma imagem em 12 megapixels, para fornecer uma velocidade de obturador rápida e muita luz, combinando pixels; em seguida, ele captura um quadro de 24 megapixels, que coleta os detalhes. “Depois, registramos tudo isso juntos e usamos um modelo de aprendizado de máquina personalizado para transferir os detalhes do 48 para o que agora se tornou o 24.”
Isso cria algo parecido com o negativo em termos de câmera antiga, no qual o processador do iPhone pode então trabalhar, usando partes de seu chip focadas em aprendizado de máquina. “Usamos o mecanismo neural para decompor aquela fotografia, pouco a pouco.” Ele notará se as pessoas têm tons de pele diferentes e desenvolverá essas partes da imagem de acordo; cabelos, olhos, um fundo em movimento e muito mais são desmontados e otimizados por conta própria. (A intensidade desse processo tem ocasionalmente levou a perguntas sobre se o telefone está trabalhando muito para que as imagens pareçam boas.)
Depois, há ainda mais trabalho para o sistema de câmeras. O iPhone usa mapeamento de tons para garantir que as imagens apareçam nas telas brilhantes dos iPhones modernos, mas também que ainda pareçam brilhantes em uma imagem compactada que pode ser enviada pela Internet; uma das muitas mudanças que os smartphones trouxeram para a fotografia é que, pela primeira vez, as fotos são maioritariamente visualizadas no mesmo dispositivo com que foram tiradas, mas também podem ser enviadas e vistas em qualquer lugar.
Se a imagem for tirada no modo noturno, há ainda mais trabalho, com novas ferramentas que garantem cores mais precisas. E isso sem falar no modo retrato, que ao registrar que há uma pessoa (ou animal de estimação) no quadro reunirá as informações de profundidade relevantes para garantir que o fundo possa ser manipulado posteriormente.
Todo esse processo – aqueles cinco parágrafos e milhares de cálculos pelo telefone – acontece no mais ínfimo momento após pressionar o botão para tirar a foto. O telefone pode parecer que está oferecendo serenamente uma imagem aos seus usuários, mas está trabalhando ativamente em segundo plano para garantir que a imagem seja a mais precisa e vibrante possível. Todo o trabalho realizado pela câmera e pelo resto do dispositivo depende de uma variedade de escolhas feitas não apenas pelo iPhone, mas pela Apple, o que explica a aparência da imagem moderna do iPhone – Veron diz que seu objetivo ao tomar essas decisões é para criar “memórias lindas e realistas com apenas um clique”.
McCormack está claramente consciente da responsabilidade dessa tarefa; sua visão decide como serão as memórias do mundo. “Este é o seu dispositivo que você carrega com você o tempo todo, e queremos estar muito, muito atenciosos com isso”, diz ele. Essa responsabilidade está presente no design da câmera do telefone: rumores sugeriam que o modelo deste ano incluiria um design de “periscópio” para o zoom longo, refletindo a luz por todo o comprimento do iPhone, mas McCormack diz que a Apple optou pelo prisma de cinco direções para garantir que ele poderia “manter o design industrial que desejamos, apenas para fazer o iPhone se sentir tão bem em sua mão, mas também ser capaz de obter aquela distância focal extra”.
“É apenas uma daquelas coisas malucas – só a Apple vai fazer algo assim. E estou muito feliz que seja assim que pensamos sobre o produto.”
Reescreva o texto para BR e mantenha a HTML tags