iPhone 13-kamera före lansering av iPhone 14: Apple och Android fortsätter att misslyckas med att producera telefoner med en riktig kamera

Fotografering, som dina föräldrar eller farföräldrar visste, är en döende ras.

Om idén med fotografi för 20 år sedan var att fånga ett viktigt ögonblick i ens liv så autentiskt som möjligt, idag lever vi i en annan värld… Det är sant, alla hade inte en kamera 1980, och telefoner lyckades göra detta sak som en gång var ouppnåeligt mycket tillgänglig, vilket är underbart!

Men som det visar sig 2022 handlar världen mindre om äkthet och mer om att “göra allting bättre” – vad det nu än ska betyda. Numera ska bilder (bland annat) förstärka vår verklighet och göra den “cool och rolig”. Ditt barn kan ha kaninöron och du kan kasta upp regnbågar.

Men det finns mer än Snapchat-filter som förbättrar hur dina bilder ser ut, och det hela handlar om något som kallas Beräkningsfotografering. Detta är det “dolda filtret” som får bilder tagna på din telefon att se “webbenklara” ut.

Detta lilla experiment kommer att försöka visa för- och nackdelarna med moderna telefonkameror som stöder datorfotografering, och telefonen jag har valt är Apple

– En av de mest populära telefonerna de senaste tio månaderna.

Innan jag visar dig en samling exempel “före och efter”-bilder, låt mig säga något: Jag är väl medveten om att folk älskar foton som är redo att delas online. Och även om jag kanske inte är en av dem, tror jag att jag kanske vet vad som hände här…

Kort sagt, sociala medier har spelat en enorm roll i efterfrågan på “Instagram-färdiga” bilder (det är en term som vi faktiskt använder inom teknikgemenskapen). Tala grammetSedan det uppträdde 2010 har det sociala nätverket för foto- och videodelning uppmuntrat användningen av djärva filter med överdrivna färger som folk bara inte kunde motstå, vilket naturligtvis betyder att Apple och Android kommer att hoppa ombord…

Till exempel var Instagram anledningen Äpple Kände ett behov av att inkludera ett fyrkantigt fotoläge i iPhone 5S (2013), som har varit en del av iPhones kamera i nästan ett decennium. Ännu viktigare, dock, detta var runt den tid då iPhone och Android började lägga till fotofilter i sina kameraappar. Eftersom Instagram-febern gjorde det klart att folk älskar filter.

Och sedan… vi gick in i eran av vad jag kallar “filter på steroider” eller “hardcore datorfotografering”, eller “sofistikerade filter”, om du så vill. Telefonen som representerar antagandet av “hardcore computational photography” i mina ögon är Googles Nexus 6P. På den här telefonen kom (de flesta) datorfotografering i form av något som heter HDR+.

Vad HDR+ gjorde var “avancerad bildstapling”. HDR+ var en del av efterbearbetningssteget att ta en bild med Nexus 6P/Nexus 5X och dess uppgift var att balansera höjdpunkterna och skuggorna i scener med hög kontrast – en av de största utmaningarna för telefoner 2014-2015 (tillsammans med den totala oförmågan att producera användbara nattbilder).

Hur som helst, kort sagt för HDR+: det gjorde Nexus 6P till en av de bästa telefonerna för att ta bilder. Visst, min partiskhet spelar en roll i detta uttalande (jag köpte aldrig en Nexus 6P, men det var bara för att jag inte hade råd), men det går inte att förneka att de mörkare bilderna tagna av Googles 2015 flaggskepp har något är väldigt tilltalar dem. Andra tekniker älskade dem också.

Ljus, högdagrar och skuggor: vad fotografering egentligen borde handla om

För ungefär ett år sedan såg jag en lysande 24 minuters video av David Imel som lyckades hjälpa mig att formulera hur jag kände om den tid då Nexus 6P och de ursprungliga Google Pixel-kamerorna dominerade telefonkamerabranschen.

För att sammanfatta 24 minuter av en berättelse drar David en parallell mellan modern datorfotografi och klassisk konst, allt detta i ett försök att förklara ljusets betydelse för både fotografi och målningar.

Det han försöker förklara är att i fotografiets tidiga dagar baserades det kontroll/konstnärliga elementet (i bilder) helt “på styrkan i högdagrarna och skuggornas djup” – som i målningar. Dessa används för att uttrycka och skapa djup genom tonalitet i våra bilder. Detta märks särskilt i monokrom fotografering där ljus, skuggor och högdagrar i stort sett är de enda elementen som skapar nyanser och perspektiv.

Men, som han säger, “beräkningshastigheten har avancerat mycket snabbare än vad fysiken har förändrats”, och det verkar vara anledningen till att jag inte gillar många av bilderna som min kraftfulla iPhone 13 tar och önskar att de var mer som originalet Google Pixel-bilder.

iPhone 13, Galaxy S22, Pixel 6 tar bilder som inte representerar verkligheten och som inte alltid är mer attraktiva än den verkliga scenen ser ut

Det vi ser här är ett gäng bilder jag tog med iPhone 13 i helautomatiskt läge. Det är viktigt att notera att jag inte började ta bilder för att göra min poäng, men bilderna som iPhone 13 gav mig blev anledningen till att skriva den här historien…

Hur som helst, iPhone 13-bilder tagna i automatiskt läge är till vänster, och de iPhone 13-bilder jag redigerade är till höger. Jag anpassade dem inte efter min smak, utan efter äktheten av scenen på den tiden (och efter bästa förmåga).

Jag valde att redigera bilderna med hjälp av iPhones fotoredigeringsmöjligheter eftersom det är vad de flesta har tillgång till. Naturligtvis skulle Lightroom ha gett mig mycket mer (och bättre) kontroll över bildernas olika egenskaper (som inte är tagna i RAW-format), men det är inte meningen här.

Om du är nyfiken, det som hjälpte mig mest när jag försökte få iPhone 13-bilderna att se mer realistiska ut för scenen var att dra tillbaka reglagen för ljusstyrka och exponering. Vilket innebär att bilder tagna med moderna telefoner är för ljusa. Efter det hjälpte några justeringar av glöd och högdagrar och skugga mig att uppnå ett ännu mer exakt resultat.

iPhone 13, Galaxy S22 och Pixel 6 visar problemen med modern, beräkningsbaserad HDR-fotografering

Resultaten säger mig att datorfotografering på telefoner idag verkligen är hit eller miss.

Å ena sidan kommer vissa människor att gilla standardutgången för iPhone 13, Galaxy S22 och Pixel 6 (Galaxy tar också för ljusa bilder, medan pixlarna är otroligt platta), eftersom de är “delbara”. Men även om man lämnar äktheten åt sidan, skulle jag hävda att iPhones rendering inte riktigt får bilderna att se “bättre” ut än scenen gjorde. Ta en ny titt på exemplen som visas ovan. Vilka bilder gillar du mest? De till vänster eller de till höger?

Äpple, Samsung, Google & Co har gjort otroliga framsteg inom alla tre områden tack vare stora kamerasensorer (fångst), snabba processorer, inklusive dedikerade bildprocessorer (process), och superljusa, färgexakta skärmar som låter dig se dina foton (display). Men jag skulle hävda att vi, som ofta är fallet, inte vet när vi ska sluta… Som det ser ut missbrukar de flesta telefontillverkare den otroliga mjukvaran och hårdvaran som den moderna telefonkameran erbjuder.

Foton och till och med videor tagna med iPhone 13 och andra moderna telefoner ser ofta för ljusa ut, för skarpa, för platt och i slutändan “livlösa”. Visst, de kanske kan fånga både högdagrar och skuggor fantastiskt och till och med förvandla natt till dag tack vare nattläget, men utan inslaget av balans och naturlig kontrast kommer bilder tagna med de flesta telefoner inte att framkalla några känslor…

Men Hej! De ser bra ut på Instagram.

I slutändan: det finns ljus i slutet av beräkningsfotograferingstunneln tack vare Sony och Xiaomi

För att avsluta med en positiv ton så finns det ljus (pun intended) i slutet av tunneln!

Till skillnad från Apple och Samsung älskar företag Sony De har alltid försökt hålla sig till grunderna för fotografering, och det är uppenbart i det faktum att Sony Xperia 1 IV har otrolig processorkraft men inte ens inkluderar ett nattläge i sin kamera. Telefonen ger också den första kontinuerliga zoomen på en modern smartphone, som är så nära “äkta kamerazoom” som vi någonsin har kommit. Och så har vi såklart Xiaomi 12S Ultra, som använder en hel 1-tums sensor och Leicas magi för att leverera några av de bästa bilderna jag någonsin sett komma ur en telefonkamera (om inte den bästa). Xiaomi och Leica har valt att låta skuggorna vara skuggor, undvika överskärpning och förlita sig på banbrytande hårdvara, vilket resulterar (skräck!) i bilder med fantastiskt djup och naturliga detaljer.

Så jag uppmanar Apple, Samsung och till och med Google att gå tillbaka och titta på den ursprungliga Pixel; Gå tillbaka och titta på iPhone 4S (lika föga imponerande som kameran kan se ut idag), så återställer du realismen i våra bilder. Jag är säker på att med den ökande kraften hos hårdvara och mjukvara, en touch av äkthet kan gå långt!

Och du vet – för den som vill ha ljusa och mättade bilder… ge dem filter!

Leave a Comment