Reviews

iPhone 13-camera voordat iPhone 14 wordt gelanceerd: Apple en Android slagen er steeds niet in om echte cameratelefoons te maken

Written by admin

Fotografie, zoals je ouders of grootouders het vroeger kenden, is een uitstervend ras.

Als 20 jaar geleden het idee van een foto was om een ​​belangrijk moment in iemands leven zo authentiek mogelijk vast te leggen, leven we vandaag in een andere wereld… Eerlijk genoeg had niet iedereen in 1980 een camera, en telefoons zijn erin geslaagd om dit eens onbereikbare ding zeer toegankelijk, wat geweldig is!

Echter, zoals blijkt in 2022, draait de wereld minder om authenticiteit en meer om “alles beter maken” – wat dat ook mag betekenen. Tegenwoordig worden foto’s (onder andere) verondersteld om onze realiteit te versterken en het “cool en leuk” te maken. Je baby kan konijnenoren hebben en je kunt regenbogen kotsen.

Maar er is meer dan alleen Snapchat-filters die het uiterlijk van je foto’s verbeteren, en het komt allemaal neer op iets dat ‘ computationele fotografie. Het is het “verborgen filter” waardoor foto’s die met uw telefoon zijn gemaakt, er “klaar om online te delen” uitzien.

Dit kleine experiment zal proberen te pronken met de voor- en nadelen van moderne telefooncamera’s met computerfotografie, en de telefoon die ik heb gekozen is die van Apple

– een van de meest populaire telefoons in de afgelopen tien maanden.

Voordat ik u een aantal “voor en na” voorbeeldfoto’s laat zien, wil ik eerst iets vaststellen: ik weet heel goed dat mensen van foto’s houden die klaar zijn om online te worden gedeeld. En hoewel ik misschien niet een van hen ben, denk ik dat ik misschien weet wat hier is gebeurd …

Kortom, sociale media speelden een grote rol in de vraag naar ‘Instagram-ready’ foto’s (dat is een term die we in de technische gemeenschap ook gebruiken). Over dat gesproken de gramsinds de opkomst in 2010 heeft het sociale netwerk voor het delen van foto’s en video’s het gebruik van gedurfde filters met overdreven kleuren aangemoedigd, die mensen gewoon niet konden weerstaan, wat natuurlijk betekende dat Apple en Android aan boord zouden springen …

Instagram was bijvoorbeeld de reden Apple voelde de behoefte om een ​​Square Photo-modus op te nemen in de iPhone 5S (2013), die bijna tien jaar deel uitmaakte van de camera van de iPhone. Maar nog belangrijker, dit was rond de tijd dat iPhone en Android begonnen met het toevoegen van fotofilters aan hun stockcamera-apps. Omdat de Instagram-koorts duidelijk maakte dat mensen van filters hielden.

En toen… kwamen we in het tijdperk van wat ik ‘filters op steroïden’ of ‘hardcore computationele fotografie’ of ‘geavanceerde filters’ noem, als je wilt. De telefoon die in mijn gedachten de adoptie van “hardcore computationele fotografie” vertegenwoordigt, is die van Google Nexus 6P. In deze telefoon kwam (de meeste) computationele fotografie in de vorm van iets dat HDR+.

Wat HDR+ deed, was “geavanceerde beeldstapeling”. HDR+ maakte deel uit van de nabewerkingsfase van het maken van een foto met de Nexus 6P/Nexus 5X en zijn rol was om de hooglichten en schaduwen in scènes met hoog contrast in evenwicht te brengen – een van de grootste uitdagingen voor telefoons in 2014-2015 ( naast het pure onvermogen om bruikbare nachtfoto’s te maken).

Hoe dan ook, in een kort oordeel over HDR+: het maakte de Nexus 6P tot een van de beste telefoons voor het maken van foto’s. Natuurlijk speelt mijn vooroordeel een rol in die verklaring (ik heb nooit een Nexus 6P gekocht, maar het was alleen omdat ik het niet kon betalen), maar het viel niet te ontkennen dat de wat donkerdere foto’s die Google’s vlaggenschepen uit 2015 nam iets hadden erg hen aanspreken. Andere tech-enthousiastelingen hielden ook van hen.

Licht, highlights en schaduwen: waar fotografie echt over zou moeten gaan

Pas ongeveer een jaar geleden zag ik een briljante video van 24 minuten van David Imel waarmee ik kon verwoorden wat ik voelde over de tijd dat de Nexus 6P en de originele Google Pixel-camera’s de telefooncamera-industrie regeerden.

Om het verhaal van 24 minuten samen te vatten: David trekt een parallel tussen moderne computationele fotografie en klassieke kunst, allemaal in een poging om het belang van licht voor zowel fotografie als schilderijen uit te leggen.

Wat hij probeert uit te leggen is dat in de begindagen van de fotografie de artistieke controle/het element (in foto’s) volledig gebaseerd was op “de intensiteit van de highlights en de diepte van de schaduwen” – zoals in schilderijen. Die worden gebruikt om gevoelens op te wekken en diepte te creëren door tonaliteit in onze foto’s. Dit is vooral duidelijk bij zwart-witfotografie, waar licht, schaduwen en hooglichten vrijwel de enige elementen zijn die voor nuance en perspectief zorgen.

Maar, zoals hij zegt, “de rekensnelheid ging veel sneller vooruit dan de natuurkunde veranderde”, en het lijkt erop dat dit de reden is waarom ik niet van veel van de foto’s houd die mijn superkrachtige iPhone 13 maakt en ik wou dat ze er meer uitzagen de originele afbeeldingen van Google Pixel.

iPhone 13, Galaxy S22, Pixel 6 maken foto’s die de werkelijkheid niet vertegenwoordigen en die niet altijd aantrekkelijker zijn dan hoe de echte scène eruitziet

Wat we hier zien, zijn een aantal foto’s die ik heb gemaakt met de iPhone 13 in de volledig automatische modus. Het is belangrijk op te merken dat ik niet begon met het maken van foto’s om mijn punt te maken, maar de foto’s die de iPhone 13 me gaf, werden de reden om dit verhaal te schrijven…

Hoe dan ook, iPhone 13-foto’s die in de automatische modus zijn gemaakt, bevinden zich aan de linkerkant en dezelfde iPhone 13-foto’s, die ik heb bewerkt, staan ​​​​aan de rechterkant. Ik heb ze niet naar mijn smaak aangepast, maar naar de authenticiteit van de scene op dat moment (en naar mijn beste vermogen).

Ik heb ervoor gekozen om de foto’s te bewerken met de fotobewerkingsmogelijkheden van de iPhone, omdat de meeste mensen daar toegang toe hebben. Natuurlijk zou Lightroom me veel meer (en betere) controle hebben gegeven over de verschillende eigenschappen van de afbeeldingen (die niet in RAW-formaat zijn gemaakt), maar dat is hier niet het idee.

Als je nieuwsgierig bent, wat me het meest heeft geholpen bij mijn poging om de foto’s van de iPhone 13 er realistischer uit te laten zien, was het terugslepen van de schuifregelaars Helderheid en Belichting. Dat betekent dat foto’s gemaakt met moderne telefoons te licht zijn. Vervolgens hielpen enkele aanpassingen aan Brilliance en Highlight en Shadow me om een ​​nog nauwkeuriger resultaat te krijgen.

iPhone 13, Galaxy S22 en Pixel 6 tonen de problemen van moderne HDR en computationele fotografie

De resultaten vertellen me dat computationele fotografie op telefoons tegenwoordig letterlijk een hit of een misser is.

Aan de ene kant zullen sommige mensen de standaarduitvoer van de iPhone 13, Galaxy S22 en Pixel 6 leuk vinden (de Galaxy maakt ook foto’s die te helder zijn, terwijl de Pixel’s ongelooflijk plat zijn), omdat ze “deelbaar” zijn. Maar zelfs als we authenticiteit buiten beschouwing laten, zou ik zeggen dat de verwerking van de iPhone foto’s er niet “beter” uit laat zien dan hoe de scène eruitzag. Kijk nog eens naar de bovenstaande voorbeelden. Welke foto’s vind je leuker? Die aan de linkerkant of die aan de rechterkant?

Appel, Samsung, Google & Co hebben op alle drie de gebieden verbluffende vooruitgang geboekt dankzij grote camerasensoren (opname), snelle processors, inclusief speciale beeldprocessors (proces), en superheldere en kleurnauwkeurige schermen waarmee u uw foto’s kunt bekijken (weergave) . Ik zou echter willen beweren dat, zoals vaak gebeurt, we niet weten wanneer we moeten stoppen … Zoals de zaken er nu voorstaan, misbruiken de meeste telefoonfabrikanten de ongelooflijke software- en hardwarekracht die de moderne telefooncamera biedt.

Foto’s en zelfs video’s die met iPhone 13 en andere moderne telefoons zijn gemaakt, lijken vaak te helder, te scherp, te plat en uiteindelijk “levenloos”. Natuurlijk kunnen ze zowel de hooglichten als de schaduwen ongelooflijk goed vastleggen en zelfs de nacht in dag veranderen dankzij de nachtmodus, maar zonder het element van balans en natuurlijk contrast, zullen foto’s die met de meeste telefoons zijn gemaakt geen enkel gevoel oproepen…

Maar hé! Op Instagram zien ze er goed uit.

Uiteindelijk: er is licht aan het einde van de tunnel van computationele fotografie dankzij Sony en Xiaomi

Om met een positieve noot te eindigen, is er licht (bedoelde woordspeling) aan het einde van de tunnel!

In tegenstelling tot Apple en Samsung houden bedrijven van Sony heeft altijd geprobeerd vast te houden aan de basis van fotografie, en dat blijkt uit het feit dat de Sony Xperia 1 IV ongelooflijke verwerkingskracht heeft, maar niet eens een nachtmodus in de camera heeft. De telefoon brengt ook de eerste continue zoom op een moderne smartphone, die zo dicht bij een “echte camerazoom” komt als we ooit hebben gekregen. En dan hebben we natuurlijk de Xiaomi 12S Ultra, die een volledige 1-inch sensor en Leica’s magie gebruikt om enkele van de beste foto’s te leveren die ik ooit uit een telefooncamera heb zien komen (zo niet de allerbeste). Xiaomi en Leica kozen ervoor om de schaduwen schaduwen te laten zijn, oververscherping te vermijden en te vertrouwen op baanbrekende hardware, wat (schokkend!) resulteert in foto’s met ongelooflijke diepte en natuurlijke details.

Dus ik roep Apple, Samsung en zelfs Google op om terug te gaan en naar de originele Pixel te kijken; ga terug en kijk naar de iPhone 4S (zo oninteressant als de camera vandaag de dag lijkt), en breng het realisme terug in onze foto’s. Ik weet zeker dat met de toenemende kracht van hardware en software, een vleugje authenticiteit kan een heel eind komen!

En weet je – voor degenen die heldere en verzadigde foto’s willen… Geef ze filters!

About the author

admin

Leave a Comment