Portrait Selfies er min favorit ting der sker i smartphones lige nu. Jeg kan føle dine øjne rulle, når du læser dette, men hør mig et øjeblik. På teknisk plan ser vi et massivt skub for at forbedre kvaliteten af det frontvendte kamera, mens vi bruger dybdekort og farvekorrektion, så et foto øjeblikkeligt kan omdannes til noget nyt. Det er fascinerende og sjovt, og i de tidlige dage af denne funktion, der findes på smartphones, er der to massivt forskellige måder at skabe denne effekt på.
Apples True Deepth-kamera har flere sensorer til at skabe et dybdekort i realtid på iPhone X. Googles løsning er helt afhængig af maskinlæring og et imponerende enkelt kamera for at opnå den samme effekt på Pixel 2. Her er et kig på, hvordan disse to metoder sammenligne!
Den første ting, du har brug for at forstå, når man sammenligner disse kameraer, er hvor Apple og Google prioriterer det, når det gælder de fotos, der produceres. Vi ved, at det er teknisk, at disse to telefoner har de bedste fotokapaciteter i verden lige nu, hvor den eneste læseforskel for de fleste er, hvilke dele af fotografiet, og hvilke funktioner der prioriterer.
I disse skud vises to ting hurtigt. Baggrunden i iPhone X-skuddet er sprængt i et forsøg på at sikre, at mit ansigt er godt oplyst og korrekt farvet. Baggrunden i Pixel 2-skuddet er bedre afbalanceret med resten af billedet takket være Googles HDR +, men som et resultat er mit ansigt mærkbart mørkere og tager en lidt rødlig farvetone, som du ikke kan se i det andet skud.
Der er også væsentlige forskelle i den sløringseffekt, der bruges til at skabe Portrait Selfies. Googles software anvender en mere aggressiv sløring, og det gør, at ufuldkommenheder i dybdekortet skiller sig ganske lidt ud. Det ser næsten ud som et udskåret klistermærke af mig er blevet anvendt på dette foto. Apples blå er lidt mere naturlig, lige indtil du kommer til mit hår og dele af mig begynder at se lidt ude af fokus. Ingen af billederne virkelig "negler" billedet på grund af deres respektive fejl, men manglerne er subtile nok til at du har et par sjove fotos.
Her er et andet eksempel, kun denne gang er det et udendørs skud zoomet ind 100%.
Dette par skud tilbyder mange af de samme konklusioner. Apple lyser bedre mit ansigt, især mine øjne, mens Google bedre lyser baggrunden og får hele fotografiet til at føle sig rigere. Apples sløring strækker sig for dybt ind i mit hår og får en del af mig til at se ud af fokus, mens Googles sløring er så alvorlig, at den faktisk redigerede noget af mit hår, der stak ude af sted. Uden Portrait Mode er det klart, at iPhone X har taget det bedre foto, men med den aktiverede fototilstand er det lettere at værdsætte effekten af Googles software.
Apple og Google ser ud til at nærme sig denne fototeknik fra modsatte retninger, og det ser ud til, at det, vi ser i den ikke alt for fjerne fremtid, er en form for møde i midten.
Der er nogle naturlige begrænsninger for begge disse fototilstande, især i disse tidlige dage. IPhone X blinker advarsler i stående tilstand, hvis baggrunden er for lys, eller hvis objekter i baggrunden er for langt væk til at få et ordentligt dybdekort. Googles algoritme har en ond vane med at redigere hjørner af receptbriller eller genstande i forgrunden, som ikke er knyttet til en person. Der er en smule prøve og fejl i at få begge til at arbejde korrekt, hvilket i teorien bliver mindre hyppigt med tiden, da Apple og Google fortsætter med at forbedre denne teknologi.
Den største ting, Apple har over Google i denne portrættilstand lige nu, er at være Portrætbelysning. At være i stand til at se de mulige redigeringer af fotografiet i realtid, når du tager billedet, er en stor ting, og muligheden for at fortsætte med at redigere portrætbelysning efter at billedet er taget er utroligt. Det er en meget hit-eller-miss-funktion lige nu, især når du begynder at se på Stage Lighting, men intet andet end iPhone har dette lige nu.
Når du redigerer fotos, har Google noget, som Apple i øjeblikket ikke skal, og burde sandsynligvis være det. Når du tager et portrættilstandsfoto med en Pixel 2, får du et par fotos. Det ene foto redigeres med de uskarpe områder, og det andet er bare en almindelig selfie med frontkameraet. Dette giver dig muligheden for at redigere begge fotos og se, hvad du foretrækker. Apple holder alt som et enkelt foto, som efter min mening er lidt mindre praktisk at se redigeringer mellem de to tilstande. På den anden side er det et færre foto i din kamerarulle, så dette er sandsynligvis bare personlig præference.
Der er meget, der skal siges om den "rigtige" måde at tage et foto på, og endnu mere kan man sige om dyderne ved farvernøjagtighed og funktionseffektivitet. Apple og Google ser ud til at nærme sig denne fototeknik fra modsatte retninger, og det ser ud til, at det, vi ser i den ikke alt for fjerne fremtid, er en form for møde i midten. Lige nu er det ikke umiddelbart klart, at Apples hardwarebaserede tilgang er målbart bedre end Googles softwarebaserede tilgang til Portrait Selfies. Alle de ting, der får iPhone X-kameraet til at tage en stor selfie, findes allerede på iPhone 8 og 8 Plus. På samme tid er det ikke klart, hvor meget bedre Google kan gøre sin fotoredigeringssoftware med et enkelt kamera og en lysindstilling for hele fotografiet i stedet for ansigtet.
En ting er helt klart - vi er ikke i nærheden af slutningen af Apple og Google og giver os flere og bedre selfie-funktioner.