Logo nl.androidermagazine.com
Logo nl.androidermagazine.com

Pixel 2 versus iPhone X: wat is de beste portret-selfie?

Anonim

Portrait Selfies zijn op dit moment mijn favoriete ding op smartphones. Ik voel je ogen rollen terwijl je dit leest, maar luister even naar me. Op technisch niveau zien we een enorme duw om de kwaliteit van de camera aan de voorzijde te verbeteren, terwijl dieptekaarten en kleurcorrectie worden toegepast, zodat een foto direct kan worden omgezet in iets nieuws. Het is fascinerend en leuk, en in de begindagen van deze functie op smartphones zijn er twee enorm verschillende manieren om dit effect te gebruiken.

De True Depth-camera van Apple beschikt over meerdere sensoren om een ​​dieptekaart in realtime te maken op de iPhone X. De oplossing van Google is volledig afhankelijk van machine learning en een indrukwekkende enkele camera om hetzelfde effect op de Pixel 2 te bereiken. Hier is een blik op hoe deze twee methoden vergelijken!

Links: Google Pixel 2 Rechts: Apple iPhone X

Het eerste dat u moet begrijpen bij het vergelijken van deze camera's, is dat Apple en Google prioriteit geven aan de gemaakte foto's. We weten op technisch niveau dat deze twee telefoons op dit moment de beste fotomogelijkheden ter wereld hebben, met als enige verschil voor de meeste mensen welke delen van de foto en welke functies prioriteit hebben.

In deze opnamen worden twee dingen snel duidelijk. De achtergrond in de iPhone X-opname wordt uitgeblazen in een poging om ervoor te zorgen dat mijn gezicht goed verlicht en goed gekleurd is. De achtergrond in de Pixel 2-opname is beter in balans met de rest van de foto dankzij de HDR + van Google, maar als resultaat is mijn gezicht merkbaar donkerder en krijgt het een enigszins roodachtige tint die je niet ziet in de andere opname.

Er zijn ook substantiële verschillen in dat vervagingseffect dat wordt gebruikt om Portrait Selfies te maken. De software van Google past een meer agressieve vervaging toe en zorgt ervoor dat onvolkomenheden in de dieptekaart behoorlijk opvallen. Het ziet er bijna uit alsof een uitgesneden sticker van mij op deze foto is aangebracht. Apples blauw ziet er net iets natuurlijker uit totdat je bij mijn haar komt en delen van mij een beetje onscherp beginnen te kijken. Geen van beide schoten de foto echt "vast" vanwege hun respectieve fouten, maar de fouten zijn subtiel genoeg zodat je een paar leuke foto's hebt.

Hier is nog een voorbeeld, alleen deze keer is het een buitenopname die 100% is ingezoomd.

Dit paar opnamen biedt veel dezelfde conclusies. Apple verlicht mijn gezicht, in het bijzonder mijn ogen, beter, terwijl Google de achtergrond beter verlicht en de hele foto rijker aanvoelt. De vervaging van Apple reikt te diep in mijn haar en zorgt ervoor dat een deel van mij onscherp lijkt, terwijl de vervaging van Google zo ernstig is dat het een deel van mijn haar dat uit zijn plaats hing, heeft weggewerkt. Zonder de portretmodus is het duidelijk dat de iPhone X de betere foto heeft gemaakt, maar met die fotomodus ingeschakeld is het gemakkelijker om het effect van de software van Google te waarderen.

Apple en Google lijken deze fototechniek vanuit tegengestelde richtingen te benaderen en het is waarschijnlijk dat wat we in de niet al te verre toekomst zullen zien, een soort ontmoeting in het midden is.

Er zijn enkele natuurlijke beperkingen aan beide fotomodi, vooral in deze vroege dagen. De iPhone X knippert in de Portretmodus als de achtergrond te licht is of als objecten op de achtergrond te ver weg zijn om een ​​juiste dieptekaart te krijgen. Het algoritme van Google heeft de vervelende gewoonte om hoeken van brillen op sterkte of objecten op de voorgrond te bewerken die niet aan een persoon zijn bevestigd. Er is een beetje vallen en opstaan ​​om beide correct te laten werken, wat in theorie minder frequent wordt naarmate Apple en Google deze technologie blijven verbeteren.

Het grootste dat Apple op dit moment in deze portretmodus heeft via Google, moet portretverlichting zijn. Het is heel belangrijk om de mogelijke bewerkingen van de foto in realtime te zien terwijl je de foto maakt, en de mogelijkheid om door te gaan met het bewerken van portretverlichting nadat de foto is genomen, is ongelooflijk. Het is nu een zeer hit-of-miss-functie, vooral als je naar Stage Lighting gaat kijken, maar niets anders dan de iPhone heeft dit nu.

Bij het bewerken van de foto's heeft Google iets dat Apple momenteel niet heeft en waarschijnlijk zou moeten. Wanneer u een portretmodusfoto maakt met een Pixel 2, krijgt u een paar foto's. De ene foto is bewerkt met de wazige gebieden en de andere is gewoon een eenvoudige selfie met de camera aan de voorkant. Dit geeft u de mogelijkheid om beide foto's te bewerken en te zien welke u verkiest. Apple bewaart alles als een enkele foto, wat naar mijn mening iets minder handig is om bewerkingen tussen de twee modi te zien. Aan de andere kant is het nog een foto minder in uw Filmrol, dus dit is waarschijnlijk slechts een persoonlijke voorkeur.

Er is veel te zeggen over de "juiste" manier om een ​​foto te maken en nog veel meer over de voordelen van kleurnauwkeurigheid en functie-effectiviteit. Apple en Google lijken deze fototechniek vanuit tegengestelde richtingen te benaderen en het is waarschijnlijk dat wat we in de niet al te verre toekomst zullen zien, een soort ontmoeting in het midden is. Op dit moment is het niet meteen duidelijk dat de op hardware gebaseerde benadering van Apple meetbaar beter is dan de op software gebaseerde benadering van Google voor Portrait Selfies. Alle dingen die ervoor zorgen dat de iPhone X-camera een geweldige selfie maakt, bestaan ​​al op de iPhone 8 en 8 Plus. Tegelijkertijd is het niet duidelijk hoeveel beter Google zijn fotobewerkingssoftware kan maken met een enkele camera en een voorkeur voor verlichting voor de hele foto in plaats van het gezicht.

Eén ding is absoluut duidelijk - we zijn nog lang niet aan het einde van Apple en Google en bieden ons meer en betere selfiefuncties.