For et firma, der sigter mod at være viden graf over hele planeten, er billedbaserede AI-tjenester en åbenlys ting for Google at ønske at få ret. Og for alle, der bruger Google Fotos i de sidste par år, ved du, at der er gjort enorme fremskridt med at forbedre disse muligheder. Anerkendelse af ansigter og genstande i Google Fotos kan være utroligt, og der er meget godt, der kan komme fra at bruge disse funktioner i den virkelige verden. At være i stand til at tilbyde et kamera med evnen til hurtigt at identificere lagerpladser og gadeskilte til synshæmmede alene er utroligt.
Google Lens er på vej i den rigtige retning, men det er tydeligvis ikke klar til daglig brug endnu.
Som Google Pixel-ejer har jeg haft adgang til objektiv i seks måneder nu. Denne beteperiode for objektiv har været lidt klodset, hvilket man kan forvente. Jeg peger objektiv på en usædvanlig bog, som en af mine venner havde, og i stedet for at fortælle mig, hvor jeg kan købe den bog til mig selv, får jeg et tekstuddrag fra det identificerede omslag. Jeg beder Lens om at scanne et foto af en biograf-markis, det har ingen idé om, hvad der er på billedet, og giver mig ikke muligheden for, men billetter til showet, som det skulle. Jeg tager et billede af min Shetland Sheepdog, Lens identificerer hende som en Rough Collie. Okay, så det sidste er næsten umuligt at komme rigtigt på et foto, men pointen er, at Google Lens ikke pålideligt gør de fleste af de ting, som den hævder at kunne gøre endnu.
Google har det godt, at de ting, Lens får ret, bliver rigtige hurtigt. Jeg elsker at kunne bruge linse til sprogoversættelse i realtid. Peg objektiv på en menu skrevet på et andet sprog, får du øjeblikkelige oversættelser lige på siden, som om du kiggede på menuen på engelsk hele tiden. Fastgør et foto af et visitkort, Lens er klar til at tilføje disse oplysninger til min kontaktbog. Jeg har brugt individuelle apps til disse funktioner, der har fungeret rimeligt godt i fortiden, men at forene disse funktioner på samme sted som jeg får adgang til alle mine fotos er fremragende.
Jeg er også opmærksom på, at dette stadig er meget tidlige dage for objektivet. Det siger trods alt 'Preview' lige i appen. Mens Pixel-ejere har haft adgang til funktionen i et halvt år, har det meste af Android-verdenen kun haft adgang til det i lidt over en måned på dette tidspunkt. Og når du forstår, hvordan denne software fungerer, er det en vigtig detalje. Googles information om maskinindlæring er stærkt afhængig af massive videnbidrag, så de hurtigt kan sigtes gennem det hele og bruge ting, der er identificeret korrekt for bedre at identificere den næste ting. Det kan hævdes, at Google Lens lige er begyndt på sin betatest, nu hvor alle har adgang til det.
På samme tid blev Lens annonceret for et helt år siden på dette tidspunkt, og jeg kan stadig ikke pålideligt pege den mod en blomst og få den til at fortælle mig, hvilken slags den er. Det er en cool ting at have adgang til, men jeg håber inderligt, at Google er i stand til at gøre denne funktion til noget specielt i den ikke alt for fjerne fremtid.