Google Multitasking: Sök efter foton och videor

Till alla som undrar vad artificiell intelligens (AI) är för något i vardagen (om Chat GPT eller nya Google Bard inte räckte) svarade Mountain View-företaget idag med att tillkännage några viktiga förbättringar av vårt sätt att forskar varje dag och övervinner – tack vare AI – alla språkliga och logistiska hinder.

Till ropet "Din kamera är nästa tangentbord" eller "Om du kan se den kan du söka efter den" , tack vare Google Lens, blir Android-mobilkameror nu riktiga sökverktyg (iPhone-användare har för att öppna Google-appen och klicka på kameran i söksträngen).I princip allt vi ramar in med mobiltelefonen kan sökas efter och hittas. Förutom att översättas, när det gäller texter, till 133 språk.

Om jag till exempel ser ett par glasögon jag gillar ramar jag in dem och klickar på bilden för att komma åt Google-sökning som returnerar information och köp alternativ. Eller, jag ser en växt vars namn jag inte vet, jag ramar in den och jag har direkt tillgång till specialiserade webbplatser som förklarar för mig vilken växt det är.

Det är uppenbart att den här forskningen öppnar upp en mängd möjligheter, från shopping till att förstå något okänt, till exempel om vi är utomlands, till att veta utan att ens behöva fråga vad den läckra efterrätten heter som vi ser från fönstren på ett konditori, till exempel.

Under de kommande månaderna kommer det även att vara möjligt att använda Lens för de saker vi ser på mobilskärmen. Tack vare funktionen "Sök på din skärm" på Android-enheter runt om i världen kommer det att vara möjligt att starta en sökning från det vi ser i ett foto eller en video på webben och i våra favoritappar, som meddelande- och videoappar, utan att behöva avsluta den specifika appen eller upplevelsen.

Föreställ dig att någon skickade en WhatsApp-video till dig om sin semester i London. Kanske såg du ett monument i bakgrunden som fascinerade dig, för att ta reda på mer tryck och håll nere strömknappen eller hemknappen på din Android-telefon, för att anropa Google Assistant och tryck sedan på "sökskärm" . Lins identifierar byggnaden och returnerar all information om den platsen.

Inte bara online, hitta nära mig

Om vi vill se dig omkring efter vad vi har sett, låter multitasking-sökningen dig också ta ett foto med alternativet "nära mig" , för att identifiera till exempel ett grannskapsföretag där du kan köpa vad vi söker. Det här alternativet är för närvarande tillgängligt på engelska i USA, men kommer att lanseras glob alt under de kommande månaderna.

Äntligen kommer det snart att vara möjligt att introducera variabler i multitasking-sökningen.Jag ser till exempel ett fyrkantigt bord som jag gillar, men jag skulle vilja att det skulle vara runt. Jag tar bilden, startar sökningen och lägger till ett annat alternativ (annan form, färg, storlek, etc). Syftet med alla dessa innovationer, som förklarat Prabhakar Raghavan, senior vice president för Google, är att göra sökupplevelsen så enkel och komplett som möjligt i enlighet med mottot för den tekniska jätten: "Förbättra livet för så många människor som möjligt ".

Och Google Maps blir uppslukande

Låt oss glömma traditionella kartor – som vi redan är oändligt tacksamma för att ha väglett oss fram till idag – för idag tillkännagav Chris Phillips, VP & General Manager för Geo (Googles Maps-division) en innovation som kommer att förändra allt. Uppslukande kartor (Live View).

Hur många gånger har vi följt instruktionerna, även om de är exakta, tagit fel sida eller gått ut? Det är norm alt och det händer alla, men det skulle inte hända om det fanns en överensstämmelse mellan vägen markerad på kartan och vad våra ögon ser.Så, förutom att snart lansera Augmented Reality för kartorna över Florens och Venedig, kommer vi snart att kunna planera våra rörelser på millimetern och veta exakt hur gatan ser ut, platsen vi vill nå och alla platser, även inomhus , som vår väg innebär.

I grund och botten, genom att kombinera alla befintliga bilder av de olika platserna på jorden, kommer Google Maps att kunna ge oss en 3D-vision av städer, komplett med rekonstruktion av inre utrymmen (t.ex. museer, restauranger, köpcentrum, Flygplatser och stationer).

Resan före resan

Med hjälp av framsteg inom artificiell intelligens och datorseende kombinerar uppslukande visualisering miljarder Street View-bilder och flygbilder för att skapa en otroligt rik digital modell av världen. Men det stannar inte där. Maps är fortfarande ett barn av Google, så 3D-visualiseringen kommerockså att kunna ge användbar information som väder, trafik och hur trångt det är på en plats.

Om vi till exempel planerar ett besök på Rijksmuseum i Amsterdam kan vi praktiskt taget flyga över byggnaden och se var till exempel museets entréer finns. Med tidsreglaget kan vi se hur området ser ut vid olika tider på dygnet och fråga hur vädret kommer att bli. Vi kan också identifiera de mest trafikerade platserna, så att du har all information du behöver för att bestämma vart och när du ska åka. Och om vi vet att vi kommer att gå runt lunchtid kan vi utforska närliggande restauranger och till och med ta en titt inuti för att snabbt få en känsla för en plats innan vi bokar.

Världen i 3D

Det ser ut som science fiction men det är bara vetenskap. Som Google förklarar: "För att skapa dessa naturtrogna scener använder vi Neural Radiance Fields (NeRF), en avancerad AI-teknik som omvandlar vanliga bilder till 3D-representationer.Med NeRF kan vi exakt återskapa hela sammanhanget för en plats, inklusive ljussättning, materialstruktur och bakgrund. Allt detta gör att vi kan förstå om den stämningsfulla belysningen i en bar är den rätta atmosfären för en galant kväll eller om utsikten över ett kafé gör det till den idealiska platsen för en lunch med vänner“.

Säg adjö till dåliga överraskningar på fel plats.

Denna söktyp är för närvarande tillgänglig i London, Los Angeles, New York, San Francisco, Paris och Tokyo (för Android och iPhone). Nästa städer blir Barcelona, Dublin och Madrid. Och sedan kommer Live View att expandera till 1 000 nya flygplatser, tågstationer och köpcentrum (de platser där det är lättare att gå vilse eller leta efter toaletter) i Barcelona, Berlin, Frankfurt, London, Madrid, Melbourne, Paris, Prag, Sao Paulo, Singapore, Sydney, Taipei och Tokyo. För närvarande täcker det redan flygplatser i USA, Zürich och Tokyo.

Fler kartnyheter

Som vi har nämnt kommer möjligheten att utforska städer och gator i re altid, identifiera platser och företag med Augmented Reality att påverka städerna Venedig och Florens först i Italien. Tillåter de som besöker dem att omedelbart få tillgång till mycket användbar information som till exempel var ett apotek finns, om det finns en restaurang i närheten, hur populär den är, vilket betyg den har, etc. allt helt enkelt genom att rama in en gata.

Men bland de nya utvecklingarna läggs ett viktigt fokus på resandets hållbarhet. Om Google Maps redan kan rekommendera den mest hållbara rutten på en ekologisk nivå, kommer man snart att utöka sitt utbud specifikt för elbilar - med ad hoc-resor och laddningsstationer, till cyklar - med anti-smog-rutter, för fotgängare och de som använda kollektivtrafiken. Även förbättra indikeringen av rutten i re altid på kartan och lägga till användbara bilder när du behöver göra en sväng eller hitta en byggnad.

Vägbeskrivning i korthet

Med vägbeskrivning i ett ögonkast kan du sedan följa din resa direkt från ruttöversikten eller från låsskärmen. Du kan se beräknade ankomsttider och nästa sväng, information som tidigare bara var synlig genom att låsa upp telefonen, öppna appen och använda fullt navigeringsläge. Och om vi bestämmer oss för att ta en annan rutt kommer vår resa att uppdateras automatiskt. Snabbguider kommer att börja rullas ut världen över på Android och iOS under de kommande månaderna och kommer även att vara kompatibla med Live Activities på iOS 16.1.

De som älskar att gå vilse lugnt eller följa stjärnorna kan fortsätta göra det utan problem.

Intressanta artiklar...