Annunciata per la prima volta all’I/O, questa funzione è ancora sperimentale ed è disponibile solo negli Stati Uniti per le persone che hanno aderito a Google search labs, come spiega il cofondatore di Lens Rajan Patel. Le altre novità – la modalità vocale e l’espansione dello shopping – fanno invece parte di un rilascio più ampio, già in corso.
Il futuro delle ricerche online
La funzione di “comprensione dei video“, come la definisce Google, è intrigante per diversi motivi. Nonostante al momento funzioni solo con i video in tempo reale, se o quando Google la estenderà ai vecchi filmati (e magari a interi archivi) – sia nel rullino fotografico di una persona che in un database gigantesco come quello dell’azienda –, i video potrebbero potenzialmente diventare taggabili e rimandare direttamente agli acquisti.
La seconda considerazione da fare è che questa funzione di Lens condivide alcune caratteristiche con il Project Astra di Google, che dovrebbe essere disponibile nel corso dell’anno e che come Lens utilizza input multimodali per interpretare il mondo circostante attraverso il telefono. Questa primavera, nell’ambito di una dimostrazione di Astra, l’azienda ha mostrato un prototipo di smart glasses.
Meta nel frattempo ha difficilmente presentato la sua visione per il futuro della realtà aumentata (AR), in cui secondo la società i comuni mortali dovrebbero indossare stravaganti occhiali capaci di interpretare in modo intelligente il mondo che li circonda e mostrare interfacce olografiche. Google, come noto, ha già cercato di trasformare questo futuro in realtà con i Google Glass (che utilizzano una tecnologia fondamentalmente diversa da quella dell’ultima proposta di Meta). E se, insieme ad Astra, le nuove funzionalità di Lens fossero una tappa verso un nuovo tipo di occhiali intelligenti? A questa domanda, Patel si è limitato a rispondere affermando che l’annuncio di Meta è stato “convincente” e sottolineando che Lens è in realtà nato dall’ormai defunto team Daydream di Google, che si occupava di headset computing (anche se concentrandosi più sullo sviluppo di realtà virtuale piuttosto che sull’AR).
“Ci stiamo chiedendo come possiamo rendere ancora più facile per le persone fare domande, come possiamo rispondere alle domande in modo più fluido, e quali sono le funzionalità che dobbiamo costruire – ha raccontato Patel –. Tutti questi sono elementi fondamentali“.
Minaccia per la privacy?
C’è un ultimo aspetto fondamentale da evidenziare: avere la possibilità di girare video di ciò che ci circonda e attingere immediatamente a un database complessivo di informazioni presenta ovvie e inquietanti implicazioni per la privacy. Un gruppo di studenti, per esempio, ha già fatto sapere di aver modificato gli smart glass di Meta con una tecnologia di riconoscimento facciale e di averli usati per identificare sconosciuti.
Quando Google Lens viene utilizzato per riprendere in tempo reale un gruppo di persone che ballano in un parco o che magari protestano in strada, come verranno gestite queste informazioni? L’app sarà in grado di identificare le persone inquadrate?
Patel sostiene che per impostazione predefinita Lens elaborerà fotogramma per fotogramma il contesto di una scena, “facendo del nostro migliore per ignorare i volti delle persone” e identificando invece il luogo in cui ci si trova, la canzone in sottofondo e, in alcuni casi, i vestiti che indossano le persone.
L’app sarà anche essere addestrata a “fare del suo migliore per ignorare i volti“, ma è comunque uno strumento di caccia visiva che realizza immagini e video che potrebbero includere esseri umani. Lens promette di migliorare le risposte alle nostre domande, ma ne pone anche una enorme ai suoi utenti: possiamo fidarci?
Questo articolo è apparso originariamente su Wired US.
Leggi tutto su www.wired.it
di Lauren Goode www.wired.it 2024-10-04 12:56:55 ,