Project Soli, controlli lo smartwatch dal radar: muovi le dita davanti al display - VIDEO

24 maggio 2016 ore 9:34, Adriano Scianca
Nel corso della Google I/O, l'azienda di Mountain View ha mostrato una versione personalizzata dello smartwatch LG Urbane controllabile semplicemente muovendo le dita, captando il senso dei gesti, la distanza e altri parametri grazie alla fusione di tecnologia radar e machine learning. 
Dopo aver lanciato il primo Progetto Soli, Google ha selezionato 60 sviluppatori che hanno dovuto dimostrare come avrebbero applicato questo tipo di tecnologia
"Abbiamo sviluppato un'idea secondo la quale una mano fosse l'unico controller necessario", ha spiegato Ivan Poupyrev, uno dei tecnici a capo del gruppo Google Atap (Progetti e Tecnologie Avanzate). "Si passa dalla digitazione virtuale allo slider al click di pulsanti in pochi attimi". 
Il team ha detto che è stato incoraggiato da come gli sviluppatori hanno utilizzato il sensore, riuscendo a costruire strumenti per il riconoscimento degli oggetti, strumenti musicali e altro ancora. Il kit è stato, tuttavia, utilizzabile solo in un ambiente controllato, dal momento che ha richiesto molta potenza per l'elaborazione delle informazioni e, mentre il sensore era di dimensioni molto piccole, aveva bisogno di un computer desktop o laptop per funzionare.
Sostanzialmente, Google sta provando a creare un nuovo linguaggio gestuale da applicare ad ogni dispositivo domestico.
Un gruppo ha usato Soli per l'identificazione di materiali, un altro per sviluppare immagini 3D. L'esperimento più interessante è stato quello di un terzo gruppo, che ha applicato Soli all'interno di un'automobile, immaginando di utilizzare semplici movimenti delle dita per attivare diverse funzioni, senza dover togliere le mani dal volante.

Project Soli, controlli lo smartwatch dal radar: muovi le dita davanti al display - VIDEO
Google ha stretto una partnership con JBL e Harmon, per la produzione delle prime casse con Project Soli, capaci di rispondere a gesture. Il sensore ha un raggio di 15 metri, che quindi permetterà all'utente di accendere gli altoparlanti, saltare da una traccia all'altra, regolare il volume muovendo la mano verso il diffusore e così via. A differenza dei comandi vocali, Project Soli funziona anche se c’è rumore e perfino con i dispositivi senza microfono; inoltre consente di avere più spazio sul display ed è più intuitivo e meno costoso dell’uso di picoproiettori che proiettano i comandi sul dorso della mano. Non dovranno più esserci dei tasti virtuali visto che basta puntare il dito verso lo schermo per premerli.
Project Soli è pensato soprattutto per Android Wear, il sistema operativo di Google, ma potrebbe comparire anche su casse bluetooth e altri dispositivi connessi controllabili con le dita in aria.
I primi kit di Soli consumavano molto, ma lavorando a stretto contatto con Infineon gli ingegneri hanno ridotto il consumo della piattaforma di 22 volte, da 1,2 watt a 0,054 watt. Inoltre sono riusciti a far funzionare il tutto con chip mobile standard come lo Snapdragon 400 di Qualcomm o un Intel Atom, ottimizzando il codice. Nonostante le modifiche, Soli può catturare 18.000 immagini al secondo.


caricamento in corso...
caricamento in corso...
[Template ADV/Publy/article_bottom_right not found]