Tra pochi anni sarà possibile azionare i comandi secondari dell’auto, come la regolazione del climatizzatore o l’apertura e la chiusura dei vetri elettrici, senza toccare manopole o interruttori, ma facendo un semplice gesto con la mano. Il colosso Google – che guarda con sempre maggiore interesse al mondo dell’auto – ha infatti brevettato un sistema gestuale (tecnologia gesture) che sfrutta i segnali provenienti da una telecamera 3D e da altri sensori e che, leggendo il movimento della mano, attivano il comando.
Nel documento depositato presso l’Ufficio Brevetti degli Stati Uniti, Google associa in questa prima release sette gesti: muovendo la mano nella zona del climatizzatore verso l’alto si aumenta la velocità della ventola, muovendola verso il basso si diminuisce, muovendola verso destra si aumenta la temperatura e verso sinistra si abbassa.
Un gesto ad onda verso l’avanti (come se si dovesse dire a qualcuno di andarsene) fa invece spostare il sedile del guidatore verso il cruscotto. Spostando l’area d’azione della mano davanti alla zona dei comandi dei finestrini, si ottiene invece l’apertura del vetro del guidatore (gesto verso l’alto) o la sua chiusura (gesto verso il basso). Questa tecnologia, inedita per l’auto se non nella più semplice applicazione dei navigatori con comando a sfioramento, non è invece nuova nel mondo dei videogiochi con diverse consolle che permettono di interagire gestualmente con il programma.
L’interesse di BigG per la tecnologia gesture è confermato dalla recente acquisizione di Flutter, società di San Francisco creata 3 anni fa e impegnata a sviluppare, creare e migliorare algoritmi di riconoscimento dei movimenti delle mani.
Il sistema, che ha già un milione di utenti, permette, con un’app scaricabile su computer Windows o Mac, di controllare, spostare e modificare elementi della playlist musicale preferita o le scene di film e video attraverso semplici movimenti delle mani.
In ogni caso è un settore in rapida espansione e, secondo alcuni, è la tecnologia su cui puntare nel futuro.
Lo ha ben spiegato, al recente Tech Crunch Italy 2013 (grande evento per le start up svoltosi a Roma), John Underkoffler, lo scienziato che ha contribuito a rendere realtà un film di fantascienza, “Minority Report”, (2002) diretto da Steven Spielberg e interpretato da Tom Cruise.
Creatore della speciale interfaccia usata nel film e chiamata g-speak Spatial Operating Environment, l’esperto ha poi fondato la sua società Oblong Industries proprio per applicare la tecnologia al mondo reale. Grazie a questa innovazione attualmente è già possibile trasferire immagini da uno schermo a un altro di vari dispositivi (laptop, desktop, smartphone o tablet), modificarle, integrarle e spostarle di nuovo usando, usando appunto solo determinati gesti sul modello di quelli utilizzati per il linguaggio dei sordi Niente più mouse o tastiere. È solo una questione di displays e gestualità.
Oblong sta sviluppando applicazioni nel settore aerospaziale, bioinformatico, video editing e molto altro.