“Il futuro della tecnologia sarà solo schermi, pixel e movimenti delle mani. Tastiere e mouse diventeranno oggetti del passato e anche l’avvento dei device mobili, l’elemento più dirompente dello scorso decennio, sarà un fenomeno superato: tutto si giocherà sulla capacità di manipolare i pixel che compongono le immagini nei display”. È la convinzione di John Underkoffler, lo scienziato del Mit di Boston che nel 2002 ha lavorato agli effetti speciali di Minority Report. Nel film, ambientato nel 2054, Tom Cruise naviga tra contenuti digitali, scorrendo e manipolando immagini presenti su vari display, semplicemente con movimenti delle mani a distanza e senza touch. Underkoffler ha poi fondato la Oblong Industries proprio per applicare la gesture recognition technology, al mondo reale.
Come è riuscito a trasformare la fiction in realtà?
Quando ero ricercatore al Mit avevo svolto studi su un’interfaccia per utenti di computer basata sui gesti. Per questo fui scelto dal production designer di Minority Report, Alex McDowell, come science and technology advisor. Compito della mia squadra era creare un computer futuristico che fosse estremamente interessante dal punto di vista cinematografico. Spielberg voleva che, nella famosa scena in cui Cruise analizza le visioni dei precog (persone in grado di prevedere il futuro, ndr), il protagonista si comportasse davanti ai display come un direttore d’orchestra che ‘dirige’ il flusso di informazioni. Partendo da questo input abbiamo elaborato un linguaggio dei segni in grado di interagire con il pc, traendo ispirazione da quello dei non udenti. In pratica abbiamo usato il cinema per sviluppare la piattaforma g-speak Spatial Operating Environment e abbiamo avuto la fortuna di poterla testare su un pubblico sterminato, tutti quelli che hanno visto il film.
Perché ha deciso di scommettere su questa nuova interfaccia?
Perché negli ultimi 30 anni, in pratica dalla nascita del Mac, nella storia dell’interfacciamento uomo-macchina è stato fatto molto per i computer in termini di tecnologia, ma poco per gli esseri umani. L’interfaccia utente, che alla fine è l’unica parte del computer che possiamo realmente vedere e toccare, non è abbastanza vicina alla creatività dell’uomo. Puntare su un’interfaccia gestuale non è casuale perché, dopo vista e voce, le mani sono la parte del corpo che usiamo per capire il mondo
Cosa cambia ora?
È finita l’era di ‘un individuo, un mouse, uno schermo’: il nuovo scenario comprende una varietà di partecipanti, che lavorano contemporaneamente sul posto e da remoto utilizzando una rivoluzionaria interfaccia spaziale in grado di controllare tutte le applicazioni e la diffusione dei dati attraverso qualsiasi display.
E quando si arriverà al mainstream?
Per noi di Oblong Industries è già realtà. I nostri designer, programmatori e ingegneri hardware stanno sviluppando applicazioni nel settore aerospaziale, bioinformatico e nel video editing. Tra i nostri prodotti c’è anche un telecomando che consente di spostare contenuti e immagini, ma anche di ridimensionarli e zoomarli tra i vari schermi. La nostra ‘Mezzanine conference room’ è un’esclusiva per migliorare le video-conferenze: prevede l’interazione di molteplici utenti su multi-schermi e multi-device, in modo che qualsiasi contenuto sia condiviso da chiunque su qualsiasi dispositivo e in qualsiasi luogo.
GESTURE TECHNOLOGY
Underkoffler: “Così l’interfaccia gestuale cambierà le relazioni”
Lo scienziato del Mit: “E’ finita l’era di un individuo un device”. Riflettori puntati sulle apps per l’aerospazio, la bioinformatica e il video editing
Pubblicato il 01 Nov 2013
Argomenti
Canali
EU Stories - La coesione innova l'Italia