Un pc come sesto senso

Un TELEFONINO, una webcam, un mini proiettore e, soprattutto, una connessione web.
In tutto 300 euro di spesa, ovvero quanto hanno speso gli studenti e iricercatori del gruppo “Fluid Interfaces” del MIT Media Lab nel Massachusetts per mettere a punto un dispositivo indossabile in grado di trasformare qualsiasi superficie in uno schermo interattivo.
Una sorta di senso per l’uomo.
Sì, perché lo scopo di questa combinazione hi-tech è quella di fornire un supporto informativo accessorio a quello sviluppato dai cinque sensi, sfruttando l’immenso bacino di informazioni e conoscenze offerto dal web.
Ecco come funziona.
La fotocamera legge le informazioni di partenza dalla superficie inquadrata; il telefonino, tramite uno speciale software, le elabora con l’ausilio del web, e proietta sempre sulla stessa superficie il risultato delle proprie ricerche.
Questo prototipo, frutto di quattro mesi di lavoro, è la versione finale di una soluzione inizialmente basata su un braccialetto in grado di leggere i codici a barre dei prodotti, evolutosi poi in un dispositivo più sofisticato, da indossare a tracolla sopra il petto.
Grazie a quattro sensori colorati sulle dita di una mano, i gesti effettuati dall’utente vengono riconosciuti dal dispositivo che li “vede” tramite la webcam e li interpreta come comandi.
Ad ogni movimento delle dita, è possibile far corrispondere un diverso comando, e l’effetto finale ricorda molto da vicino quello che, solo in fantascienza, i fratelli Wachowsky avevano immaginato nel loro film culto “Matrix”, con la realtà virtuale proiettata su superfici reali.
In questo video, realizzato dal MIT Media Lab, vengono mostrati una serie di funzioni di questo prototipo.
Tra tanti c’è, per esempio, la possibilità di “chiedere al telefonino” di scattare una fotografia, semplicemente disegnando un quadrato con le proprie dita intorno all’area interessata; in seguito, utilizzando il proiettore del prototipo sarà possibile riguardare a casa, su un muro o su un foglio bianco, tutte le immagini catturate.
Ancora.
Per conoscere lo stato del proprio volo o avere maggiori informazioni su un prodotto in vendita in un supermercato, basta semplicemente mostrare al dispositivo la carta di imbarco o l’etichetta del oggetto in acquisto, e questi è in grado di ritrovare tramite web, informazioni utili come eventuali ritardi in partenza o l’ecocompatibilità del prodotto esposto.
Naturalmente sono possibili anche operazioni più semplici come controllare l’ora, leggere le email o digitare un numero di telefono per una chiamata vocale.
Ma con il prototipo MIT, va detto, assumono un fascino tutto nuovo, visto che l’orologio o la tastiera, entrambi virtuali, vengono proiettati sul nostro polso o sul palmo della mano, e sempre tramite gesti è possibile scegliere di volta in volta l’applicazione da utilizzare.
Insomma, massima informazione ed utilità con il minimo sforzo.
Sono queste le parole chiave con cui studenti e professori del laboratorio Fluid Interfaces, hanno presentato orgogliosamente il loro prototipo al pubblico, durante il TED (Technology, Entertainment, Design) 2009.
L’idea di base è quella di voler fornire agli utenti, nuove interfacce che superino le ristrettezze imposte, in termini di superficie, dagli attuali display, muovendosi sempre più verso un maggior sfruttamento degli spazi su “tre dimensioni”.
Se infatti questo è il momento dei display touchscreen, soprattutto per quel che riguarda i cellulari, il futuro vede nel “riconoscimento gestuale” uno dei più accreditati spazi di sviluppo per prodotti commerciali innovativi.
Negli ultimi tre anni grandi aziende come Nokia, Sony Ericsson e Samsung, hanno depositato numerosi brevetti di soluzioni che riconoscono il movimento manuale, e lo tramutano in comandi per il cellulare.
Al momento la soluzione del MIT risulta molto immatura per diventare un prodotto commerciale ma stupisce per la sua semplicità (specie nei componenti utilizzati).
Traccia però una via da seguire.
Pur nel suo essere molto artigianale, presenta degli interessanti spunti sotto l’aspetto delle possibili nuove forme di interazione uomo-macchina ed è un chiaro simbolo dell’attuale trend tecnologico.
L’unione tra riconoscimento gestuale e connettività web ci dà un anticipo di futuro.
Un futuro nel quale il nostro accesso alle informazioni diventerà sempre più “fisico” e per questo anche più coinvolgente ed efficace.
(8 febbraio 2009)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *