Addio Siri, benvenuta RedEye: la app che vede e sente tutto

Vi ricordate il film “HER” di Spike Jonze? Presto potrà diventare realtà. Uscito nel 2013, Lei (Her), ha vinto il premio Oscar come miglior sceneggiatura originale. 

Il protagonista, Joaquin Phoenix, vive a Los Angeles in un futuro non molto lontano, in cui la tecnologia è parte integrante della vita quotidiana. Un giorno acquista un nuovo sistema operativo OS 1 (con la voce sensuale di Scarlett Johansson) in grado di comunicare ed evolvere. L’assistente virtuale organizza la vita del protagonista, gli ricorda gli appuntamenti, lo aiuta a scrivere, lo ascolta e lo capisce durante la dura fase del divorzio dalla moglie… fino a farlo “innamorare”.
Adesso, nel presente, il 20 giugno, un team di ricercatori della Rice University di Houston, (una delle prime 20 università americane, nonché primo posto come migliore qualità della vita) ha creato una App che vede e ricorda tutto quello che facciamo. 
Si chiama RedEye, è una nuova tecnologia della Efficient Computing Group di Rice, presentata al Simposio Internazionale di Architettura e Computer (ISCA 2016) a Seoul nella Corea del Sud.
La nuova tecnologia si chiama “intelligenza ambientale” i cui sensori all’inizio saranno visivi e sonori, per poi svilupparsi anche con gli altri sensi, olfatto e gusto. Questi dispositivi diventeranno così dei veri e propri assistenti personali. 
Il team di lavoro è composto da Lin Zhong, leader del gruppo e professore di ingegneria elettronica, Robert LiKamWa ex studente della Rice che ha iniziato a lavorare al progetto nel 2012, Yunhui Hou, Mia Polansky e Yuan Gao, laureandi. Tutti insieme hanno sviluppato l’apprendimento automatico. RedEye utilizza una tecnica chiamata “convolutional neural network”, un algoritmo ispirato all’organizzazione della corteccia visiva animale.

L’esperto 

Lin Zhong dichiara: “Il concetto è quello di permettere ai nostri computer di mostrargli tutto quello che vediamo durante il giorno, sarebbe come avere un assistente personale che può ricordare qualcuno che hai incontrato, dove lo hai incontrato e altre informazioni come prezzi, date e orari”. 

I risultati 

RedEye adesso è in grado di riconoscere oggetti, quali cani, gatti, chiavi, cellulari facce, ecc. senza in realtà guardare l’immagine in sé, ma studiando l’uscita analogica dal sensore della visione. Una comprensione e un’elaborazione senza vedere l’immagine reale” continua Lin.
Superate le problematiche inerenti alla conversione analogico-digitale, il team si sta concentrando sul miglioramento delle capacità in condizioni di scarsa illuminazione, con poco segnale e rumore.
Presto potremmo scegliere se avere o no un’assistente personale, affidandole totalmente la nostra agenda e, forse, semplificandoci la vita. 
La ricerca è sostenuta dalla National Science Foundation e Texas Instruments Graduate Research.
Una copia della pubblicazione è consultabile su: 
e su 
Sara Cacciarini

Sara Cacciarini giornalista pubblicista, si è laureata in Scienze Naturali e ha conseguito un Master di Comunicazione e Giornalismo Scientifico a La Sapienza di Roma. Collabora con CulturaMente dal 2016, è appassionata di teatro, musica e cinema.

COMMENTA QUESTA DOSE DI CULTURA

Lascia un commento!
Inserisci il tuo nome qui