Il progetto EYESHOTS fornisce una soluzione tattile
Quest'ultimo sviluppo potrebbe permettere ai robot di vedere e riconoscere ciò che li circonda. Potrebbe anche dare a queste macchine il vantaggio di ricordare il contenuto di tali immagini in modo da agire di conseguenza, dicono i ricercatori.
Coordinati dal Dipartimento di ingegneria biofisica ed elettronica presso l'Università di Genova, in Italia, i partner di EYESHOTS dicono di aver dovuto ritoccare i meccanismi basilari di un robot umanoide per assicurare una buona interazione dell'ambiente con i compiti autonomi che doveva svolgere. Il team di Ángel Pasqual del Pobil, direttore del laboratorio di intelligenza robotica con sede in Spagna dell'Università Jaume I del Castellón, che è uno dei partner di EYESHOTS, ha convalidato i risultati del consorzio con un sistema sviluppato presso l'università. Questo sistema comprende un torso con braccia articolate e una testa di robot con occhi mobili.
I partner hanno cominciato il processo di sviluppo esaminando la biologia umana e animale. I membri del team, esperti di robotica, neuroscienza, ingegneria e psicologia, hanno costruito i modelli al computer registrando neuroni di scimmie impegnate in attività di coordinazione visivo-motoria. Gli umani e i primati, dicono i partner, hanno lo stesso modo di percepire il mondo.
La prima funzione replicata artificialmente del sistema visivo umano è stato il movimento saccadico dell'occhio che è collegato al cambiamento dinamico di attenzione, spiegano. "Cambiamo continuamente punto di vista attraverso movimenti dell'occhio molto veloci, tanto veloci che ce ne accorgiamo appena," dice il dott. Pobil. "Quando gli occhi si muovono, l'immagine si sfoca e non vediamo chiaramente. Il cervello deve quindi integrare i frammenti come se fossero pezzi di un puzzle per dare l'impressione di un'immagine continua e perfetta di ciò che ci circonda."
Usando dati neurali, il team ha costruito modelli al computer della sezione del cervello che collega le immagini con il movimento di entrambi gli occhi e le braccia. Secondo loro questo modello è unico: l'integrazione di immagini e movimenti conferma che quando gli umani si muovono per afferrare un oggetto, non è necessariamente il cervello a calcolare le coordinate.
"La verità è che la sequenza è molto più semplice: gli occhi guardano un punto e dicono al braccio dove andare," spiega il dott. Pobil. "I bambini imparano questo progressivamente connettendo i neuroni."
In breve, i partner di EYESHOTS sono riusciti a simulare questi meccanismi di apprendimento attraverso una rete neurale, permettendo ai robot di svolgere vari compiti come costruire una rappresentazione dell'ambiente, conservando le immagini giuste e imparando come guardare. Questi robot inoltre usano la loro memoria per afferrare oggetti anche se non sono in grado di vederli in realtà.
"Le nostre scoperte possono essere applicate a qualsiasi futuro robot umanoide in grado di muovere gli occhi e di concentrarsi su un punto," dicono i ricercatori spagnoli. "Sono questioni di prioritaria importanza perché i meccanismi funzionino correttamente."
Gli altri partner di EYESHOTS sono l'Università di Münster in Germannia, l'Università di Bologna in Italia e la Katholieke Universiteit Leuven in Belgio.