All’Internet festival di Pisa protagonisti due distinti progetti di ricerca che parlano toscano

Umani e robot, l’evoluzione tecnologica ci lega: per quale futuro?

A greenreport Alessandro Tognetti e Daniele Mazzei, del centro di ricerca E. Piaggio dell’università di Pisa: dove si studia a tutto tondo l’interazione tra uomo e macchina

[10 ottobre 2013]

Quali sono i diversi scopi di ricerca che muovono i progetti CEEDs e FACE

Tognetti: «CEEDs è un progetto che unisce ricerca di base e innovazione tecnologica per lo sviluppo di sistemi avanzati di realtà virtuale dedicati al miglioramento delle capacità umane nell’elaborazione delle informazioni per la comprensione e l’identificazione di modelli e schemi significativi all’interno di grandi moli di dati. CEEDs è basato su un innovativo sistema di realtà aumentata grazie al quale l’utente viene letteralmente “immerso” nei dati. Le reazioni psico-fisiologiche del soggetto sono rilevate dal sistema che adatta di continuo la visualizzazione dei dati in base allo stato del soggetto. E’ un progetto fortemente multidisciplinare, dove il ruolo dei ricercatori del Centro Piaggio è lo sviluppo di tecnologie di sensori non invasivi per il monitoraggio di parametri relativi all’attività e allo stato psicofisiologico dell’utente immerso nell’ambiente CEEDs».

Mazzei: «FACE è un volto umanoide utilizzato per lo studio dell’interazione sociale ed emozionale fra uomo e robot. I robot sociali stanno pian piano diventando sempre più una realtà, con FACE si studia come le persone si relazionano con queste macchine che stanno diventando parte della sfera emotiva e sociale, che fino ad ora è stata ritenuta di esclusivo dominio degli esseri umani».

Tramite CEEDs è possibile monitorare le risposte del subconscio di un individuo a stimoli esterni, risposte che contribuiscono in buona parte la condotta – anche sociale e economica, spesso insostenibile – di ogni individuo: comprendendole meglio sarà anche possibile riuscire a gestirle in modo migliore? 

Tognetti: «Uno degli obiettivi di CEEDs è correlare la misura non invasiva di segnali fisiologici di uno o più soggetti in azione nell’ambiente virtuale alle relative risposte subconsce, e poterle in qualche modo influenzare attraverso opportuni stimoli esterni. Il raggiungimento di questo obiettivo rappresenterebbe già di per sé un importante traguardo, con potenziali applicazioni anche in contesti diversi da quelli studiati nel progetto».

Per Ceeds si può immaginare un futuro come possibile supporto allo sviluppo della scienza neuroeconomica, che ad oggi utilizza di neuroimaging per monitorare i processi cerebrali con cui si formano le decisioni umane? 

Tognetti: «Nel progetto i partner stanno sviluppando diversi scenari e tra questi il “commercially oriented scenario” si propone di studiare le risposte esplicite e implicite del soggetto durante l’interazione con prodotti che vengono presentati nell’ambiente virtuale immersivo. Non credo che l’approccio possa rappresentare un’alternativa al neuroimaging, ma potrebbe fornire informazioni complementari e in condizioni più naturali (l’utente è completamente libero di muoversi)».

Con FACE si studia la risposta emotiva e affettiva tra uomo e robot. Ma in che termini si può parlare di ‘sentimenti’ in una tale relazione? 

Mazzei: «Nel relazionarsi con FACE non si osserva su un monitor una scritta o un’immagine ma si interpretano espressioni facciali. Le espressioni facciali sono un canale universalmente noto per la veicolazione di informazioni affettive ed emotive. Consentire ad una macchina di utilizzare questo canale comporta nelle persone che vi interagiscono reazioni e sensazioni che è necessario studiare».

Il futuro della comunicazione, nell’ambito della robotica e della sempre più presente Internet delle cose, riguarda più le relazioni uomo-robot o robot-robot? 

Mazzei: «Noi crediamo che il termine più giusto sia Le cose su Internet (Things on Internet) invece di Internet delle cose. Internet è un mezzo inventato dall’uomo per comunicare e scambiare informazioni, e oggi come non mai queste informazioni hanno sempre di più un contenuto affettivo e sociale: basti pensare al concetto di “like” dei social network. Non si creerà quindi un altro internet per le cose, ma si porteranno le “cose” su internet. FACE e altri sistemi intelligenti come #SOME (www.fablabpisa.org/some) sono macchine sociali, capaci di parlare il nuovo linguaggio della rete, quello delle relazioni empatiche e delle emozioni. #SOME è già capace di inviare Tweet condividendo con tutti il suo stato emotivo. Stiamo lavorando per connettere FACE a Facebook e Twitter facendo sì che il suo comportamento e stato d’animo possano essere influenzati dalle sue interazioni sui social network, cosa che capita ormai a tutti noi».