Annunci mirati, suggerimenti di amicizie e di ricerche: a volte rimaniamo stupefatti dalla capacità di computer e smartphone di "leggerci nel pensiero". In futuro, però, questo potrebbe essere
normale: potremmo dover convivere con macchine che riescono per davvero a scrutare nella nostra mente, a capire che cosa stiamo guardando (o immaginando) e a rispondere di conseguenza.
Una nuova, interessante ricerca in questa direzione è stata condotta in Giappone: quattro ricercatori dell'Università di Kyoto hanno sviluppatouna rete neurale in grado di decifrare le immagini che vediamo "leggendo" la nostra attività cerebrale, e di mostrarle a sua volta.
UN PASSO IN AVANTI. Non è la prima volta che si tenta questa strada, ma i precedenti sistemi gestivano soltanto categorie ristrette di immagini (per esempio, "volti"). Le loro ricostruzioni si basavano su una serie di categorie semantiche memorizzate in precedenza, mentre il soggetto guardava alcune immagini: dati pregressi con i quali ogni nuovo input veniva confrontato. Per questa ragione la loro capacità di "lettura del pensiero" era limitata ad alcune forme di base ("uccello", "torta", "persona").
LETTURA COMPLESSA. La nuova tecnica, chiamata deep image reconstruction, prevede algoritmi capaci di interpretare e riprodurre immagini complesse basandosi su più livelli di lettura (per esempio forma; colore; contrasti luminosi). In altre parole gestisce e processa lo stimolo visivo in modo gerarchico, come fa il cervello umano.
Lo studio è durato 10 mesi e ha coinvolto tre persone a cui è stato chiesto di osservare un migliaio di immagini di tre tipologie: entità naturali (come animali o persone), forme geometriche artificiali, lettere dell'alfabeto.
Nessun commento:
Posta un commento