Microsoft Research Asia ha rilasciato, una decina di giorni fa’, una dimostrazione-video di un prototipo denominato “Kinect Sign Language Translator“, una tecnologia in grado di tradurre segnali visivi in parole pronunciate da un avatar tridimensionale virtuale, basato su Kinect e vari altri sensori. L’accessorio offerto in dotazione con la Xbox One di Microsoft è un chiaro esempio dell’aiuto che può dare la tecnologia consumer nella soluzione di difficili problematiche della vita di tutti i giorni per alcuni utenti.L’attuale implementazione di Kinect, tuttavia, non permette l’esatta traduzione gesti/macchina, dal momento che non riesce a riconoscere il movimento di ogni singolo dito, la rotazione della mano o la mimica facciale legata ad una particolare situazione. Si tratta di un grosso ostacolo al momento attuale per il corretto riconoscimento di simboli e gesti.Questa modalità di traduzione mostra come le parole possano essere tradotte partendo da un gesto. La comunicazione umana non è un semplice trasferimento di informazioni, come quanto permesso dalle tecnologie attuali: al di là di parole e gesti ci sono tante sfumature importanti a partire dal contesto, dalla cultura, dalla relazione fra i comunicanti, dal tono e dall’emozione trasmessa, senza contare che prioritari significati di alcune parole potrebbero essere rappresentati tramite un relativo movimento fisico e dal contatto fra i due interlocutori. La difficoltà per le tecnologie moderne e future è quella, insomma, di percepire ed analizzare i singoli movimenti del corpo e della mimica facciale e di inserirla in un contesto vivo: in altre parole, non c’è sempre una corrispondenza biunivoca fra gesti e parole espresse. Kamil Drabek di Migam, società che si basa sullo studio di tecnologie alla base del riconoscimento di gesti e parole, spiega che ci sono tre innovazioni cruciali sul nuovo Kinect che verrà diffuso il 22 novembre con Xbox One: fra le nuove funzionalità avremo la possibilità di riconoscere alcune espressioni e mimiche facciali, oltre ad alcuni movimenti del corpo. Migam sta approntando una sorta di dizionario aperto che integra un algoritmo basato su Kinect, in grado di apprendere e riprodurre nuovi gesti.L’interazione fra uomo e macchina è un argomento che letteratura e mondo della cinematografia affrontano ormai da tempo, ma di fatto è attualmente un problema irrisolto. Sembra abbastanza lecito pensare che fin quando non si riesce a realizzare una vera e propria intelligenza artificiale, un compuer in grado di capire realmente, pensare ed apprendere, saremmo bloccati ai semplici “comandi vocali”.Per quanto saranno sempre più complessi nel futuro, l’interazione fra uomo e macchina sarà basata su semplici richieste, ma qualcosa potrebbe cambiare proprio a partire dalle tecnologie di tutti i giorni.