Traduttore simultaneo della lingua dei segni creato con l’Ai da una studentessa universitaria

Ha creato un modello di intelligenza artificiale che attraverso fotogrammi riconosce i segni e li traduce nella lingua parlata, contribuendo a rendere il mondo della tecnologia sempre più inclusivo. Si chiama Priyanjali Gupta ed è una giovane studentessa indiana di ingegneria informatica. Per ora il servizio è disponibile in lingua inglese.

Il suo algoritmo sfrutta l’interfaccia di programmazione di un’applicazione (API) della libreria software Tensorflow che rileva gli oggetti.

Ha creato il suo modello di tecnologia inclusiva ispirandosi al video sul rilevamento del linguaggio dei segni in tempo reale dell’ingegnere informatico australiano, Nicholas Renotte.

La creazione di un modello di deep learning dedicato al rilevamento della lingua dei segni è piuttosto impegnativa e ritiene che la comunità open source troverà presto una soluzione. Priyanjali Gupta sostiene che in futuro potrebbe essere possibile costruire modelli di deep learning esclusivamente per le lingue dei segni.

All’inizio del 2016, due studenti dell’Università di Washington di nome Thomas Pryor e Navid Azodi hanno inventato un paio di guanti chiamati “SignAloud”, che potrebbero tradurre il linguaggio dei segni in parole o testo.

La lingua dei segni, ASL,  è la terza lingua più parlata negli Stati Uniti dopo l’inglese e lo spagnolo.

In Italia la comunità che utilizza la lingua dei segni italiana (LIS) comprende circa 40 mila persone, se si includono anche gli udenti, i numeri raggiungono i 100 mila.

Qui il video dimostrativo: https://www.youtube.com/watch?v=E7X9CWn_ElQ

Leggi le ultime news su: https://w3b.today

Può interessarti anche: “L’intelligenza artificiale è il progresso tecnologico più importante degli ultimi decenni”, Bill Gates

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts