Ha creato un modello di intelligenza artificiale che attraverso fotogrammi riconosce i segni e li traduce nella lingua parlata, contribuendo a rendere il mondo della tecnologia sempre più inclusivo. Si chiama Priyanjali Gupta ed è una giovane studentessa indiana di ingegneria informatica. Per ora il servizio è disponibile in lingua inglese.
Il suo algoritmo sfrutta l’interfaccia di programmazione di un’applicazione (API) della libreria software Tensorflow che rileva gli oggetti.
Ha creato il suo modello di tecnologia inclusiva ispirandosi al video sul rilevamento del linguaggio dei segni in tempo reale dell’ingegnere informatico australiano, Nicholas Renotte.
La creazione di un modello di deep learning dedicato al rilevamento della lingua dei segni è piuttosto impegnativa e ritiene che la comunità open source troverà presto una soluzione. Priyanjali Gupta sostiene che in futuro potrebbe essere possibile costruire modelli di deep learning esclusivamente per le lingue dei segni.
All’inizio del 2016, due studenti dell’Università di Washington di nome Thomas Pryor e Navid Azodi hanno inventato un paio di guanti chiamati “SignAloud”, che potrebbero tradurre il linguaggio dei segni in parole o testo.
La lingua dei segni, ASL, è la terza lingua più parlata negli Stati Uniti dopo l’inglese e lo spagnolo.
In Italia la comunità che utilizza la lingua dei segni italiana (LIS) comprende circa 40 mila persone, se si includono anche gli udenti, i numeri raggiungono i 100 mila.
Qui il video dimostrativo: https://www.youtube.com/watch?v=E7X9CWn_ElQ
Leggi le ultime news su: https://w3b.today
Può interessarti anche: “L’intelligenza artificiale è il progresso tecnologico più importante degli ultimi decenni”, Bill Gates
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it