News Tre domande ai partner di progetto IICT
Nell’ambito dell’iniziativa Flagship, l’agenzia svizzera per la promozione dell’innovazione (Innosuisse) ha autorizzato un progetto di ampia portata della durata di quattro anni dal titolo «Inclusive Information and Communication Technologies» (IICT, Tecnologie inclusive dell’informazione e della comunicazione). Abbiamo rivolto tre domande ai partner del progetto.
Descrizione Innosuisse IICT
Il progetto nell’ambito dell’accesso senza barriere è incentrato sulle seguenti cinque applicazioni: semplificazione del testo, traduzione in lingua dei segni, verifica della lingua dei segni, audiodescrizione e sottotitoli parlati.
In questa serie di interviste, abbiamo rivolto tre domande sul progetto IICT Innosuisse ai nostri partner principali.
Maggiori informazioni su tutte e 15 le iniziative Flagship di Innosuisse qui.
Tre domande a Sarah Ebling
Sarah Ebling, responsabile del gruppo dedicato alla tecnologia linguistica per l’accessibilità del dipartimento di linguistica computazionale dell’Università di Zurigo (UZH) e docente di «Accessibility Studies» all’Università di Scienze Applicate di Zurigo (ZHAW)
Su quali argomenti/ambiti sta lavorando nel quadro del progetto IICT?
Io sono la sperimentatrice principale del progetto generale. Con i miei team della UZH e della ZHAW, mi occupo di semplificazione del testo, traduzione nella lingua dei segni, verifica della lingua dei segni e di sottoprogetti nel campo dell’audiodescrizione.
Che risultati si attende alla fine del progetto?
Per ciascuno dei sottoprogetti abbiamo tentato di definire sia un’innovazione più immediata, sia una più visionaria. Per la traduzione in lingua dei segni, per esempio, a breve saremo in grado di visualizzare notifiche utilizzando un interprete digitale nella lingua dei segni che sfrutta il paradigma della traduzione automatica basata su regole e il lavoro in corso nell’ambito della produzione in lingua dei segni. Anche la traduzione automatica con apprendimento profondo ricade nella sfera di interesse del progetto ed è un filone di ricerca molto più ambizioso.
Quali sono secondo lei le sfide principali?
Tutti i sottoprogetti prevedono in una certa misura tecniche di apprendimento profondo, per cui ognuno di essi richiede nutriti quantitativi di dati. Ottenerli o crearli artificialmente nel quadro dell’aumento dei dati è una sfida.
Tre domande a Julien Torrent
Julien Torrent, Head of Innovation presso l’istituto ICARE
Su quali argomenti/ambiti sta lavorando ICARE nel quadro del progetto IICT?
In seno all’iniziativa Flagship IICT, l’istituto di ricerca ICARE si sta occupando del sottoprogetto 1, concernente la semplificazione di testi, e del sottoprogetto 4, che riguarda audiodescrizione e L2V.
Per quanto concerne la semplificazione di testi, l’obiettivo è creare una serie di algoritmi che ne riducano la complessità, in modo da renderli comprensibili al maggior numero di persone possibile, in particolare a persone con disturbi cognitivi. Per favorire una più ampia diffusione di questa pratica da un punto di vista pedagogico, il sistema di regole permetterà correzioni manuali nonché semi-automatiche, consentendo all’utente di imparare come si semplifica un testo e rendendolo un processo standard nel lavoro quotidiano di scrittura.
In tema di audiodescrizione e L2V, l’idea è quella di rendere accessibili i contenuti visivi a ipovedenti o non vedenti. In quest’ambito lavoriamo con tecnologie avanzate di intelligenza artificiale come trasformatori, che in questo caso consentono di estrarre informazioni visive dai video e di trascrivere i contenuti in testo, che può a sua volta diventare orale con l’ausilio della sintesi vocale. Il processo di audiodescrizione prevede un flusso dinamico di attività che consente all’operatore di selezionare gli elementi da attivare a seconda del risultato che intende ottenere (descrizione del contesto, delle scene e/o delle espressioni facciali).
Che risultati si attende alla fine del progetto?
L’istituto ICARE, specializzato nella ricerca applicata, mira a integrare tecnologie avanzate nei due progetti che segue al momento per risolvere i problemi legati all’accesso senza barriere su scala nazionale. L’obiettivo è creare soluzioni pratiche per professioniste, professionisti, consumatrici e consumatori finali. I risultati dovrebbero avere una rilevanza tale da trovare applicazione nella vita di tutti i giorni.
Quali sono secondo lei le sfide principali?
Una delle sfide più impegnative da affrontare è capire come integrare le tecnologie avanzate di IA in applicazioni pratiche accessibili alle utenti e agli utenti finali. È essenziale trovare il giusto compromesso tra accuratezza e usabilità, compito non sempre facile. Inoltre, dobbiamo assicurarci che il ricorso all’intelligenza artificiale non contravvenga a principi etici, soprattutto nel campo della protezione dei dati e della privacy dell’utenza. Nel sottoprogetto 4, un’analisi approfondita delle esigenze delle utenti e degli utenti ha evidenziato che questi si aspettano una descrizione emotiva di espressioni facciali e scene. Per rispondere a questo desiderio è stato adottato un approccio innovativo che ha già prodotto risultati promettenti, con un miglioramento del 15% rispetto ai modelli allo stato dell’arte. Questi risultati devono ancora essere perfezionati e consolidati ma le prospettive sono oltremodo incoraggianti.
Tre domande a Paul Anton Mayer
Paul Anton Mayer, Chief Digital Officer presso capito
Su quali argomenti/ambiti sta lavorando capito nel quadro del progetto IICT?
capito semplifica le informazioni con l’intelligenza artificiale per renderle comprensibili a chiunque. Questo è il lavoro di base nel sottoprogetto 1, preliminare a molte altre soluzioni.
Che risultati si attende alla fine del progetto?
Soluzioni per una società inclusiva.
Non solo mi aspetto informazioni percettibili e comprensibili nel contesto di:
trasmissioni pubbliche,
pubblica amministrazione,
assicurazioni e banche.
Le pretendo. La nostra società ha bisogno di soluzioni di questo tipo.
Quali sono secondo lei le sfide principali?
La gestione e l’integrazione dei dati. Lavoriamo con l’intelligenza artificiale, per cui ci basiamo sui dati. E le catene di valore dei dati sono spesso difficili da mantenere e controllare. L’integrazione, poi, è problematica perché i servizi scalabili di vasta portata sono spesso complessi da integrare nelle infrastrutture esistenti ed è una sfida rispettare le disposizioni vigenti nei nostri campi di azione. Fortunatamente, però, abbiamo strategie per superare queste prove.
Tre domande a Dr. Mathew Magimai Doss
Dr. Mathew Magimai Doss, Senior Researcher presso idiap Research Institute
Su quali argomenti/ambiti sta lavorando Idiap nel quadro del progetto IICT?
Nel progetto IICT, Idiap è coinvolto in due sottoprogetti:
Sottoprogetto 3: verifica della lingua dei segni con l’Alta scuola intercantonale di pedagogia curativa di Zurigo (HfH), Idiap e l’University of Surrey nel ruolo di partner della ricerca e la Federazione Svizzera dei Sordi (SGB-FSS) in quello di partner dell’implementazione. Questo sottoprogetto ha per oggetto l’elaborazione della lingua dei segni con l’obiettivo di sviluppare e integrare nella piattaforma signwise.ch della SGB-FSS un sistema di verifica della lingua dei segni in grado di fornire un feedback automatico a chi la studia. La ricerca e lo sviluppo si concentrano sulla lingua dei segni svizzero-tedesca (DSGS) e su segni isolati.
Sottoprogetto 5: sottotitoli vocali con Idiap nel ruolo di partner della ricerca e SWISS TXT in quello di partner dell’implementazione. Il sottoprogetto si concentra sull’elaborazione vocale, con l’obiettivo di sviluppare la tecnologia necessaria per un componente aggiuntivo in grado di produrre un audio che suoni espressivo e naturale per i sottotitoli generati da SWISS TXT. La ricerca e lo sviluppo si concentrano su sistemi di sintesi e di conversione vocale per le lingue inglese, tedesco, francese e italiano.
Che risultati si attende alla fine del progetto?
Nel sottoprogetto 3, sulla piattaforma signwise.ch, ci aspettiamo di automatizzare la verifica delle produzioni in lingua dei segni a livello di segni individuali e di incorporare test adattivi in un test ricettivo della lingua dei segni.
Nel sottoprogetto 5, ci aspettiamo di poter integrare in Swissinfo (SWI), www.swissinfo.ch, una tecnologia di sintesi vocale espressiva, in cui i contributi video del sito swissinfo.ch (SWI), spesso disponibili solo nella lingua originale, siano fruibili anche in altre lingue principali. Un’applicazione secondaria riguarda la sintesi di articoli di notizie su SWI. Entrambe le applicazioni mirano a diffondere efficacemente informazioni relative alla Svizzera e a potenziare la ricettività delle persone nei confronti di culture diverse abbattendo le barriere linguistiche.
Quali sono secondo lei le sfide principali?
Nel sottoprogetto 3, stiamo valorizzando una tecnologia di lingua dei segni sviluppata nel quadro dei progetti Sinergia del Fondo nazionale svizzero per la ricerca scientifica SMILE e SMILE-II. La sfida più impegnativa è scalare la tecnologia da condizioni controllate di laboratorio al mondo reale, dove il controllo su hardware e contesto ambientale è minore, e rendere la tecnologia accettabile da parte di studenti e insegnanti.
Oggi, grazie ai progressi in atto nell’apprendimento profondo, sintetizzare voci che suonino umane non è più un compito ostico. La prova più difficile è rendere il prodotto della sintesi vocale espressivo come la voce umana. A tal fine serve una tecnologia di sintesi vocale che possa essere controllata in modo capillare e venga accettata da ascoltatrici e ascoltatori umani non consapevoli. Nel sottoprogetto 5, la sfida è proprio questa.
News Ulteriori news