IL PROGETTO

Intelligenza artificiale: il Miur finanzia OpenEye, il “lettore” per le persone con deficit visivi

Il dispositivo di PaperLit, tech company del gruppo Datrix, ottiene 350mila euro di fondi. Grazie all’interazione con Google Home e Amazon Echo consente l’ascolto di libri, riviste e quotidiani

Pubblicato il 24 Gen 2022

CleanShot 2022-01-22 at 08.28.11@2x

Ammonta a 350.896 euro il finanziamento concesso dal Miur, nel contesto del Programma operativo nazionale (Pon) Ricerca e innovazione 2014-2020, al progetto OpenEye, ideato da PaperLit, tech company del gruppo Datrix specializzata nella trasformazione digitale del publishing e nella distribuzione di contenuti via mobile e smart speaker.  Il progetto avrà una durata di 18 mesi e porterà alla creazione di una piattaforma ad alto contenuto tecnologico che, grazie ad un dispositivo di nuova concezione e all’integrazione con sistemi di domotica, permetta alle persone con deficit visivi di ascoltare contenuti scritti su supporto cartaceo. Il dispositivo, delle dimensioni ridotte di una lampada da tavolo, avrà come interfaccia vocale Amazon Echo e Google Home.

Reader, server e assistente

Nello specifico, la piattaforma sarà composta da tre elementi. Innanzitutto OpenEye reader, il dispositivo dotato di fotocamera ad alta risoluzione e microcontrollore proprietario che permette la cattura di immagini da edizioni cartacee (libri, riviste, quotidiani), effettua operazioni di pre-processing (elaborando le immagini in modo da garantire la leggibilità delle lettere e la compressione dei dati) e le trasmette via wi-fi al server per l’analisi.

Quindi il server OpenEye, che comunica con il reader e con l’assistente per offrire il servizio di conversione da immagini a testo. Il server sarà dotato di tecnologie di Ocr (Optical character recognition) e machine learning che distinguono gli elementi della pagina e restituiscono un testo “logico” leggibile dagli assistenti vocali. Le sfide riguardano l’identificazione delle varie parti del testo (titolo, didascalie, corpo) ed il montaggio dello stesso secondo il corretto ordine di lettura: non è raro infatti che l’impaginazione editoriale posizioni il testo in maniera intuitiva per un essere umano ma non per una macchina ed è molto frequente lo spezzettamento di contenuti editoriali su più pagine non contigue tra di loro. Per il raggiungimento di questo obiettivo si farà ricorso alle più recenti ricerche in ambito machine learning ed in particolare alle tecniche di natural language processing.

Infine, l’assistente OpenEye, applicazione disponibile per i servizi Google Home e Amazon Echo che riceve i comandi vocali da parte dell’utente, li invia al reader o al server per gestire il servizio, e riceve dal server il testo da leggere all’utente con deficit visivi.

Collaborazioni anche con l’Università di Cagliari

PaperLit svilupperà l’intero progetto, sfruttando collaborazioni con 3rdPlace (altra società del gruppo Datrix) nell’ambito AI e l’Università di Cagliari, Dipartimento di Ingegneria elettronica, in relazione allo sviluppo del microcontrollore. Il finanziamento verrà erogato attingendo al fondo Esif Ricerca e innovazione gestito dall’Ufficio finanza d’impresa e crediti speciali del Banco di Sardegna, una struttura specialistica che assiste i proponenti in tutte le fasi di sviluppo del progetto. Tale fondo nasce dall’aggiudicazione, da parte del Banco di Sardegna, di un bando di gara internazionale della Banca europea degli investimenti su fondi del Miur-Pon Ricerca e innovazione 2014-2020.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati