ROMA – Capire dalla nostra voce se siamo affetti da coronavirus potrebbe non essere più solo un’ipotesi. L’intelligenza artificiale può arrivare in nostro aiuto per effettuare veloci, economici e accurati test potenzialmente a tutta la popolazione, al posto dei tamponi, più costosi e anche tardivi nella risposta. A sostenerlo è Giovanni Saggio, docente di elettronica presso la macro-area di ingegneria e alla facoltà di medicina dell’università Tor Vergata di Roma, fondatore della start up “Voicewise”.
Le differenze nella nostra voce tra quando siamo in salute e quando siamo malati sono difficilmente percepibili dall’orecchio umano, ma per gli algoritmi – attraverso una semplice app gratuita – non è difficile fare uno screening, un tampone “virtuale”. E una sperimentazione è già stata avviata presso la struttura ospedaliera dei Castelli Romani, tutta dedicata ai pazienti Covid. Ma potrebbe partire a breve anche presso la Asl di Latina, l’ospedale San Matteo di Pavia e l’ospedale universitario di Verona.
«Visto che il coronavirus si insinua nei polmoni – afferma il professor Saggio – cambia la capacità dell’emissione dell’aria che produce voce». Da qui si parte quindi per l’esame vocale che può determinare lo stato di salute o meno rispetto al covid-19 ma anche ad altre patologie, secondo i suoi studi preliminari. Mentre il tampone «non può essere fatto a tutta la popolazione per i costi, la scarsità e i tempi di risposta, con questo sistema il medico potrebbe stabilire sulla base dei risultati chi è da sottoporre a tampone e chi no. Un po’ come il tracciato dell’elettrocardiogramma, sulla cui base il medico stabilisce, anche senza aver mai visto o visitato il paziente, se ha un problema cardiaco o no. In futuro, il medico potrà vedere il voicegramma, cioè l’andamento della voce, per stabilire se quel paziente è covid positivo oppure no».
Gli studi su questo tipo di analisi sono iniziati anni fa, nel 2009 circa, quando assieme a dei colleghi indiani Saggio ha pensato di sfruttare un algoritmo di intelligenza artificiale per analizzare le alterazioni della voce a fini diagnostici. «Si tratta di un algoritmo capace di evidenziare oggettivamente anche minimali variazioni della voce, impercettibili all’orecchio umano, provocate quando un soggetto passa a uno stato patologico».
Negli anni sono stati fatti anche studi sulle malattie neurodegenerative, come il Parkinson, con risultati promettenti che sfiorano il 95% di accuratezza nei casi esaminati, «persino in pazienti nella fase iniziale della malattia, non ancora sottoposti a terapia. Ma il vantaggio non è soltanto nel supporto ad anticipare la diagnosi. Questo sistema può tenere traccia dell’evoluzione, può valutare l’efficacia della terapia quotidianamente e può anche servire a dosare il farmaco. Stiamo estendendo la sperimentazione al tumore testa-collo, a disfagia, all’Alzheimer, alla distrofia e alla fibrosi polmonare idiopatica».
Un utilizzo di questo sistema per lo screening della voce a fini diagnostici è stato ipotizzato anche sui migranti che sbarcano, quando spesso i numeri degli sbarchi rende impossibile fare un test a tutte le persone, ma finora senza essere stato mai applicato.
E ora? Continua la sperimentazione ma, «per funzionare, deve essere fatta su voci omogenee per sesso, fascia di età ed etnia. L’algoritmo ha bisogno di un ingresso di dati per almeno qualche centinaio di casi. Più sono gli ospedali che partecipano alla sperimentazione, più si accorciano i tempi. In quattro settimane potremmo essere pronti. E – conclude Saggio – con risposte in tempo reale».