Intelligenza artificiale e disabilità

121

Qual’è il legame tra l’intelligenza artificiale e la disabilità? La risposta corretta è contenuta in una notizia molto importante legata ad una donna che non aveva più la voce a seguito di un infarto, questo le aveva causato una paralisi alcuni anni prima. Attraverso un sistema coadiuvato dall’intelligenza artificiale è riuscita a tornare a parlare. Questa ricerca scientifica è stata pubblicata sulla rivista Nature, dietro a questo successo c’è un team di ricercatori dell’università della California.

Approfondiamo questa tecnologia

Sono stati impiantati degli elettrodi nella paziente, questi hanno consentito di attuare un processo di decodificazione dei segnali cerebrali della paziente, nel momento in cui cercava di pronunciare delle parole. Il tipo di tecnologia che è stata utilizzata è stata in grado di convertire i segnali cerebrali della donna in un linguaggio scritto.

Oltre a questo un avatar presente sullo schermo del computer, ha potuto pronunciare le parole e fare dei sorrisi, unendo altre espressioni di natura facciale ( imitando di fatto la mimica facciale di un essere umano). Questa ricerca cosa è riuscita a dimostrare? La risposta corretta è che per la prima volta, si sono potute sintetizzare parole e espressioni del viso, partendo solo ed esclusivamente da segnali di natura cerebrale, senza dover in tal senso ricorrere a suoni che generalmente vengono emessi dalla bocca.

Qual’è il fine della ricerca? Cercare di dare un supporto valido a persone che non hanno più la capacità di parlare, questo a causa di un ictus o di altre patologie quali:

  • Si parla di patologie come la paralisi cerebrale.
  • Si parla di patologie come la sclerosi laterale amiotrofica.

La finalità è quella di consentire a questi pazienti di poter recuperare la voce. Come può funzionare un impianto del genere? L’impianto che viene alimentato dall’intelligenza artificiale, dovrà essere necessariamente collegato via cavo alla testa del paziente che soffre di questa condizione tramite dei cavi. Tuttavia è anche bene aggiungere che sono in corso sviluppi relativi a queste versioni tramite collegamento wireless.

Ia e sviluppi futuri

Secondo le riflessioni e le valutazioni fatte dai ricercatori, nel prossimo futuro, tutte le persone che per problematiche varie, patologie, hanno perduto la capacità di parlare, potranno nuovamente fare conversazioni in tempo reale avvalendosi di immagini computerizzate riguardanti loro stessi. Tramite queste immagini saranno nuovamente in grado di trasmettere toni, inflessioni ed emozioni quali la gioia e la rabbia.

Questa ricerca di fatto porta avanti progressi che erano iniziati già in tempi passati, infatti circa due anni fa, il medesimo team di questa università della California, aveva pubblicato su una rivista nella quale si evidenziava come un uomo che si trovava in stato di paralisi, avvalendosi di un impianto e un algoritmo molto semplice, questo gli consentiva di produrre circa cinquanta parole molto basilari ( focalizzate più che altro ad esprimere bisogni basilari come richiedere attenzione e chiedere cibo), vennero visualizzate come un testo su un computer dopo che l’uomo aveva provato a pronunciarle.

Numero di elettrodi

Ritornando al caso in oggetto è bene dire che il numero degli elettrodi è quasi il doppio rispetto al caso del 2021, questo di fatto consente una capacità maggiore di cogliere i segnali del cervello che provengono da processi di natura sensoriale e motori a loro volta collegati all’area del linguaggio. Ricodiamo a tutti che il linguaggio come tale si avvale di una serie di aree quali:

  • Una delle aree coinvolte  è quella della bocca.
  • Un’altra delle aree coinvolte sono le labbra.
  • Un’altra delle aree coinvolte è la mascella.
  • Un’altra delle aree coinvolte è la lingua.
  • Un’altra delle aree coinvolte è la laringe.

Il lavoro dei ricercatori è stato quello di dare un addestrammento all’Intelligenza Artificiale per riuscire a riconoscere parole, si parla in tal senso di fonemi e unità sonore che sono in grado di formare in tal senso qualsiasi tipologia di parola. Un’altra attività legata ai ricercatori è stata quella di creare una programmazione su un algoritmo tale per cui si è riusciti a decodificare l’attività cerebrale tramite onde audio.

Lingua parlata

Tuttavia come ben sappiamo, la lingua parlata contiene differenti tipologie di informazioni che non hanno solo la caratteristica di essere testuali ma riguardano anche:

  • Si parla di intonazione.
  • Si parla di tono.
  • Si parla di espressione facciale.

L’avatar della paziente è stato quindi programmato in maniera tale da tenere conto di dati provenienti da movimenti di natura muscolare. Per questo motivo la paziente ha provato a fare differenti espressioni facciali che riguardassero emozioni come la tristezza, la gioia, la felicità e la sorpresa, alternando una bassa intensità ad una media intensità.

Sono state anche fatte delle prove legate al movimento della lingua, della mascella, delle labbra. I segnali passati attraverso il processo di decodificazione, sono stati passati all’avatar. In questa modalità, la paziente ha potuto intraprendere una conversazione con il marito dove che per diversi anni non avevano più potuto comunicare in termini di linguaggio verbale.

Ricerca e neuroni

Nel contempo ci sono state altre ricerche che sono state portate avanti da altre università statunitensi, pubblicate successivamente sulla rivista Nature. In queste i ricercatori hanno impiantato nel paziente, degli elettrodi preposti a rilevare l’attività di singoli neuroni, una metodologia tuttavia che è meno stabile della ricerca di cui abbiamo parlato.

Il punto un comune tra i due studi è stato quello di utilizzare in entramibi i casi dei modelli definiti predittivi, questi fungono da supporto per riuscire a indovinare le parole presenti nelle frasi. Qual’è la caratteristica di questi sistemi? Quella di non abbinare solo semplici parole ma di scoprire modelli linguistici del tutto nuovi nel momento in cui risulta esserci un miglioramento dell’attività del cervello del riconoscimento.

Possibilità e limiti

Tuttavia dopo aver messo in evidenza i punti di forza delle due ricerche condotte è bene mettere in evidenza anche i limiti che sono emersi. Infatti se venivano utilizzati vocaboli di dimensioni molto grandi, il processo di decodifica delle parole aveva un errore pari ad un quarto delle volte.

Quindi si riusciva a interpretare in maniera più che corretta le espressioni dell’avatar e meno invece la voce. Tuttavia si potrà sviluppare un algoritmo che sia in grado di prevedere questo aspetto, questo sarà il lavoro futuro che andrà fatto. Non si tratta di sistemi in grado di “leggere la mente” ma sono in grado di interpretare quello che riescono a vedere fare al soggetto.

Intelligenza artificiale e nuove professioni