Abbandono scolastico: un modello previsionale di IA per prevederlo, garantendone l’etica.

0
abbandono

intervista al Dr. Antonio Ballarin: Visiting Professor University Canada West, Senior Member della ‘International Neural Network Society’, Accademico d’Onore dell’Accademia di alta cultura . I nostri Lettori già conoscono il Dr. Ballarin e il suo impegno a favore della collettività per presentare e spiegare tematiche significative, anche legate all’utilizzo dell’Intelligenza Artificiale. In molti, hanno un moto negativo, al sentirne parlare: ma è a causa del non semplice approccio alla materia per chi non abbia un minimo di preparazione, che possa consentirgli quantomeno di comprendere ‘di cosa si stia parlando’. Il Dr. Ballarin si è sovente reso disponibile a incontri divulgativi, specie a beneficio dei giovani, grazie ai quali ‘ha preso per mano’ i propri ascoltatori facendo loro condividere l’interesse della materia. Proprio questi incontri hanno stimolato il Dr. Ballarin – particolarmente esperto in Fisica Quantistica e in tutto ciò che a essa è pertinente – a concentrare la sua attenzione anche sul settore scolastico e delle università: certo di poter offrire un contributo concreto.  

D: Dr. Ballarin, grazie per questa sua intervista esclusiva. Oggi parlare di scuola, IA e sue applicazioni e quant’altro, fa venire l’idea di avvicinarsi a un pianeta sconosciuto e ostile. Sappiamo che segue BETAPRESS con tutti gli articoli specificamente dedicati alla Scuola, così da indurla a entrare nel merito di una situazione particolare, qual è quella dell’abbandono scolastico. l’Intelligenza Artificiale (IA) è sicuramente uno degli argomenti più discussi e dibattuti degli ultimi anni, con applicazioni che spaziano dalla medicina alla finanza, dall’automazione industriale alla creatività. L’IA sta trasformando molte aree della nostra vita quotidiana e del lavoro, suscitando anche interrogativi etici e sociali. In questo contesto si colloca la prossima Conferenza Internazionale sulle Reti Neurali, che si terrà proprio a Roma il prossimo giugno. Un evento realizzato da una delle più prestigiose associazioni del settore, la International Neural Network Society. Questo è il motivo che ci ha indotto a sensibilizzarla alle nostre domande.

R: La International Neural Network Society organizza ogni anno una Conferenza di livello internazionale quale importante opportunità di aggiornamento e confronto tra esperti, ricercatori e professionisti del settore. Le reti neurali, un sottoinsieme dell’IA, sono alla base di molte delle tecnologie più avanzate che stiamo vedendo emergere, come il riconoscimento vocale, la visione artificiale, e il machine learning.  Questa Conferenza avrà sicuramente un ruolo centrale nel delineare le prossime frontiere dell’IA come pure nel rispondere a interrogativi fondamentali riguardo l’evoluzione della tecnologia. È interessante notare come, in un contesto come quello, si discuterà non solo degli aspetti tecnici e scientifici delle reti neurali, ma anche delle implicazioni etiche e sociali legate al loro utilizzo, tema che sta diventando sempre più centrale.

D:- Lei, Prof. Ballarin, è un ricercatore affermato nel settore, avendo maturato in più di trent’anni di ricerca e sviluppo una grande esperienza su questa materia. Immagino che per quest’occasione lei presenterà un lavoro di ricerca.

R:- Ho appena terminato un articolo, insieme ad un mio caro collega, l’Ing. Giovanni Fruscio, che si focalizza su una metodologia praticabile, decisamente pragmatica, al fine di offrire una risposta concreta alla ricerca di forme di sviluppo che realizzino artefatti di IA che siano anche “etici”.Il tema dell’etica nell’IA è molto sentito, tanto che l’Unione Europea ha emanato lo scorso luglio 2024 un regolamento che ha l’obbligo di essere recepito dagli Stati membri. Ed infatti il nostro attuale Governo sta lavorando su un disegno di legge che regolamenti la materia. Tuttavia, a coloro che svolgono attività di ricerca e sviluppo, l’approccio normativo che si sta definendo risulta di difficile applicazione pratica.

D:- In che senso?

R:- Entrando un po’ più nel dettaglio si nota un approccio di tipo prescrittivo nello sviluppo dell’IA. In altre parole, le norme indicano una serie di azioni da eseguire e di controlli da condurre durante lo sviluppo dell’IA, i quali, se seguiti alla lettera, dovrebbero produrre una IA “etica”. Invece, la forma mentis di uno sviluppatore in questa materia (tipicamente un fisico, un matematico, uno statistico, insomma, un “data scientist”) è tale per cui sarebbe disposto a fare un patto con il diavolo pur di vedere realizzato uno strumento meccanico che emula alla perfezione un comportamento umano. Quindi, un simile approccio, come quello ben descritto nelle raccomandazioni dell’Unione Europea, è semplicemente inapplicabile.

D:- Quale sarebbe, secondo lei, l’alternativa?

R:- È proprio l’oggetto dell’articolo che abbiamo sottomesso alla valutazione del Comitato Organizzatore della Conferenza di Roma e si riassume con la seguente locuzione: i test etici per l’IA.  In sintesi: se un artefatto di IA è un’emulazione del comportamento umano in relazione allo svolgimento di una certa attività e se l’essere umano, nello svolgimento di tale attività, è tenuto a rispettare un quadro comportamentale definito da leggi, norme, regolamenti, procedure, best practice, ecc., allora anche l’IA che emula tale comportamento umano è tenuta a rispettare lo stesso quadro comportamentale. L’idea dei test etici è sviluppata su questo principio e, proprio sulla base di questo principio, può essere sviluppata una metodologia pragmatica in grado di testare la corrispondenza nell’osservanza dell’artefatto al quadro comportamentale entro il quale sarà necessariamente collocato nel suo funzionamento.

 

 

D:- Un modo di approccio decisamente pragmatico per dare una risposta efficace a ciò che la società civile si aspetta da una “macchina”. Nel suo lavoro di ricerca lei presenta un esempio concreto di utilizzare questa metodologia concentrandosi sul fenomeno dell’abbandono scolastico. Perché proprio questa tema? È possibile veramente utilizzare l’IA per prevenire un simile fenomeno?

R:- Cominciamo dall’ultima domanda, alla quale rispondo subito: sì, è possibile prevenire l’abbandono scolastico utilizzando strumenti di IA. È un tema che ho affrontato la prima volta nel 1994, realizzando un semplice strumento basato su una rete neurale per ottenere indicazioni sulla probabilità di abbandono da parte di studenti di una scuola media di Roma, situata in un quartiere molto popoloso e disagiato dove il fenomeno era particolarmente vissuto. Lo strumento che avevamo messo a punto riusciva a predire con un livello di accuratezza superiore all’80% la probabilità di abbandono e, quindi, di indirizzare azioni mirate verso quei soggetti per aiutarli nel loro percorso scolastico. Da quella data, l’utilizzo del “machine learning” in questo settore è stato molto ben sviluppato ed esiste una ampia letteratura su come vari strumenti di IA possono essere impiegati per contrastare l’abbandono scolastico con azioni mirate.​​​​​​​​​ Sul perché del concentrarsi proprio sull’abbandono scolastico è presto detto. Quando uno studente abbandona il suo percorso formativo è da considerarsi un fallimento sia per la persona che abbandona sia per la scuola, per la sua reputazione, per non aver saputo dare risposta ad un’esigenza umana, ecc. I problemi sociali sollevati da tale fenomeno sono sempre più ampi, come la povertà, la criminalità, la disuguaglianza sociale. Gli alti tassi di abbandono sono spesso indicativi di condizioni educative in deterioramento e possono perpetuare cicli di svantaggio all’interno delle comunità. Personalmente sono fermamente convinto che gli strumenti tecnologici, qualsiasi essi siano, devono avere l’obiettivo di alzare i livelli di civiltà. Per questo motivo l’IA deve essere considerata come supporto alle attività umane, al fine di poter elevare la persona e renderla più libera (magari offrendo, banalmente, maggior tempo da poter utilizzare) nella sua attività di ricerca esistenziale.

D:- Dunque, potremmo dire che il suo ultimo lavoro è una ricerca applicata ad un fenomeno ben preciso e decisamente cruciale nella nostra società. Posso chiederle quali sono gli elementi maggiormente significativi che ha potuto riscontrare?

R:- Come accennato in precedenza, il lavoro di ricerca che abbiamo condotto è finalizzato all’applicazione di una metodologia volta a verificare se un artefatto di IA sia rispettoso di quelle leggi, norme, regolamenti, procedure, best practice, ecc., che un essere umano sarebbe tenuto ad osservare nel medesimo ambito dove è posta ad operare l’IA. Nel caso ciò non avvenisse, la metodologia indica quali sono gli elementi su cui operare per correggere l’IA stessa. Partendo da questo scenario, nel caso specifico, abbiamo realizzato due sistemi di previsioni per l’abbandono scolastico: uno basato su reti neurali e l’altro su modelli “simbolici” ad albero decisionale. I primi generalmente prevedono con grande accuratezza, con capacità discriminatorie tra soggetti a rischio e non a rischio superiori all’80%, ma, a fronte di questa precisione, non sono in grado di spiegare perché un soggetto specifico sia, p.e., maggiormente a rischio ed un altro meno. I modelli “simbolici”, invece, sono meno precisi nella discriminazione predittiva, ma offrono una spiegazione del perché della loro previsione, si tratta della cosiddetta “spiegabilità algoritmica”.  Nella nostra ricerca abbiamo costruito due classificatori con queste due distinte tecnologie. Entrambi offrivano risposte identiche sui casi che avevamo a disposizione ed utilizzati per la loro messa a punto. Ma i loro comportamenti specifici erano decisamente diversi quando vengono applicati nella realtà pratica. Più precisamente, è normale costruire un artefatto di IA con i dati che si hanno a disposizione, ma una volta costruito l’artefatto, ai fini del suo utilizzo, deve essere posto nella realtà pratica oppure in una realtà “simulata” adeguatamente costruita per verificarne l’operatività. Ebbene, proprio in questa fase ci siamo accorti che i due modelli operavano in maniera fortemente discriminatoria, seppure in maniera difforme.  Il previsore a base neurale risultava “polarizzato” sulla base della nazionalità del soggetto analizzato, assegnando un valore di maggior probabilità di abbandono per persone provenienti dall’Europa dell’Est oppure dal Sud America, evidenziando, dunque, un palese pregiudizio. Mentre il previsore “simbolico” non mostrava alcuna polarizzazione in questo senso. Viceversa, il previsore “simbolico” discriminava pesantemente sulla base dell’istruzione dei genitori del soggetto analizzato, assegnando una probabilità maggiore di abbandono per le persone provenienti da famiglie a bassa scolarità. Mentre il previsore neurale risultava essere discriminatorio se i genitori del soggetto presentavano una scolarità elevata. Un pregiudizio, in entrambe i casi, decisamente allarmante.  Ora, è evidente che se un modello opera correttamente con i casi a disposizione per la sua costruzione, ma discrimina, nella realtà pratica, in base alla nazionalità od alla scolarità dei genitori, occorre intervenire per correggere le sue prestazioni La metodologia da noi sviluppata permette di conoscere, prima ancora che una simile IA venga rilasciata per il suo utilizzo pratico, gli elementi di “distorsione” (bias) su cui agire. L’altro risultato decisamente non atteso riguarda le diversità dei due previsori. Ci aspettavamo che il modello “simbolico” operasse in maniera “politicamente corretta” ed invece ci siamo resi conto che la spiegabilitàalgoritmica, offerta implicitamente da quel modello, non costituisce una garanzia per la sua operatività quotidiana.

D:- I risultati che lei racconta, Prof. Ballarin, sono decisamente interessanti anche per un non addetto ai lavori. L’applicazione pratica della sua metodologia basata sui “test etici per un’IA”, oltre ad essere pragmaticamente applicabile, sembra avere le capacità di rilevare aspetti nascosti tra le pieghe dei problemi e, allo stesso tempo, per nulla secondari. Quali sono i successivi passi che auspicherebbe per dare seguito alla sua ricerca e renderla fruibile in maniera diffusa?

R:- Dal punto di vista della ricerca, la difformità tra i due modelli realizzati per il caso specifico circa la previsione dell’abbandono scolastico, suggerisce di indagare meglio le cause che stanno alla base. Non credo che si tratti del problema specifico affrontato, ma riguardi qualche caratteristica intrinseca nei diversi modelli utilizzati. Di sicuro il comportamento del modello “simbolico”, sempre sul caso specifico analizzato, è un segnale di allarme per tutta la comunità scientifica che attribuisce “spiegabilitàalgoritmica” ai modelli ad albero decisionale. Come evidenziato ciò non è sempre vero. Dal punto di vista dell’applicabilità pratica, invece, mi aspetto il progressivo utilizzo di questa metodologia da parte di chi si occupa di IA in maniera professionale. È da tempo che sto conducendo la mia attività di ricerca focalizzata sui “test etici” ed ho avuto modo di colloquiare con molte realtà di mercato che desidererebbero applicare ina maniera estensiva questo approccio ai fini di una IA responsabile.Infine, sarebbe estremamente auspicabile che tale metodologia trovasse spazi adeguati proprio all’interno dell’impianto normativo una via di definizione sul tema dell’IA. A tal proposito penso che i “test etici” potrebbero essere una risorsa fondamentale per un’autorità di vigilanza in tema di IA.

Grazie al Prof. Antonio Ballarin per aver avuto la pazienza di spiegarci – nel modo meno tecnico possibile – concetti molto importanti, circa i quali non dovrebbe mancare l’attenzione di quanti a ciò istituzionalmente preposti.

WP to LinkedIn Auto Publish Powered By : XYZScripts.com