AO_438

44 | MAGGIO 2022 AUTOMAZIONE OGGI 438 Attualità AUTOMAZIONE OGGI D al lavoro congiunto di studiosi dell’Università di Bologna e dell’U- niversità di Oxford arriva una nuo- va metodologia di auditing, unica al mondo, per aiutare le imprese e le organizzazioni a seguire le future normative europee sui sistemi di intelligenza artificiale (IA). L’iniziativa, presentata in un report appena pubblicato, è nata come risposta alla proposta di regolamento sull’intelligenza artificiale avan- zata lo scorso anno dalla Commissione europea (Artificial Intelligence Act - AIA), documento che si propone di coordinare l’approccio europeo ri- spetto alle implicazioni umane ed etiche dell’IA. La nuova metodologia di auditing, chiamata ‘capAI’ (conformity assessment procedure for AI), aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, preve- nendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a sin- goli individui, alle comunità, alla società più in generale, e all’ambiente. Messo a punto da un gruppo di esperti del Centro per l’Etica Di- gitale (Cede) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, capAI aiuterà le orga- nizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo stru- mento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’atti- vazione di sistemi affidabili e conformi all’Arti- ficial Intelligence Act europeo. Grazie a capAI, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza arti- ficiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le good practices sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiet- tivi del sistema di IA, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi con- tatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande. Una ‘cassetta degli attrezzi’ per le imprese “Per mettere a punto il percorso di capAI, ab- biamo prima di tutto creato il più completo data- base esistente sugli errori prodotti da sistemi di IA” spiega Matthias Holweg, American Standard Companies chair in operations management alla Saïd Business School e coautore del rapporto. “A partire da questo database, segnalando i pro- blemi più comuni e descrivendo in dettaglio le migliori best practices, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiu- tare le organizzazioni a sviluppare e gestire si- stemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che capAI possa diventare un processo standard per tutti i sistemi IA e pre- venire così i tanti problemi etici nati fino ad oggi”. Oltre a tutto questo, ‘capAI’ può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progetta- zione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fi- ducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA. “L’intelli- genza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’uma- nità e dell’ambiente: è una tecnologia estre- mamente potente, ma può diventare anche pericolosa” spiega il professor Luciano Floridi, direttore del Centro per l’Etica Digitale (Cede) dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report. “Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo pos- siamo contribuire a garantire lo sviluppo e l’uti- lizzo corretto di queste tecnologie”. Centro per l’Etica Digitale (Cede) - https://centri.unibo.it/digital-ethics/it Università di Bologna - www.unibo.it Università di Oxford - https://www.ox.ac.uk/ Matteo Benni Intelligenza artificiale e rischi etici Un nuovo report prodotto dall’Università di Bologna e dall’Università di Oxford aiuterà a proteggere le persone, la società, e l’ambiente dai rischi dell’IA, offrendo alle organizzazioni un nuovo approccio per sviluppare e gestire queste tecnologie in linea con le future normative europee Foto di 0fjd125gk87 da Pixabay  Report Centro per l’Etica Digitale (Cede)

RkJQdWJsaXNoZXIy Mzg4NjYz