Seminario a Roma sull’Etica delle IA

18 novembre 2019 | commenti: Commenta per primo |

Seminario gratuito a Roma sull’Etica delle IA e le responsabilità in Azienda

EVENTO POSTICIPATO A DATA DA COMUNICARSI

Si svolgerà mercoledì 27 novembre a Roma (presso Binario F from Facebook,Via Marsala 29H), dalle 9 alle 13, un seminario gratuito sull’etica delle IA, Intelligenze Artificiali, e sui profili di responsabilità aziendali, a cura dell’Arch. Daniele Verdesca che abbiamo spesso avuto il piacere di ospitare su queste pagine.

Obiettivi

Il Seminario organizzato da Piazza Copernico intende offrire strumenti per aumentare la consapevolezza dei MANAGER aziendali e dei FOUNDER delle start-up sui potenziali rischi di Responsabilità penale (L. 231/01), di Class Action (L. 31/2019) e violazione della Privacy (GDPR 2016/679) legati all’uso di INTELLIGENZE ARTIFICIALI (AI) NON CONFORMI ETICAMENTE alle Linee Guida UE e alle Raccomandazioni OCSE: antropocentriche; affidabili; eque.

Descrizione

Le recenti Linee Guida della UE (“Etica delle Intelligenze Artificiali”), dell’OCSE (“Orientamenti sulle Intelligenze Artificiali”) e delle Autorità Europee sulla Privacy (“Raccomandazioni per la conformità delle Intelligenze Artificiali al GDPR”) pongono con forza l’esigenza di proteggere le aziende dai potenziali rischi e/o danni derivanti dall’uso di AI non eticamente conforme nell’erogazione dei propri servizi o prodotti: Responsabilità penali; Class action; violazione Privacy; Sicurezza lavoro; ecc..

Inoltre, il fatto di riuscire a garantire che le AI utilizzate non danneggeranno l’uomo, sosterranno l’ambiente, non causeranno discriminazioni (di razza, sesso, religione, classe socioeconomica, ecc.), proteggeranno la privacy degli utenti (personale, sindacale, sanitaria e politica), può essere un valore aggiunto determinante nello sviluppo del “brand aziendale” e nella costruzione di un rapporto di “fiducia” con la comunità dei propri consumatori.

Diviene necessario, pertanto, aumentare la consapevolezza dei livelli apicali aziendali o degli startupper circa il valore strategico del dotarsi (ex-ante; in itinere; ex-post) di STRUMENTI DI CONTROLLO E VERIFICA ETICA DELLE AI sviluppate o acquisite in azienda.
Ogni progetto deve essere in grado di garantire un significativo livello di:

• Sicurezza,
• Affidabilità,
• Equità,
• Antropocentricità.

Lo scopo primario, quindi, è quello di prevenire:

• Perdite finanziarie dovute a loop autoreferenziali di trading automatico;
• Errori negli investimenti industriali a causa di big-data non corretti (bias);
• Furti d’identità elettroniche di massa o violazioni sistematiche della Privacy;
• Discriminazioni razziali o sociali o religiose nella erogazione di crediti o di finanziamenti;
• Discriminazioni di genere nella valutazione dei curricula o nella gestione del personale;
• Infortuni mortali sul lavoro in cicli produttivi Industry 4.0;
• Incidenti mortali derivanti da sistemi di guida autonoma (terrestre ed aerea);
• Fake news e campagne di odio sui social o sulle piattaforme di informazione telematica;
• Ecc..

Adottare un modello etico diviene, perciò, una scelta strategica che garantisce la competitività̀ globale del prodotto/servizio che utilizza le AI, perchè:

a) rassicura le comunità̀ di utenti che lo utilizzeranno;
b) abbassa il rischio di boicottaggio commerciale o campagne di odio sui Social;
c) riduce eventuali risarcimenti danni o Class Action che potrebbero derivare dal danneggiamento degli esseri umani (a livello singolo o di intere comunità̀);
d) assicura la conformità̀ normativa;
e) aumenta la “reputation” del Brand aziendale.

Profilo dei partecipanti

I soggetti a cui si rivolge il seminario:

• MANAGER AZIENDALI o FOUNDER DI START-UP, impegnati a gestire lo sviluppo delle IA o il loro utilizzo a supporto di prodotti/processi/servizi.

• DIRIGENTI MINISTERIALI o DI ENTI PUBBLICI, a cui viene richiesto lo sviluppo di funzioni o servizi in grado di fornire ai cittadini una diversa amministrazione pubblica (non burocratica), in grado di non discriminare le fasce deboli e comunque di non recare danni/privilegi a categorie economiche o imprenditoriali.

• DIRIGENTI E SPECIALISTI di BANCHE e ASSICURAZIONI, al fine di valutare il rischio del potenziale assicurato o del potenziale finanziamento verso un’azienda che utilizza intelligenze artificiali per i propri servizi ai clienti.

• RICERCATORI o PROGRAMMATORI, impegnati (singolarmente o in team) a sviluppare soluzioni e tecniche innovative nell’area delle reti neurali o del machine learning, così che possano valutare le potenziali conseguenze dei risultati delle ricerche (o delle soluzioni) prima che vengano immesse sul mercato.

• STAKEHOLDERS, concentrati sull’individuazione di nuovi ambiti di responsabilità sino ad ora non esplorati, o sulla funzione di controllo e verifica delle istanze dei loro soggetti di riferimento (dalle associazioni di categoria a quelle dei consumatori o delle minoranze).

Contenuti del Seminario

Lo stato dell’arte delle Intelligenze Artificiali e i potenziali rischi etici da valutare

o Le diverse tipologie di IA:

– debole,
– forte,
– generale;

o I diversi approcci per l’implementazione degli algoritmi:

– Machine-learning,
– Deep-learning,
– Renforced Learning,
– Reti neurali e Generative Adversarial;

o Gli aspetti etici e legali di una IA:

– L’approccio umano-centrico nella progettazione, gestione e monitoraggio,
– Il pilastro della garanzia una IA affidabile e robusta,
– Gli scopi etici della IA,
– L’etica delle IA come fattore di competitività globale della UE,
– Il rapporto tra Etica delle IA e GDPR,
– Il nodo della responsabilità e/o personalità giuridica delle IA e dei robot,
– I profili di responsabilità legale per le aziende (normativa vigente).

Le Linee Guida UE e gli Orientamenti OCSE sull’Etica delle IA

o Il piano coordinato UE sulla IA
o I requisiti dell’affidabilità nella fase di implementazione:

– Responsabilità,
– Gestione dei dati,
– Progettazione per tutti,
– Gestione dell’autonomia delle IA e controllo umano,
– Non discriminazione,
– Rispetto dell’autonomia umana (decisionale) e della Privacy,
– Robustezza, sicurezza, trasparenza,
– Coinvolgimento degli stakeholder.

L’IA Etichal Model Canvas

o Introduzione al Business Model Canvas

o L’innovativo Canvas per l’Etica delle IA:

– I fondamentali:

• Autonomia umana,
• Governo dei dati,
• GDPR e Privacy,
• Responsabilità,
• Impatto sociale e ambientale,
• Impatto umano,
• Benessere e benefici;

– I trasversali:

• Equità ed eguaglianza,
• Robustezza e sicurezza,
• Trasparenza e tracciabilità;

o L’uso della metodologia del “Legal Design” per la trasparenza.

PER ISCRIVERSI AL SEMINARIO GRATUITO CLICCA QUI

 

Forse potrebbe interessarti anche:

Giudicati da una Intelligenza Artificiale?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.