Negli ultimi mesi, quando si parla di AI-intelligenza artificiale si affronta anche il tema dell’etica dell’intelligenza artificiale.

In questo articolo avevamo accennato che l’etica dell’intelligenza artificiale sarebbe stato un trending topic del 2019, insieme alle diverse evoluzioni dell’AI e all’ampliamento dell’utilizzo della Blockchain.

Il Dalai Lama afferma che “Una politica priva di etica non incrementa il benessere dell’umanità”, e noi siamo abbastanza sicuri che questa ispirazione possa essere estesa a tutti i campi dell’essere.

Parlare di intelligenza artificiale etica o codice etico dell’intelligenza artificiale in un momento come questo in cui l’intelligenza artificiale, nelle sue diverse applicazioni, sta diventando quasi consuetudine nelle aziende e nelle nostre case, è fondamentale.

Vediamo perchè.

Etica dell’intelligenza artificiale: l’importanza è palese

Gli strumenti e le macchine guidate dall’intelligenza artificiale, devono essere in grado di compiere i lavori per cui sono stati programmati, seguendo una morale?

La domanda è lecita.

Basti pensare che questi strumenti vengono creati da essere umani, i quali hanno pensieri ed emozioni proprie, ed il rischio è che queste sensibilità – se così vogliamo chiamarle – possano essere passate seppure inconsapevolmente agli algoritmi durante il loro training.

Il discorso, se ci pensi, non fa una piega.

L’intelligenza artificiale, invece, dovrebbe essere priva di pregiudizi.

Per questo possiamo dire a voce alta che l’intelligenza artificiale è valida quando gli algoritmi che la compongono sono equi e rappresentativi di tutte le persone e culture del mondo.

Un altro punto fondamentale è relativo al suo utilizzo.

È accettabile che uno strumento AI venga utilizzato per scopi militari, ad esempio? Tutto ciò è morale, è sicuro? È giusto?

Per tale motivo si pensa che questa tecnologia dovrebbe essere sviluppata in conformità con le leggi internazionali e che si dovrebbe procedere con attenzione all’integrazione dell’IA negli armamenti.

Tutto quanto abbiamo detto si inserisce nell’idea di etica dell’intelligenza artificiale.

Il bisogno di un’etica per l’intelligenza artificiale: il caso Google.

Nel gennaio del 2018 accadde una cosa abbastanza importante: fu “in qualche modo” risolto un problema tecnico negli algoritmi di riconoscimento delle immagini in Google Foto.

Tre anni prima, un ingegnere denunciava che i suoi amici afro venivano classificati da Google Foto con il tag “gorilla”.

etica dell'intelligenza artificiale

Prima segnalazione dell’algoritmo “razzista” di Google

 

Per il colosso americano rappresentò ovviamente una figura misera, per il mondo uno scandalo: Google venne tacciato di razzismo.

Big G si scusò per l’errore, promettendo di risolvere il problema. In realtà si limitò a bloccare del tutto i suoi algoritmi di riconoscimento delle immagini, dall’identificazione dei gorilla.

Negli anni furono fatti altri test su categorie razziali, in particolare “uomini neri” e “donne nere”, che restituirono immagini di persone vestite di nero, ordinate per genere e non per razza.

Come mai Google ha dovuto bloccare addirittura queste categorie e non è riuscito ad educare gli algoritmi?

Esempi come questo dimostrano chiaramente che l’intelligenza artificiale necessita di training in cui vengono contemplati i diversi background, le diverse etnie, gruppi di età, generi e dati demografici socio-economici. Ma come possiamo essere sicuri che i dati estratti decenni fa o anche oggi non siano di parte? E quali misure dovrebbero essere prese per evitare le trappole potenzialmente dannose dell’IA?

Il codice dell’etica dell’intelligenza artificiale

Per rispondere a queste numerose domande, a fronte dei numerosi casi e dubbi sull’argomento, il 18 dicembre del 2018 l’Europa ha pubblicato una bozza del codice etico sull’intelligenza artificiale.

Qui la bozza in italiano.

Secondo un rapporto della Nuffield Foundation e del Leverhulme Centre for the Future of Intelligence presso l’Università di Cambridge, “un approccio etico allo sviluppo e alla diffusione di algoritmi, data e intelligenza artificiale (ADA) richiede chiarezza e consenso sui concetti etici e risoluzione delle tensioni tra i valori”.

Le organizzazioni e i governi hanno bisogno di aiuto e questo rapporto fornisce un’ampia roadmap per il lavoro da fare sulle implicazioni etiche e sociali delle tecnologie basate su ADA.

La tabella di marcia identifica le domande per la ricerca che devono essere prioritarie al fine di informare e migliorare gli standard, i regolamenti e i sistemi di supervisione delle tecnologie basate su ADA. Senza questi, gli autori del rapporto concludono che la recente proliferazione di vari codici e principi per l’uso etico delle tecnologie basate su ADA avrà un effetto limitato.

Nel marzo 2019, verranno presentati gli orientamenti finali del codice alla Commissione Europea, che li analizzerà e proporrà come portare avanti questo lavoro. L’ambizione è quindi di estendere l’approccio etico dell’Europa allo scenario globale, includendo la cooperazione di tutti i Paesi che sono disposti a condividere gli stessi valori.

 

Noi rimaniamo in attesa di questo documento, ritenendo l’etica dell’intelligenza artificiale indispensabile per contribuire a realizzare una proficua convivenza fra esseri umani e macchine, senza dimenticarsi della centralità dell’essere umano.

Questo articolo è stato scritto da: Erika Buzzo

Digital Strategist, Namu srl

dal Blog