tecnologia etica

Perché è necessario integrare i valori etici e la responsabilità sociale nel DNA dell’innovazione?

Viviamo in un periodo di cambiamenti senza precedenti, quasi tutti guidati o abilitati dalla tecnologia, e principalmente dalle tecnologie digitali emergenti. Per le aziende che sono disposte a cercare di comprendere le trasformazioni in atto ci sono possibilità illimitate. Possibilità di raggiungere nuovi clienti e passare a nuovi modelli, aumentando la portata, l’impatto e l’efficacia di programmi, servizi, normative e politiche.

Ma ci sono anche delle tensioni sull’uso, lo scambio e l’integrazione dei dati a tutti i livelli. Esistono, in particolare, tensioni attorno ai vantaggi offerti dall’intelligenza artificiale e la necessità di proteggersi da possibili pregiudizi algoritmici.

Molte delle tecnologie emergenti che guidano la trasformazione digitale all’interno delle aziende sono accompagnate da preoccupazioni che non riguardano esclusivamente la tecnologia, ma soprattutto i suoi risvolti etici. Ecco quindi che parliamo di tecnologia etica e di risvolti che non possono, e soprattutto non devono, essere ignorati.

Riconoscere le questioni etiche relative alla trasformazione digitale e consentire all’etica di plasmare il processo di progettazione è una sfida chiave, e lo sarà per tutto il prossimo decennio.

Il mondo iper-tecnologico ha bisogno (anche di) filosofia ed etica

Questa affermazione, fino a poco tempo fa, poteva sembrare un ossimoro. In realtà chiunque operi nel campo tecnologico dovrebbe essere preoccupato delle implicazioni etiche del proprio lavoro, e porsi delle domande. Le scienze umane e sociali sono rilevanti nell’affrontare le questioni legate alla tecnologia etica.

La tecnologia etica in realtà non è un campo nuovo, ma molti nel settore tecnologico si stanno ora ponendo nuove domande, manifestando un interesse più ampio per l’argomento rispetto a prima.

Perché?

Perché oggi c’è un cambiamento sensibile nel mondo economico. I dibattiti sull’importanza di vivere i valori, e di rispettare un quadro etico attorno al quale si costruisce la cultura di un’azienda e le nuove tecnologie, sono in crescita.

Gartner, un’importante società americana di ricerca, ha dichiarato che l’etica e la privacy digitali sono una delle tendenze tecnologiche più importanti per il 2019. Inoltre, il Dipartimento britannico per il Digital, i media, la cultura e lo sport ha aggiornato il Data Ethics Framework rivolto al settore pubblico affermando che: “Etica e innovazione non si escludono a vicenda. Pensare attentamente a come utilizziamo i nostri dati può aiutarci ad essere più bravi a innovare quando li usiamo“.

Le questioni etiche e le possibili ripercussioni delle nuove tecnologie devono essere identificate prima della loro nascita. Considerando che la tecnologia cresce ad una velocità esponenziale, ci sarà sempre meno tempo per considerare le varie implicazioni etiche.

Implicazioni a cui la scienza non può rispondere: sono domande sui nostri valori. Questo è il regno della filosofia, non della scienza.

L’intelligenza artificiale in particolare solleva molte questioni etiche.

 

Tecnologia etica: la particolarità dell’intelligenza artificale

In questo articolo abbiamo parlato dell’importanza dell’etica nell’intelligenza artificiale. In particolare abbiamo sottolineato come l’etica digitale possa aumentare la fiducia nei risultati dell’intelligenza artificiale, aumentandone l’efficienza.

In mancanza di un approccio etico, i diritti individuali e i valori sociali potrebbero essere messi a rischio. L’innovazione basata sull’intelligenza artificiale potrebbe essere rifiutata, con il rischio di perdere innumerevoli opportunità. Innumerevoli se pensiamo che, solo negli ultimi quattro anni, le imprese che l’hanno adottata sono aumentate del 270%.

Oggi l’intelligenza artificiale è diventata uno dei pilastri della trasformazione digitale di ogni tipo di impresa: un dato su tutti è il 52% delle aziende di telecomunicazioni che oggi utilizza chatbot.  

I temi che includono la proprietà, il consenso e la privacy sono fondamentali. Sono le sfide tipiche della data governance. Relativamente a questo l’intelligenza artificiale, essendo basata su tecniche di auto-apprendimento, pone sfide etiche molto specifiche.

Problemi morali nella vita di tutti i giorni

Insegnare la moralità alle macchine per una tecnologia etica è difficile, perché obiettivamente gli umani non possono trasformare la moralità in una formula leggibile da un computer. In effetti è persino discutibile se noi, come esseri umani, abbiamo una solida comprensione della moralità su cui possiamo essere tutti d’accordo. Nei dilemmi morali gli umani tendono a fare affidamento sul sentimento istintivo, invece che su elaborati calcoli costi-benefici. Le macchine, dall’altra parte, necessitano di metriche esplicite e oggettive che possono essere chiaramente misurate e ottimizzate.

Ad esempio, come si insegna a una macchina a massimizzare algoritmicamente l’uguaglianza o superare i pregiudizi razziali e di genere nei suoi dati di apprendimento? Ad una macchina non può essere insegnato ciò che è giusto o sbagliato, a meno che gli ingegneri che progettino il sistema di intelligenza artificiale non abbiano una concezione precisa di ciò che è l’etica e il valore dell’uguaglianza.

Quindi cosa possiamo fare a riguardo? Come si ottiene una tecnologia etica? Sulla base delle nostre esperienze nell’apprendimento automatico, crediamo che ci siano tre modi per iniziare a progettare “macchine più etiche”.

1. Definire esplicitamente un comportamento etico

I ricercatori e gli esperti di AI devono formulare i valori etici come parametri quantificabili. In altre parole, hanno bisogno di fornire alle macchine risposte esplicite e regole decisionali a qualsiasi potenziale dilemma etico che potrebbe incontrare. Ciò richiede che gli esseri umani siano d’accordo tra loro sulla linea di condotta più etica in una determinata situazione: un compito impegnativo ma non impossibile.

Ad esempio, una specifica commissione del governo tedesco ha stilato delle linee guida per l’etica che dovranno avere i software di guida autonoma. Cliccando qui è possibile leggerne un estratto. La commissione ha raccomandato di programmare le macchine secondo valori etici che diano la priorità alla protezione della vita umana sopra ogni altra cosa. Un’auto non dovrebbe essere in grado di scegliere se uccidere una persona in base a caratteristiche individuali, come età, sesso o costituzione fisica / mentale, quando un incidente fatale è inevitabile.

2. Crowdsourcing della moralità umana

Gli ingegneri devono raccogliere dati sufficienti su misure etiche esplicite, per addestrare in modo adeguato gli algoritmi di intelligenza artificiale. Anche dopo aver definito metriche specifiche per i nostri valori etici, un sistema di intelligenza artificiale potrebbe ancora faticare a raccoglierlo se non ci sono abbastanza dati imparziali per addestrare i modelli. Ottenere dati appropriati è difficile, perché le norme etiche non possono essere sempre chiaramente standardizzate.

Situazioni diverse richiedono approcci etici diversi, e in alcune situazioni potrebbe non esserci affatto una singola linea di condotta etica. Un modo per risolverlo sarebbe quello di affiancare le potenziali soluzioni ai dilemmi morali di milioni di umani.

Un esempio arriva dal progetto della macchina morale del MIT, un sito web che mette gli utenti davanti ad alcuni dilemmi di natura morale per vedere come si comporterebbe in complicate situazioni. Un servizio di crowdsourcing per educare il pubblico in materia di etica durante la guida di un’automobile. Il sondaggio ha evidenziato che, indipendentemente dalla loro età, sesso o paese di residenza, la maggior parte delle persone risparmierebbe gli umani rispetto agli animali domestici e gruppi di persone rispetto a singoli individui. 

Cliccando qui potrete esprimere anche voi il vostro giudizio su alcune situazioni alla guida e, al termine, scoprirete dove vi collocate rispetto alla media degli utenti che hanno votato.

Ma è abbastanza? Le scoperte della ricerca del MIT hanno dimostrato che ci possono essere forti differenze interculturali nei valori morali in tutto il mondo, che devono anche essere prese seriamente in considerazione quando si progetta una tecnologia etica, ovvero sistemi di intelligenza artificiale rivolti all’uomo.

3. Rendere i sistemi AI più trasparenti

I responsabili delle politiche devono implementare le linee guida che rendano le decisioni dell’AI eticamente più trasparenti, specialmente per quanto riguarda le metriche dei risultati etici.

Se i sistemi di intelligenza artificiale commettono errori o hanno conseguenze indesiderate, non possiamo accettare un “è stato l’algoritmo” come scusante. Ma sappiamo anche che esigere la piena trasparenza algoritmica è tecnicamente insostenibile. Le reti neurali sono semplicemente troppo complesse.

Ci dovrebbe invece essere maggiore trasparenza su come gli ingegneri hanno quantificato i valori etici prima di programmarli, così come i risultati che l’AI ha prodotto come risultato di queste scelte. Per le auto a guida autonoma, ad esempio, ciò potrebbe implicare che i registri dettagliati di tutte le decisioni automatizzate siano mantenuti in ogni momento per garantire la loro responsabilità etica.

In conclusione

Se l’intelligenza delle macchine diventa sempre più pervasiva nella società, oggi dobbiamo sforzarci di quantificare i nostri valori etici. Non si può presumere che le macchine siano intrinsecamente in grado di comportarsi moralmente.

Siamo noi umani a dover insegnare loro cos’è la moralità, e come dev’essere misurata e ottimizzata. Per gli ingegneri di intelligenza artificiale, questo può sembrare un compito scoraggiante. Dopotutto, definire i valori morali è una sfida che l’umanità ha portato avanti nel corso della storia.

Ma se non possiamo essere d’accordo su ciò che rende un essere umano etico, come possiamo progettare una tecnologia etica?

Questo articolo è stato scritto da:

Gaia Gasparetto

Digital Strategist, Namu srl

dal Blog