Un terzo dei professionisti ritiene che i rischi etici siano la principale preoccupazione per l’a.i. intelligenza artificiale.
Ottimizzare la logistica, individuare le frodi, condurre ricerche, fornire traduzioni: le “macchine intelligenti” stanno trasformando le nostre vite in meglio. Man mano che questi sistemi diventano più capaci, il nostro mondo diventa più efficiente e di conseguenza più ricco.
Giganti della tecnologia come Amazon, Facebook, IBM e Microsoft stanno affrontando i temi etici legati all’intelligenza artificiale. Google, ad esempio, ha accolto l’obiezione di coscienza dei suoi dipendenti e ha redatto un codice etico per l’Intelligenza Artificiale, nel quale si impegna a non realizzare sistemi o software che utilizzino l’AI per arrecare danno all’uomo.
Come già abbiamo visto in questo articolo, le domande sull’etica dell’a.i. intelligenza artificiale possono essere difficili da rispondere e gli aspetti operativi molto complessi.
Le principali preoccupazioni etiche relative all’etica dell’intelligenza artificiale riguardano:
- pregiudizi e discriminazioni
- mancanza di trasparenza
- violazione della privacy
- scarsa responsabilità
- rapporto con la forza lavoro
La maggioranza dei dirigenti si aspetta che l’a.i. intelligenza artificiale “trasformi sostanzialmente” le loro organizzazioni entro i prossimi tre anni. A loro carico però c’è anche l’importante responsabilità di gestire la mole di dati che le macchine continuano ad accumulare. Saperlo fare in maniera etica, inclusiva, non discriminante, è la vera sfida che ci si presenta.
Come possono fare le imprese a rendere l’etica dell’intelligenza artificiale una loro priorità?
La formazione interna
I sistemi di intelligenza artificiale imparano dai set di dati con cui sono formati. A seconda di come un set di dati viene costruito, esiste il potenziale rischio che i dati possano produrre assunzioni o pregiudizi, come pregiudizi di genere, razza o reddito, che potrebbero influenzare il comportamento di un sistema basato su tali dati.
Gli sviluppatori di questi sistemi non hanno alcun pregiudizio, ma molti sono stati i casi di pregiudizio o discriminazione creati dall’a.i. intelligenza artificiale in aree come il reclutamento di personale. Le imprese devono quindi assicurarsi che le loro soluzioni AI prendano le decisioni in modo equo e non diffondano pregiudizi quando forniscono consigli.
Le imprese devono provvedere a dotare gli sviluppatori di Intelligenza Artificiale di tutta la formazione necessaria per testare e correggere i sistemi che potrebbero involontariamente produrre delle disuguaglianze.
a.i. intelligenza artificiale: generare fiducia attraverso la trasparenza
È naturale che i clienti o le altre parti interessate dalla tecnologia vogliano sapere come funziona il sistema con cui sono entrati in contatto: quali dati sta utilizzando e come sta prendendo decisioni.
Tuttavia, gran parte dello sviluppo dell’intelligenza artificiale implica la costruzione di modelli altamente efficaci i cui meccanismi interni non possono essere spiegati facilmente: sono scatole nere. Esistono delle tecniche che aiutano a far luce all’interno della scatola nera di alcuni modelli di machine learning, rendendoli più interpretabili e accurati, ma non sono adatte a tutte le applicazioni.
L’uso etico dell’ai intelligenza artificiale deve tenere conto della responsabilità di essere trasparenti sul funzionamento dei sistemi e sull’uso dei dati, laddove possibile.
Le imprese per creare fiducia sono tenute a spiegare chiaramente quali dati vengono utilizzati dall’intelligenza artificiale e per quale scopo.
Rispetto della privacy
Molte aziende raccolgono grandi quantità di dati personali dai consumatori quando si registrano o utilizzano prodotti o servizi. Questi dati possono essere utilizzati per addestrare i sistemi basati sull’intelligenza artificiale per scopi quali pubblicità mirata, promozioni e personalizzazione.
Le questioni etiche sorgono quando tali informazioni vengono utilizzate per uno scopo diverso – ad esempio, per formare un modello per generare offerte di lavoro – senza il consenso degli utenti. Uno studio recente ha evidenziato che il 60% dei clienti è preoccupato che la tecnologia basata sull’intelligenza artificiale possa compromettere le loro informazioni personali.
Per costruire la fiducia dei clienti, le aziende devono:
- essere trasparenti su come vengono utilizzate le informazioni raccolte
- creare meccanismi più chiari per il consenso
- proteggere meglio la privacy individuale.
Tutelare il capitale umano
Le aziende traggono sempre più vantaggio dall’esperienza digitale per gestire i propri processi di produzione. L’applicazione dell’intelligenza artificiale alle loro operazioni fornisce una migliore visibilità e prevedibilità; tuttavia, questi sforzi non includono ancora del tutto i diritti umani.
Le aziende stanno utilizzando l’intelligenza artificiale per automatizzare le attività, con alcune che mirano a sfruttare l’automazione per ridurre la loro forza lavoro. Sicuramente anche i lavori che non vengono eliminati possono essere influenzati in qualche modo dall’a.i. intelligenza artificiale.
Come abbiamo scritto in questo nostro precedente articolo: “attraverso l’intelligenza collaborativa, l’uomo e l’AI Intelligenza Artificiale accrescono i punti di forza complementari l’uno dell’altro”. I datori di lavoro dovrebbero trovare il modo di utilizzare l’intelligenza artificiale per aumentare le opportunità per i dipendenti, riducendo gli impatti negativi. Del resto la crescita economica derivata dal dinamismo delle imprese e dall’aumento della crescita della produttività, continuerà anche a creare posti di lavoro.
In conclusione
Se l’intelligenza Artificiale ci permetterà di riformulare un patto sociale tra individui, e di ridefinire alcune delle regole interne alle nostre realtà, sia private che professionali, saranno necessari determinati accorgimenti. Essere consapevoli di questi limiti può aiutarci a individuarli.
Il primo suggerimento che ci sentiamo di dare è di tenere sempre a mente l’imperativo categorico di Kant:
“agisci in modo da trattare l’umanità, sia nella tua persona sia in quella di ogni altro, sempre anche come fine e mai semplicemente come mezzo”.
Questo articolo è stato scritto da:
dal Blog
Ai Intelligenza Artificiale: qual è il suo ruolo nell’epidemia COVID-19?
Facciamo un po’ di chiarezza su come l’Ai Intelligenza Artificiale stia supportando la ricerca in questa delicata fase di emergenza sanitaria, portando i casi di alcuni software in uso. ll nuovo...
Namu è tra i soci dell’Italian Insurtech Association, assieme a Call2Net
Namu, assieme alla holding Call2Net Spa, ha scelto di associarsi all’Italian Insurtech Association per promuovere lo sviluppo del mercato assicurativo digitale, e accelerare l’innovazione dei modelli di offerta e servizio. Nel mondo assicurativo, per adeguarsi alle...
L’Intelligenza Artificiale nel 2020: i top trends
Cosa c'è da aspettarsi dall'evoluzione dell'intelligenza artificiale nel 2020 fino al 2021? Aumento di posti di lavoro, riconoscimento facciale, personalizzazione dell'offerta e molto altro ancora. Vediamo assieme quali sono i principali. L'intelligenza artificiale è...