Un terzo dei professionisti ritiene che i rischi etici siano la principale preoccupazione per l’a.i. intelligenza artificiale.

a.i. intelligenza artificiale

Ottimizzare la logistica, individuare le frodi, condurre ricerche, fornire traduzioni: le “macchine intelligenti” stanno trasformando le nostre vite in meglio. Man mano che questi sistemi diventano più capaci, il nostro mondo diventa più efficiente e di conseguenza più ricco.

Giganti della tecnologia come Amazon, Facebook, IBM e Microsoft stanno affrontando i temi etici legati all’intelligenza artificiale. Google, ad esempio, ha accolto l’obiezione di coscienza dei suoi dipendenti e ha redatto un codice etico per l’Intelligenza Artificiale, nel quale si impegna a non realizzare sistemi o software che utilizzino l’AI per arrecare danno all’uomo.  

Come già abbiamo visto in questo articolo, le domande sull’etica dell’a.i. intelligenza artificiale possono essere difficili da rispondere e gli aspetti operativi molto complessi.

Le principali preoccupazioni etiche relative all’etica dell’intelligenza artificiale riguardano:

  • pregiudizi e discriminazioni
  • mancanza di trasparenza
  • violazione della privacy
  • scarsa responsabilità
  • rapporto con la forza lavoro

La maggioranza dei dirigenti si aspetta che l’a.i. intelligenza artificiale “trasformi sostanzialmente” le loro organizzazioni entro i prossimi tre anni. A loro carico però c’è anche l’importante responsabilità di gestire la mole di dati che le macchine continuano ad accumulare. Saperlo fare in maniera etica, inclusiva, non discriminante, è la vera sfida che ci si presenta.

Come possono fare le imprese a rendere l’etica dell’intelligenza artificiale una loro priorità?

La formazione interna

I sistemi di intelligenza artificiale imparano dai set di dati con cui sono formati. A seconda di come un set di dati viene costruito, esiste il potenziale rischio che i dati possano produrre assunzioni o pregiudizi, come pregiudizi di genere, razza o reddito, che potrebbero influenzare il comportamento di un sistema basato su tali dati.

Gli sviluppatori di questi sistemi non hanno alcun pregiudizio, ma molti sono stati i casi di pregiudizio o discriminazione creati ​​dall’a.i. intelligenza artificiale in aree come il reclutamento di personale.  Le imprese devono quindi assicurarsi che le loro soluzioni AI prendano le decisioni in modo equo e non diffondano pregiudizi quando forniscono consigli.

Le imprese devono provvedere a dotare gli sviluppatori di Intelligenza Artificiale di tutta la formazione necessaria per testare e correggere i sistemi che potrebbero involontariamente produrre delle disuguaglianze.

a.i. intelligenza artificiale: generare fiducia attraverso la trasparenza

È naturale che i clienti o le altre parti interessate dalla tecnologia vogliano sapere come funziona il sistema con cui sono entrati in contatto: quali dati sta utilizzando e come sta prendendo decisioni.

Tuttavia, gran parte dello sviluppo dell’intelligenza artificiale implica la costruzione di modelli altamente efficaci i cui meccanismi interni non possono essere spiegati facilmente: sono scatole nere. Esistono delle tecniche che aiutano a far luce all’interno della scatola nera di alcuni modelli di machine learning, rendendoli più interpretabili e accurati, ma non sono adatte a tutte le applicazioni.

L’uso etico dell’ai intelligenza artificiale deve tenere conto della responsabilità di essere trasparenti sul funzionamento dei sistemi e sull’uso dei dati, laddove possibile.

Le imprese per creare fiducia sono tenute a spiegare chiaramente quali dati vengono utilizzati dall’intelligenza artificiale e per quale scopo.

Rispetto della privacy

Molte aziende raccolgono grandi quantità di dati personali dai consumatori quando si registrano o utilizzano prodotti o servizi. Questi dati possono essere utilizzati per addestrare i sistemi basati sull’intelligenza artificiale per scopi quali pubblicità mirata, promozioni e personalizzazione.

Le questioni etiche sorgono quando tali informazioni vengono utilizzate per uno scopo diverso – ad esempio, per formare un modello per generare offerte di lavoro – senza il consenso degli utenti. Uno studio recente ha evidenziato che il 60% dei clienti è preoccupato che la tecnologia basata sull’intelligenza artificiale possa compromettere le loro informazioni personali.

Per costruire la fiducia dei clienti, le aziende devono:

  1. essere trasparenti su come vengono utilizzate le informazioni raccolte
  2. creare meccanismi più chiari per il consenso
  3. proteggere meglio la privacy individuale.

Tutelare il capitale umano

Le aziende traggono sempre più vantaggio dall’esperienza digitale per gestire i propri processi di produzione. L’applicazione dell’intelligenza artificiale alle loro operazioni fornisce una migliore visibilità e prevedibilità; tuttavia, questi sforzi non includono ancora del tutto i diritti umani.

Le aziende stanno utilizzando l’intelligenza artificiale per automatizzare le attività, con alcune che mirano a sfruttare l’automazione per ridurre la loro forza lavoro. Sicuramente anche i lavori che non vengono eliminati possono essere influenzati in qualche modo dall’a.i. intelligenza artificiale.

Come abbiamo scritto in questo nostro precedente articolo“attraverso l’intelligenza collaborativa, l’uomo e l’AI Intelligenza Artificiale accrescono i punti di forza complementari l’uno dell’altro”. I datori di lavoro dovrebbero trovare il modo di utilizzare l’intelligenza artificiale per aumentare le opportunità per i dipendenti, riducendo gli impatti negativi. Del resto la crescita economica derivata dal dinamismo delle imprese e dall’aumento della crescita della produttività, continuerà anche a creare posti di lavoro. 

In conclusione

Se l’intelligenza Artificiale ci permetterà di riformulare un patto sociale tra individui, e di ridefinire alcune delle regole interne alle nostre realtà, sia private che professionali, saranno necessari determinati accorgimenti. Essere consapevoli di questi limiti può aiutarci a individuarli.

Il primo suggerimento che ci sentiamo di dare è di tenere sempre a mente l’imperativo categorico di Kant:

agisci in modo da trattare l’umanità, sia nella tua persona sia in quella di ogni altro, sempre anche come fine e mai semplicemente come mezzo”.

Questo articolo è stato scritto da:

Gaia Gasparetto

Digital Strategist, Namu srl

dal Blog

L’Intelligenza Artificiale nel 2020: i top trends

L’Intelligenza Artificiale nel 2020: i top trends

Cosa c'è da aspettarsi dall'evoluzione dell'intelligenza artificiale nel 2020 fino al 2021? Aumento di posti di lavoro, riconoscimento facciale, personalizzazione dell'offerta e molto altro ancora. Vediamo assieme quali sono i principali. L'intelligenza artificiale è...