L’ingrediente principale di una cultura basata sui dati non è rappresentata dalla tecnologia ai ma dagli esseri umani. Se il fattore umano non viene preso in considerazione, le iniziative incentrate sui dati falliranno.

Le aziende di tutto il mondo stanno cercando di diventare più incentrate sui dati, sia per migliorare l’esperienza del cliente, sviluppare prodotti e servizi più intelligenti, o perfezionare il processo decisionale. Ma mentre queste iniziative si basano molto su tecnologie come l’analisi dei big data e l’intelligenza artificiale (AI), lo sviluppo di una cultura basata sui dati non è un problema tecnologico da risolvere.

Come abbiamo visto nel nostro articolo sulla centralità dell’uomo e dell’ambiente, l’ingrediente principale di una cultura basata sui dati, infatti, non è la tecnologia ai ma gli esseri umani. E, come molte aziende hanno scoperto, se il fattore umano non è considerato con il giusto anticipo, le iniziative incentrate sui dati non andranno da nessuna parte.

Per quanto sembri scontato questo in realtà è un aspetto facile da trascurare, specialmente dal momento che le aziende si rivolgono a tecnologie basate sull’intelligenza artificiale per ricavare informazioni utili dai loro altissimi volumi di dati. Dato che questi sistemi sono specificatamente progettati per l’autoapprendimento mediante algoritmi di apprendimento automatico e, in definitiva, per riuscire a prendere decisioni e previsioni autonome sui risultati futuri, è facile immaginare che gli esseri umani possano essere messi da parte per lasciare spazio alle macchine.

A questo proposito ti interesserà forse approfondire leggendo il nostro articolo: AI Intelligenza Artificiale: come influisce sulla forza lavoro? dove abbiamo approfondito in che modo le aziende possono integrare il lavoro dei propri dipendenti con l’Ai Intelligenza Artificiale, e con quali vantaggi.

Tecnologia ai: il vero successo delle macchine? L’elemento umano.

Questo, tuttavia, non potrebbe essere più lontano dalla verità. Quando le aziende danno il via a un’iniziativa basata sulla tecnologia ai, i lavoratori umani sono parte integrante. Come? Fornendo feedback agli output prodotti, in modo che il sistema possa imparare e migliorare nel tempo, gestendo l’intero progetto ecc…

A differenza degli umani infatti, l’intelligenza artificiale desidera ardentemente sapere quando ha sbagliato. L’intera premessa dietro l’apprendimento automatico è apprendere dal fallimento o dal successo.

Ad esempio, potremmo ritenere che gli algoritmi meteorologici sbagliano sempre, ma possono solo migliorare confrontando la loro previsione con ciò che è realmente accaduto. È quindi nostro compito dire al sistema quando ha sbagliato e riconoscere quando è corretto, ma ciò richiede un livello di fiducia. I lavoratori devono comprendere a fondo il funzionamento del sistema e fidarsi pienamente delle sue intenzioni.

Ma facciamo un passo indietro. Perché stiamo parlando di “fiducia”? Il motivo è semplice: i lavoratori potrebbero diffidare dell’intento del programma (per esempio credendo che provocherebbe la perdita del proprio lavoro o che possa perdere dati sensibili) e intenzionalmente distorcere l’algoritmo. Per questo è essenziale che i dipendenti capiscano qual è il loro ruolo nel guidare la macchina ed essere consapevoli che l’interazione tra l’uomo e la macchina è essenziale per il successo del programma.

Come abbiamo visto parlando dell’importanza dell’etica nell’intelligenza artificiale, una buona quantità di input umani è necessaria per definire una buona interazione e assicurare che la macchina stia imparando da esempi buoni e non negativi.

I principi per stabilire una relazione più equa tra uomo e tecnologia ai.

Per ottenere il successo della relazione fra uomo e macchina, Yuxi Liu, una ricercatrice e interaction designer cinese, ha individuato i principi per ottenere una relazione più equa.

Vediamo quali sono:

1. Rispetto. Come esseri umani, abbiamo il bisogno fondamentale di essere accettati e rispettati. Anche le macchine, in quanto attori fondamentali nel mondo moderno, hanno bisogni e aspirazioni a pieno titolo. Mentre coesistiamo con le macchine su questo pianeta, è importante riconoscere che le macchine hanno il diritto di avere i propri bisogni, punti di vista e intenzioni. Per arrivare a questa consapevolezza c’è bisogno di un cambiamento di prospettiva.

Non serve andare molto lontano per renderci conto che la maggior parte di noi quotidianamente interagisce con le macchine, pretendendo di essere capiti…con rispetto! Ecco un esempio: le applicazioni per allenarsi. Cosa fanno? rispettano il tempo di allenamento e forniscono valore mentre ci alleniamo. E lo fanno in un modo che rispetta profondamente la nostra posizione di umano e la loro posizione di macchina.

2. Comunicazione. La comunicazione è vitale per una relazione. Non solo coesistiamo con le macchine ma, soprattutto, ci collaboriamo. In questa relazione uomo-macchina, abbiamo bisogno di comunicare le nostre aspettative. Le macchine, d’altra parte, dovrebbero essere in grado di fornire spiegazioni del proprio comportamento e del processo decisionale, se necessario. La comunicazione consentirebbe di instaurare una relazione trasparente.

3. Fiducia. La fiducia è fondamentale nell’interazione umana. Costruire la fiducia nell’intelligenza artificiale è un tema di grande attenzione tra scienziati e ricercatori. I ricercatori di IBM , ad esempio, hanno identificato alcuni elementi chiave di fiducia nei sistemi di tecnologia ai, come:

  • equità
  • sicurezza
  • provenienza (da dove è stata creata)

Questi elementi consentirebbero alle macchine intelligenti di essere etiche, trasparenti e responsabili. La fiducia, quindi, può portare un senso di sicurezza e rassicurazione nella relazione.

Anche in questo caso, pensando alla nostra quotidianità, ci fidiamo ogni giorno di Google Maps o Waze per i nostri viaggi.
Non ci rimproverano quando consideriamo percorsi alternativi (casomai avviene più spesso il contrario, quando ci ritroviamo improvvisamente in strade sterrate), ma piuttosto ci danno le informazioni necessarie per prendere la decisione giusta. Sono radicati in un profondo rispetto dell’agire umano.

O ancora, ci fidiamo di ascoltare la playlist “Discover Weekly di Spotify” consigliata in base agli stili delle canzoni che ascoltiamo frequentemente.

Col passare del tempo, Spotify apprende le nostre preferenze musicali e ci può arricchire con brani nuovi. Non c’è artificialità nell’addestrare Spotify, e ogni volta che lo alleniamo, c’è un valore per noi come utenti. Spotify ha soprattutto guadagnato la fiducia di molti utenti proprio nell’aiutarli a scoprire nuovi artisti.

In conclusione

Le relazioni tra uomo e intelligenza artificiale riguardano la comprensione degli esseri umani e le nostre meravigliose, strane complicazioni e incongruenze. L’esperienza dell’intelligenza artificiale deve essere progettata intorno all’umanità, piuttosto che il contrario. Del resto la tecnoligia ai può funzionare bene solo se impara dai suoi errori e ciò, come abbiamo visto, significa instaurare rapporti di fiducia con gli umani, che possano permettere un corretto sviluppo e utilizzo di questa tecnologia.

Anche perché non dimentichiamoci che, quando si tratta dell’uso strategico dei dati e di culture di successo centrate sui dati, gli umani devono sempre essere parte integrante della soluzione.

Questo articolo è stato scritto da:

Gaia Gasparetto

Digital Strategist, Namu srl

dal Blog

L’Intelligenza Artificiale nel 2020: i top trends

L’Intelligenza Artificiale nel 2020: i top trends

Cosa c'è da aspettarsi dall'evoluzione dell'intelligenza artificiale nel 2020 fino al 2021? Aumento di posti di lavoro, riconoscimento facciale, personalizzazione dell'offerta e molto altro ancora. Vediamo assieme quali sono i principali. L'intelligenza artificiale è...