Una questione di fiducia
Le nuove tecnologie cambiano la nostra società. La ricerca relativa all'intelligenza artificiale mostra che non si tratta solo di rispondere alle questioni tecniche. Accettazione e interazione con le persone sono fattori essenziali che devono essere considerati nella decisione se si possa derivare un modello d'affari.
Articolo della rivista annuale View
«Hmm – ehm». Quando, il 18 maggio 2018, Google ha presentato Duplex, il suo software di assistenza vocale, ha convinto perché in grado di fissare autonomamente un appuntamento dal parrucchiere o di effettuare una prenotazione in un ristorante cinese. Ha però sorpreso soprattutto perché le parole sono state rese estremamente realistiche con esitazioni e interruzioni.
«Il riconoscimento vocale è un tipico campo di applicazione dell'intelligenza artificiale» spiega Theresa Schachner, researcher presso il Department of Management, Technology and Economics (MTEC) dell'ETH di Zurigo. Se questi sistemi devono riprodurre solo caratteristiche isolate dell'uomo esistono già oggi ottime applicazioni come è il caso per il riconoscimento delle immagini. Non si riproduce l'essere umano nella sua completezza, bensì solo singole competenze. «È una specie di visione a tunnel. Ci focalizziamo su determinate capacità cognitive che vengono automatizzate e digitalizzate» prosegue Schachner. Sulla loro base anche gli assicuratori possono individuare dei modelli d'affari.
La ricerca attuale distingue due settori diversi: da un lato vengono esaminate e programmate applicazioni concrete, dall'altro si studiano gli effetti su gestione, strategie e organizzazioni. Theresa Schachner è attiva nel secondo campo. «È appassionante studiare la rilevanza per l'economia. Dalla prospettiva della ricerca, oltre ai vantaggi mi interessano anche gli ostacoli e le insidie.» Di principio individua tre motivi che ostacolano la diffusione di applicazioni basate sull'intelligenza artificiale.
- Blackbox: non tutti i settori riescono a utilizzare in modo semplice l'intelligenza artificiale. Un algoritmo dell'intelligenza artificiale è poco trasparente in una certa misura. L'intelligenza artificiale esegue infatti «autonomamente» singole fasi di un'elaborazione. Se la questione della responsabilità è centrale, questo elemento della «blackbox» può impedire l'uso di tale algoritmo perché la sua decisione non risulta del tutto comprensibile.
- Mancanza di fiducia: anche se nel 99 per cento dei casi un algoritmo prende delle decisioni giuste, questo significa anche che prende delle decisioni sbagliate. Se un algoritmo ci suggerisce una serie televisiva sbagliata può risultare accettabile. Quando si parla di riconoscere una malattia è invece più difficile avere fiducia.
- Parzialità: da una considerazione superficiale si potrebbe pensare che un algoritmo sia giusto ed equo. Questo modo di vedere ignora tuttavia che il funzionamento dipende dai dati con cui si addestra l'algoritmo.
Ciononostante Theresa Schachner riconosce del potenziale per l'industria e in particolare per gli assicuratori: «Ad essere interessante per gli assicuratori è sicuramente il settore Underwriting. La qualità dei dati è molto buona soprattutto per quanto riguarda la gestione dei sinistri.» Individua ad esempio singoli prodotti che è possibile gestire in modo praticamente automatizzato con l'aiuto dell'intelligenza artificiale. Un'assicurazione di volo potrebbe ad esempio essere gestita da un algoritmo fino al versamento in caso di sinistro. Tuttavia, Schachner fa osservare che funziona solo in caso di prodotti semplici e standard. Per prodotti complessi come un'assicurazione malattia i tempi non sono ancora maturi. In una qualche funzione l'uomo rimane coinvolto anche per i prodotti standard.
Sono state fatte poche ricerche su ciò che accade nelle aziende quando si utilizzano questi algoritmi. «Non sappiamo ancora cosa avviene se ad esempio tutte le analisi vengono svolte attraverso l'intelligenza artificiale» afferma Schachner. È noto il caso di un'azienda che ha sostituito un membro della direzione con un algoritmo. È emerso che nelle sue decisioni l'algoritmo favorisce le aziende che impiegano a loro volta degli algoritmi. «La ragione di tale comportamento è tuttavia perlopiù sconosciuta» indica Schachner. È però evidente che tali questioni vanno oltre alla mera ricerca di un miglioramento dell'efficienza o riduzione dei costi. Si tratta di questioni a livello interpersonale. Come cambia la struttura organizzativa? In che modo i collaboratori modificano il loro comportamento e le loro decisioni ? Theresa Schachner conclude: «Non sappiamo cosa accade se deleghiamo passo dopo passo le nostre decisioni a un algoritmo. L'effetto può andare oltre le previsioni, ma al momento possiamo ancora controllare la situazione.»
Chi o che cos’è l’intelligenza artificiale?
Nel 1950 il matematico inglese Alan Turing ha sviluppato un test per l’intelligenza artificiale, la cui tesi è: quando in un gioco domanda-risposta una persona non riesce a distinguere se a rispondere è un uomo o una macchina, si può ritenere che l’intelligenza artificiale sia stata raggiunta. Le domande e le risposte avvengono in forma scritta. Ciò a cui ambiva Turing, oggi è considerato come intelligenza artificiale debole, ossia la riproduzione di una singola capacità cognitiva delimitata. Un’intelligenza artificiale forte, invece, deve riflettere tutto l’insieme delle capacità della mente umana. Passeranno ancora diversi anni prima che la mente umana sia completamente sostituibile da una macchina. La questione se per ottenere un’intelligenza artificiale forte sia necessario un approccio del tutto nuovo o se occorra seguire l’ulteriore sviluppo dell’intelligenza artificiale debole è un tema ancora dibattuto nella ricerca.
L’intelligenza artificiale debole è un termine generico che indica una classe di algoritmi software, caratterizzati dal fatto che l’elaborazione delle informazioni non avviene secondo il principio evidente del «se–allora». Si tratta piuttosto di una ponderazione delle informazioni a vari livelli del processo d’elaborazione. Attraverso l’elaborazione di grandi quantità di dati l’algoritmo «impara» ad adeguare autonomamente le ponderazioni. Da un lato, così facendo, il programmatore sa ciò che deve succedere. Conosce ad esempio l’obiettivo, e cioè che il software di riconoscimento dell’immagine deve essere in grado di distinguere un’auto.