Per mettere queste considerazioni in prospettiva, spesso inizio presentando l'immagine in alto. Si tratta del Web browser Mosaic come appariva nel 1993, penso che sia una metafora appropriata per rappresentare la posizione dell'IA nel 2018. Come il Web della metà degli anni Novanta, l'IA di oggi sta rapidamente passando da una nicchia accademica a essere una tecnologia mainstream. La rivoluzione di Internet ha comportato vantaggi e rischi, di conseguenza siamo tenuti a considerare l'intera gamma di possibilità che abbiamo di fronte. Dopotutto, se era facile comprendere che tecnologie come la posta elettronica e l'invio di messaggi di testo ci avrebbero aiutato a rimanere in contatto, non lo era altrettanto immaginare il loro ruolo nella diffusione di software dannosi o del cyberbullismo.
Il prossimo decennio probabilmente porrà sfide ancora più complesse di quelle del vecchio Web, ma sono rincuorato dall'entusiasmo che i nostri clienti hanno dimostrato nell'affrontare queste sfide in modo proattivo. In realtà, continuiamo a porci le stesse domande:
Pregiudizi: Come possiamo essere sicuri che i nostri modelli di machine learning trattino ogni utente in modo equo e giusto?
Interpretabilità: Come possiamo rendere l'intelligenza artificiale più trasparente, in modo da avere una migliore comprensione delle relative raccomandazioni?
Evoluzione della forza lavoro: Come possiamo sfruttare responsabilmente il potere dell'automazione, assicurando al contempo che la forza lavoro di oggi sia preparata per ciò che verrà domani?
Pregiudizi
Siamo portati a immaginare algoritmi infallibili e oggettivi, ma la verità è che i modelli di machine learning sono affidabili quanto i dati su cui sono addestrati. E poiché sono gli esseri umani i responsabili di trovare, organizzare ed etichettare tali dati, è fin troppo facile che anche la minima irregolarità produca una differenza significativa nel risultato. Ancor più grave, dal momento che gli algoritmi lavorano a velocità sovrumane e su scale globali, i pregiudizi che ne derivano non vengono solo duplicati, vengono ingigantiti.
Sebbene questi pregiudizi possano essere il prodotto di un pregiudizio deliberato, i nostri punti ciechi giocano un ruolo decisamente più pervasivo. Ad esempio, abbiamo una tendenza naturale a gravitare verso le persone e le idee che confermano le nostre convinzioni, evitando quelle che li mettono in discussione. È un fenomeno noto come pregiudizio di conferma, che può alterare anche la percezione degli sviluppatori più benintenzionati.
Inoltre, poiché i pregiudizi sono già presenti nel mondo che ci circonda, anche i dati raccolti in modo fedele possono rispecchiarli. Ad esempio, i volumi di testo più antichi, spesso utilizzati per addestrare i modelli di machine learning che si occupano di elaborare e tradurre linguaggio naturale, possono perpetuare stereotipi dannosi se non vengono corretti. Il lavoro seminale condotto da Bolukbasi et al. ha quantificato questo fenomeno con inquietante chiarezza, dimostrando quanto facilmente i modelli linguistici statistici possano "apprendere" assunti obsoleti sul genere, come ad esempio accade per la lingua inglese con i termini "doctor" (dottore/dottoressa), inteso unicamente come "maschile", e "nurse" (infermiere/infermiera), inteso unicamente come "femminile". Problemi simili, noti come pregiudizi intrinseci, sono stati dimostrati anche in relazione alla razza.
Stiamo affrontando questi problemi su diversi fronti e la consapevolezza è tra i più importanti. Per promuovere una più ampia comprensione della necessità di equità in tecnologie come l'apprendimento automatico, abbiamo creato risorse educative come ml-fairness.com e il modulo sull'equità recentemente annunciato nel nostro corso intensivo sulla conoscenza dei sistemi di ML.
Abbiamo anche visto una tendenza incoraggiante verso la documentazione come mezzo per capire meglio cosa succede all'interno di una soluzione di machine learning. All'inizio di quest'anno, i ricercatori hanno suggerito un approccio formale alla documentazione dei set di dati, specialmente quando contengono informazioni incentrate sull'uomo o demograficamente sensibili. Basandosi su questa idea, i ricercatori di Google hanno proposto delle "schede modello", ovvero un formato standardizzato per descrivere gli obiettivi, le ipotesi, le metriche delle prestazioni e persino le considerazioni etiche di un modello di machine learning. Già a prima vista risulta evidente che le schede modello sono pensate per aiutare gli sviluppatori, indipendentemente dalle competenze in ambito di machine learning, a prendere decisioni consapevoli sull'utilizzo responsabile di un determinato componente.
Naturalmente, ci siamo sempre impegnati a fornire agli sviluppatori strumenti affidabili, e la sfida posta dai pregiudizi non è diversa. Questo processo inizia dalla documentazione integrata, come la nostra Guida inclusiva all'ML integrata in AutoML, e si estende a strumenti come TensorFlow Model Analysis (TFMA) e What-If Tool, che forniscono agli sviluppatori le informazioni analitiche di cui hanno bisogno per essere sicuri che i loro modelli si rivolgeranno a tutti gli utenti in modo equo. TFMA semplifica il modo di visualizzare le prestazioni di un modello in una serie di circostanze, caratteristiche e sottoinsiemi della relativa popolazione di utenti, mentre What-If consente agli sviluppatori di eseguire facilmente analisi controfattuali, facendo luce su ciò che potrebbe accadere se le caratteristiche chiave venissero scambiate, come i dati demografici di un determinato utente. Entrambi gli strumenti forniscono modalità interattive e coinvolgenti per esplorare nel dettaglio il comportamento del machine learning, consentendo di identificare errori in termini di equità e rappresentazione.
Infine, stiamo sfruttando il potere della comunità attraverso Kaggle, la nostra piattaforma di data science. L'Inclusive Images Challenge che abbiamo recentemente annunciato affronta il tema della diversità geografica distorta nei set di training per immagini, che comporta delle difficoltà per i classificatori i quali spesso si trovano ad avere a che fare con raffigurazioni di persone provenienti da regioni sottorappresentate. I concorrenti sono sfidati a creare modelli con un grado di generalizzazione geografica maggiore, senza incorporare nuovi dati, in modo da rendere realizzabili strumenti più inclusivi e solidi che possano soddisfare una base di utenti globale. Siamo ottimisti sul fatto che i progressi raggiunti con questo compito potranno essere applicati anche ad altri contesti, e siamo entusiasti di presentarne i risultati alla Conference on Neural Information Processing Systems del 2018.
Sono orgoglioso della strada che stiamo intraprendendo e credo che le conoscenze e gli strumenti che stiamo sviluppando svolgeranno un ruolo importante nel rendere l'intelligenza artificiale più equa. Ma nessuna azienda può risolvere da sola un problema così complesso. La lotta contro i pregiudizi richiederà un impegno collettivo modellato sugli input forniti da una serie di parti interessate, che noi ci impegniamo ad ascoltare. Mentre il nostro mondo continua a cambiare, noi continueremo a imparare.
Interpretabilità
Per quanto pressante sia la sfida posta dai pregiudizi, questa fa parte di una domanda ancora più importante: "In che modo l'intelligenza artificiale può ottenere la nostra fiducia?" Poiché il machine learning svolge un ruolo sempre più importante nelle decisioni che erano un tempo dominio esclusivo degli esseri umani, la risposta dipenderà sempre più da un fattore cruciale: la responsabilità.
Fin dalla loro creazione, molti algoritmi di deep learning sono stati trattati come scatole nere, poiché anche i loro creatori hanno difficoltà a delineare con precisione ciò che accade tra input e output. Non possiamo aspettarci di ottenere la fiducia delle persone se continuiamo a trattare l'IA come una scatola nera, poiché la fiducia deriva dalla comprensione. Mentre la logica dei software tradizionali può essere messa a nudo con un esame riga per riga del codice sorgente, una rete neurale è una fitta rete di connessioni modellate sull'esposizione a migliaia o addirittura milioni di esempi di addestramento. Il risultato è un compromesso in cui si ottiene flessibilità al costo di una spiegazione intuitiva.
Grazie all'istituzione di una serie di best practice, a un insieme di strumenti sempre più ampio e all'impegno collettivo a puntare a risultati interpretabili sin dall'inizio del ciclo di sviluppo, si sono ottenuti dei progressi. In realtà, già quando all'inizio di quest'anno abbiamo pubblicato i nostri principi per lo sviluppo di sistemi di IA responsabili, l'interpretabilità era tra i quattro pilastri fondamentali.
Stiamo già assistendo a diversi sforzi perché l'interpretabilità venga applicata ai problemi del mondo reale. Nel caso della classificazione delle immagini, ad esempio, il recente lavoro di Google AI si basa su un metodo per rappresentare concetti relativi alla sfera umana, come una pelliccia a strisce o i capelli ricci, per poi quantificare la prevalenza di quei concetti all'interno di una determinata immagine. Il risultato è un classificatore che articola il suo ragionamento in termini di caratteristiche più significative per un utente umano. Un'immagine potrebbe essere classificata come "zebra", ad esempio, in parte per gli alti livelli di "strisce" e in parte per i livelli relativamente bassi di "pois". Di fatto, i ricercatori stanno sperimentando l'applicazione di questa tecnica alla diagnosi di retinopatia diabetica, rendendo il risultato più trasparente e persino consentendo la modifica del modello quando uno specialista non è d'accordo con il suo ragionamento.
Evoluzione della forza lavoro
Non si può negare che la nostra relazione con il lavoro stia cambiando, e molti dei nostri clienti si stanno chiedendo come dovrebbero bilanciare il potenziale dell'automazione con il valore della loro forza lavoro.
Tuttavia, non vedo il futuro dell'automazione come un gioco a somma zero. Un recente rapporto di PwC ha evidenziato che il 67% dei dirigenti afferma che l'intelligenza artificiale aiuterà gli esseri umani e le macchine a lavorare insieme per essere più forti grazie alla combinazione di intelligenza artificiale e umana.
Inoltre, è importante ricordare che i lavori raramente sono monolitici. La maggior parte consiste di innumerevoli compiti distinti che vanno da un alto livello di creatività a compiti ripetitivi, ognuno dei quali sarà influenzato dall'automazione in modo diverso. In radiologia, ad esempio, gli algoritmi svolgono un ruolo di supporto; automatizzando la valutazione di sintomi semplici e ben noti, uno specialista umano può concentrarsi su compiti più impegnativi, potendo lavorare più velocemente e in modo più coerente.
Tuttavia, alcune categorie di lavoro affrontano cambiamenti più immediati di altre, ma si può fare molto per facilitare questa transizione. A questo scopo, Google.org ha creato un fondo di 50 milioni di dollari a sostegno delle organizzazioni non profit che si preparano per il futuro del lavoro attraverso tre grandi sforzi:
Fornire formazione e istruzione costanti per fare in modo che il personale umano sia sempre necessario
Individuare opportunità di lavoro ideali per potenziali dipendenti in base alle competenze e all'esperienza
Sostenere i lavoratori con bassi livelli retributivi
Naturalmente, questo è solo il primo passo e non vediamo l'ora di sostenere una serie di iniziative simili sempre più ampia nei prossimi anni.
Buoni propositi
Infine, ecco la domanda che trascende tutto: "Come posso essere sicuro di usare l'intelligenza artificiale per fare una differenza positiva nella vita delle persone?"
Questa è una domanda difficile a cui rispondere, resa ancora più difficile dalla nostra tendenza a concentrarci su come l'IA si comporti in casi estremi. Per esempio, pochi negherebbero che usare AutoML per monitorare in modo economico le specie in via di estinzione, come ha fatto la Zoological Society di Londra, sia inequivocabilmente un'iniziativa positiva. Abbiamo anche visto come TensorFlow, il framework di machine learning open source di Google, stia aiutando Rainforest Connection a combattere la deforestazione illegale, gli agricoltori a identificare le piante malate e a prevedere la probabilità di incendio in una foresta. Inoltre, il nostro programma AI for Social Good ha recentemente annunciato una donazione di 25 milioni di dollari per aiutare a finanziare la ricerca sull'intelligenza artificiale che consentirà di affrontare le sfide umanitarie e ambientali. Inoltre, il nostro programma Data Solutions for Change continua ad aiutare le organizzazioni non profit e le ONG a utilizzare processi analitici mirati a combattere la disoccupazione, diagnosticare l'Alzheimer, creare sistemi alimentari più sostenibili e ottimizzare la programmazione comunitaria.
Ma c'è un'enorme area grigia, specialmente su temi controversi come la relazione tra l'IA e le armi, che rappresenta un'applicazione di questa tecnologia che abbiamo deciso di non perseguire, come affermato nei nostri Principi IA. I nostri clienti sono distribuiti in diversi punti dello spettro delle possibilità in relazione ai casi d'uso più controversi e stanno chiedendo il nostro aiuto per comprendere cosa significhi l'intelligenza artificiale per la loro attività.
Insieme ai nostri team di gestione dei clienti e dei prodotti stiamo lavorando su queste aree. Per analizzare la questione da una prospettiva informata e oggettiva, abbiamo chiesto aiuto all'esperta di etica tecnologica Shannon Vallor, che attraverso Cloud AI contribuisce a plasmare la nostra comprensione di questa area grigia in continua evoluzione e il modo in cui il nostro lavoro si adatti a essa. Dai programmi educativi interni sulle best practice in tema di etica dell'IA alla consultazione sulle implementazioni nel mondo reale dei nostri Principi IA, Shannon Vallor mette a disposizione del Cloud AI una prospettiva esperta sul modo in cui questa tecnologia possa essere guidata da una progettazione, un'analisi e un processo decisionale etici. Ad esempio, i principi di progettazione etica possono essere usati per aiutarci a costruire modelli di machine learning più equi. Un'attenta analisi etica può aiutarci a capire quali potenziali utilizzi della tecnologia visiva sono inappropriati, dannosi o indiscreti. Inoltre, le pratiche decisionali etiche possono aiutarci a ragionare meglio sui dilemmi più impegnativi e sui complessi compromessi in tema di valori, ad esempio se dare priorità alla trasparenza o alla privacy in un'applicazione dell'IA, dove prediligere l'uno può significare rinunciare all'altro.
Costruire insieme il futuro dell'intelligenza artificiale
Nonostante tutte le incertezze che ci attendono, una cosa è chiara: il futuro dell'IA verrà costruito non soltanto sulla tecnologia. Sarà necessario uno sforzo collettivo, basato in egual misura su strumenti, informazioni e sul desiderio condiviso di avere un impatto positivo sul mondo.
Ecco perché questa non è una dichiarazione, ma un dialogo. Sebbene desideriamo condividere ciò che abbiamo imparato dopo anni in prima linea in questa tecnologia, nessuno conosce le esigenze dei tuoi clienti meglio di te ed entrambe le prospettive giocheranno un ruolo vitale nella costruzione di un'intelligenza artificiale equa, responsabile e affidabile. Dopotutto, ogni settore sta affrontando la propria rivoluzione dell'intelligenza artificiale, motivo per cui ogni industria merita un ruolo di guida in questo senso. Non vediamo l'ora di capire insieme a te come trasformare questa promessa in realtà.