GLI ALGORITMI SONO NEUTRALI? IL CONFRONTO SU SEI CAPI DI IMPUTAZIONE
[Questo articolo è stato pubblicato in due puntate nella rivista digitale TechEconomy il 27 novembre 2018 ed il 6 dicembre 2018.]
Siamo seduti nella sala dell’Archivio Storico dell’Università di Padova. La corte e la giuria popolare sono pronte. Oggi si processa l’Intelligenza Artificiale. Ha senso processare una tecnologia? E soprattutto, visto che non sono in discussione fatti specifici, è lecito un processo alle intenzioni? Questo lo vedremo alla fine. Ora il procedimento ha inizio.
La corte è composta dal giudice, un docente universitario, il pubblico ministero, un avvocato esperto di tecnologie digitali, e la difesa, rappresentata dall’amministratore delegato di un’azienda che opera in questo settore. La giuria popolare è costituita dal pubblico presente.
Siamo nell’ambito degli Open Innovation Days promossi dall’Università degli Studi di Padova e da Il Sole 24ORE. L’organizzatore ha definito questo evento come un incontro semi-serio allo scopo di riflettere sui problemi o le errate convinzioni che derivano dall’impatto delle applicazioni di intelligenza artificiale nella nostra vita. Ma io lo prendo molto sul serio e per questo ve ne faccio un resoconto il più possibile dettagliato, ma non neutrale. A questo fine, tengo i miei commenti separati dalla cronaca.
PREAMBOLO
In premessa, il GIUDICE esce temporaneamente dal suo ruolo e, assunto quello di docente universitario, ripercorre brevemente la storia degli algoritmi ricordandoci che questo concetto nasce nell’antichità a partire da quello rinvenuto presso gli egizi, nel 1600 A.C. circa. Solo dopo molti secoli si giunge ad una sua formalizzazione, cui segue l’esecuzione automatica avvenuta grazie alla macchina universale di Turing. Arriviamo quindi ai giorni nostri, quando gli algoritmi sono alla base di un aumento esponenziale dello sviluppo di applicazioni di intelligenza artificiale.
Rientrato nel ruolo di giudice, ora legge i capi di imputazione e la richiesta del pubblico ministero: “si chiede la condanna dell’intelligenza artificiale ad uno stato di libertà vigilata condizionata sotto il controllo umano che preveda, prima del rilascio di ogni applicazione, un assessment con analisi di impatto”.
I CAPI D’IMPUTAZIONE
Gli algoritmi non sono neutrali: il rischio di discriminazione è elevato.
L’ ACCUSA, con riferimento alle analisi contenute nel libro di Cathy O’Neil “Armi di Distruzione Matematica”, sostiene che l’uso degli algoritmi aumenta le disuguaglianze perché essi hanni in sé il gene della discriminazione. A titolo di esempio, cita il caso COMPAS dove, in una corte distrettuale statunitense, il giudice, per decidere l’entità della pena da comminare, ha utilizzato un algoritmo predittivo di valutazione del rischio di recidiva dell’imputato. Questo ha presentato ricorso contro la sentenza, sostenendo di non aver ricevuto un equo trattamento, in quanto ha ritenuto che l’algoritmo fosse discriminante e punitivo per gli uomini di colore. Anche se le analisi a posteriori hanno confermato la sua ipotesi, il ricorso è stato respinto sulla base dell’assunto che la decisione non è stata presa dall’algoritmo, ma dal giudice che lo ha utilizzato per supportare la propria autonoma decisione.
La DIFESA, in evidente contrasto, afferma categoricamente che il fatto – ovvero l’accusa di discriminazione da parte degli algoritmi – non sussiste. Gli algoritmi non sono intelligenti – sostiene – e si limitano ad eseguire esattamente ciò che l’uomo chiede loro di fare: l’intelligenza artificiale non ha caratteristiche diverse dal funzionamento degli algoritmi tradizionali e non vi è nulla di casuale.
COMMENTO
Io non concordo con la difesa. In altre occasioni ho sostenuto la problematicità indotta dalle applicazioni di machine learning per le quali, a differenza degli algoritmi tradizionali, non è sempre possibile spiegare i risultati. Inoltre, queste sono soggette al fenomeno dell’algorithmic bias. In breve, un algoritmo di questo tipo impara, come l’uomo, dall’esperienza, che in questo caso proviene dai dati che gli vengono proposti in input. Questi potrebbero non essere rappresentativi della globalità del fenomeno che si vuole indagare, limitandosi a riflettere le sole caratteristiche di quanto contenuto nelle banche dati, ovvero di una società generalmente occidentale fatta di uomini di pelle bianca, con la conseguenza di esiti discriminatori verso le minoranze linguistiche, culturali, di colore e di genere. In altri termini, l’impiego dell’intelligenza artificiale porta con sé necessariamente uno schema culturale, che scaturisce dai dati usati per l’addestramento dei modelli di base. Ampia letteratura sostiene quindi che il fatto sussiste! (per approfondire, un paio di esempi molto brevi qui e qui).
Algoritmi e big data sono facilitatori e moltiplicatori di oligopoli di mercato
L’ ACCUSA invoca l’esempio di Google: chi possederà gli algoritmi più efficaci occuperà in tempi brevissimi posizioni di mercato non contendibili, e questo non avrà effetti solo commerciali, ma anche a livello sociale e politico. Vladimir Putin ha affermato che l’intelligenza artificiale è il futuro dell’umanità e che chi possiederà l’algoritmo più potente sarà padrone del mondo. In accordo con questa affermazione, Elon Musk ha sostenuto che la competizione in questo campo, con principali protagonisti Russia, Stati Uniti e Cina, sarà la causa più probabile di una terza guerra mondiale. Il vero problema – ribadisce l’accusa – è quello degli algoritmi “sbagliati” nelle mani “sbagliate”: l’intelligenza artificiale potrà essere utilizzata per esercitare il proprio predominio sui mercati e sulle persone.
Secondo la DIFESA, sul piano politico nulla cambia rispetto alle guerre condotte con armi tradizionali: ancora una volta, chi avrà lo strumento migliore – in questo caso software e dati – godrà di un vantaggio competitivo. Per quanto riguarda il mercato, poi, il problema esiste perché la politica non ha compreso questo nuovo fenomeno. Qui la difesa conviene che una regolamentazione è necessaria, in modo non dissimile però da come avviene per le attività condotte dalle imprese tradizionali. Purtroppo – conclude – gli interventi della politica sono inesistenti, in parte per ignoranza e in parte per miopia.
COMMENTO
Io spero che non si arrivi mai a combattere una terza guerra mondiale – anche se oggi molti leader politici fanno di tutto per tornare al passato. Inoltre, non credo molto in questo tipo di previsioni e di profeti. Sembra però assodato che, qualora la profezia di Musk si avverasse, le cosiddette “armi digitali” avranno un ruolo importante, se non decisivo.
Per quanto riguarda i mercati, non posso che ribadire quanto ho già riportato in un precedente articolo: nel libro di George Dyson, Turing’s Cathedral , è scritto: “Facebook definisce chi siamo, Amazon definisce cosa vogliamo, Google definisce cosa pensiamo. Si può estendere questa affermazione per includere la finanza che definisce cosa abbiamo (almeno materialmente) e la reputazione, che sempre di più definisce le opportunità cui possiamo accedere. In ogni settore i leader ambiscono a prendere le loro decisioni in assenza di regole, di necessità di richieste o spiegazioni. Se otterranno i loro risultati, le nostre libertà fondamentali e le nostre opportunità saranno delegate a sistemi guidati da valori che andranno poco oltre l’arricchimento di top manager ed azionisti”. Forse le aziende citate cambieranno, in nome e natura, ma temo che se non si interverrà con regolamentazioni e legislazioni efficaci, esisterà sempre un numero limitato di queste a guidare il mercato in condizioni di monopolio.
Ma gli oligopoli sui dati non rappresentano un pericolo solo per la democrazia e il mercato, ma anche per la ricerca scientifica. Riprendo qui una riflessione suggerita da Mario Rasetti ad una recente conferenza. Il progresso scientifico è stato sostenuto da persone – gli scienziati – e da un metodo – quello scientifico – che ha garantito negli anni un approccio rigoroso alla conoscenza della realtà in modo oggettivo, verificabile e condivisibile. Questo si basa sulla raccolta di dati empirici che consentano di verificare le ipotesi date in modo da associare la sperimentazione al modello matematico definito. Nella storia dell’umanità gli scienziati hanno sempre avuto la disponibilità dei dati necessari per le proprie ricerche. Oggi, all’epoca dei big data, questo non è sempre vero. E cosa accade se la scienza non ha i dati necessari alle proprie sperimentazioni e li deve chiedere o acquistare da pochi soggetti privati? Questa credo sia una delle grandi domande su cui la politica globale deve iniziare a riflettere per dare risposte convincenti.
Gli algoritmi sono chiusi in scatole nere dove “code is law”.
L’ ACCUSA riprende ancora una volta il caso COMPAS: l’imputato, in sede di ricorso contro l’uso dell’algoritmo utilizzato per stabilire l’entità della pena, ha chiesto di poter conoscere la sua logica di funzionamento. La società produttrice non la ha rivelata, invocando la protezione del segreto industriale.
Ora ci porta un altro esempio, questa volta nel campo dei veicoli a guida autonoma: il progetto Moral Machine del MIT, che ci invita a riflettere su come le macchine – possiamo estendere il concetto agli automatismi in genere – debbano agire se poste di fronte ad un dilemma morale. Nel causo dell’auto, di fronte ad una situazione critica, si vuole privilegiare la sicurezza dei passeggeri o la salvezza dei passanti? Cosa accade, ad esempio, se i freni si rompono ed il controllo della guida deve prendere una decisione istantanea? L’auto deve procedere diritta andando ad infrangersi contro una barriera, procurando serie conseguenze ai suoi occupanti, inclusa la possibile morte, o sterzare bruscamente e investire delle persone che camminano sull’altro lato della strada, lasciando così incolumi i passeggeri? E quale sarà la decisione quando, accorgendosi che inevitabilmente si dovrà investire qualcuno sulle strisce pedonali, si dovrà scegliere se colpire un anziano, o un bambino, o un disabile, o più semplicemente, scegliere tra un uomo e una donna? In generale, può un’auto a guida autonoma comportarsi secondo parametri sociali e morali? (qui si può leggere un breve approfondimento sul progetto Moral Machine). L’accusa sostiene che chi nel futuro acquisterà un’auto autonoma avrà tutto l’interesse di chiedere informazioni su come è stato programmato l’algoritmo di controllo della guida. E chi mai acquisterà un’auto se non sarà sicuro che questo è stato programmato per difendere il conducente e gli occupanti della vettura?
La DIFESA afferma che il problema della proprietà intellettuale esiste e che questa va preservata al fine di non distruggere interi comparti industriali. Ammette però che in alcuni casi, come quello dell’auto citato dall’accusa, alcune funzioni devono essere regolate: l’acquirente dovrà essere sempre consapevole di cosa lo aspetta a fronte delle sue scelte di acquisto.
COMMENTO
Io non posso che essere a favore dell’accusa: molte volte ho sottolineato il tema della “scatola nera” e il dilemma morale evidenziato dal progetto Moral Machine. Ma è importante soprattutto affrontare il primo aspetto. Qui il movimento open source può ancora avere un ruolo importante nello sviluppo di iniziative che inducano a mantenere il codice aperto e disponibile. Questo ha funzionato nello sviluppo delle applicazioni in campi complessi e critici, come ad esempio il cloud computing e il big data, convincendo di fatto le grandi aziende di software, anche quelle inizialmente riluttanti, ad investire in progetti aperti spingendo la collaborazione e beneficiandone poi nello sviluppo dei propri prodotti dove, su una base aperta comune, hanno inserito la propria declinazione specifica – gli americani dicono la propria secret sauce – operando così secondo una logica di coopetition. Segnali di interesse dell’open source al tema dell’intelligenza già si vedono, ad esempio con il progetto DeepMind. Ma non credo che questo sarà sufficiente. Sia per la complessità intrinseca delle applicazioni, dove la logica, che comprende sia software, sia dati, in molti casi si trasforma in modo che sia complicato comprenderne il funzionamento, sia perchè in questo campo l’attenzione alla protezione del segreto industriale è più elevata. Probabilmente sarà opportuno affiancare a queste iniziative l’intervento di enti terzi di certificazione che, all’interno delle aziende produttrici, pur proteggendo la loro proprietà intellettuale, attestino che le applicazioni di intelligenza artificiale rispettino regole, legislazioni ed aspetti etici condivisi, sciogliendo così di fatto i dubbi legati alla “chiusura della scatola”.
Gli algoritmi ci espongono ai rischi della giustizia predittiva insiti sia nell’adottarla che nel non adottarla.
L’ ACCUSA fa riferimento ad un passo del film Minority Report dove il signor Marks viene arrestato dal capitano John Anderton, responsabile della “sezione Precrimine” della città di Washington, per un crimine che non ha ancora compiuto: “Signor Marks, in nome della sezione Precrimine di Washington D.C. la dichiaro in arresto per il futuro omicidio di Sarah Marks e Donald Dubin che avrebbe dovuto avere luogo oggi 22 aprile alle ore 8 e 04 minuti”. Questa giustizia non si basa sui fatti, ma sulle sulle intenzioni, afferma. Se sostituiamo il giudice con un algoritmo quanto avvenuto nella fiction di Minority Report potrà accadere realmente! Potremo però evitarlo – continua – con una legge che impedisca l’uso di algoritmi predittivi per proclamare le sentenze. Ma cosa accadrebbe se gli esiti di questi algoritmi venissero comunque pubblicati sui giornali? Come reagirebbero i cittadini se poi i crimini prospettati dalla stampa venissero realmente perpetrati? Essi forse chiederebbero che questi algoritmi venissero applicati. Tutti noi siamo determinati nella difesa dei diritti umani – afferma ancora l’accusa, e poi si domanda – le nostre certezze resteranno così salde anche quando arriveremo al dunque?
Con una certa sicurezza, la DIFESA afferma che questo è un caso di pura finzione scientifica. Gli algoritmi che oggi vengono adottati nell’ambito della giustizia predittiva sono molto semplici e si basano su dati relativi alle caratteristiche dell’imputato e su serie storiche. Quanto prospettato non potrà mai accadere: basti vedere quanto fallaci sono gli esiti dei vari exit pool elettorali!
COMMENTO
Ancora una volta ritengo che la difesa rappresenti una visione semplicistica del fenomeno. Non sarà un caso se in ambito giuridico stanno moltiplicandosi i convegni e le conferenze sul tema della giustizia predittiva. Il limite principale degli algoritmi predittivi è rappresentato proprio dal fatto che si basano su serie storiche, de-personalizzando di fatto il procedimento in quanto il loro esito viene associato ad una probabilità di reato del tutto generica che risente in modo preponderante della natura e qualità dei dati utilizzati. Ma visto che è verosimile che tali strumenti vengano sempre più adottati nel futuro, sarà necessario preparasi affinché il loro utilizzo sia confinato e regolamentato.
Non è chiara la responsabilità degli algoritmi per fatti illeciti.
L’ ACCUSA ricorda che nella nostra società la responsabilità giuridica ha un ruolo importante. Ancora una volta, anche in riferimento all’esempio dell’auto a guida autonoma, ci possiamo domandare di chi è la responsabilità in capo agli errori del software. La risposta ovvia la individua in chi lo ha progettato o nel produttore del veicolo. Ma l’intelligenza artificiale si basa su algoritmi che apprendono dall’esperienza – in altri termini, dai dati – e questo modifica la logica del loro funzionamento: siamo in presenza di una somma di logica e di dati. Se nell’ambito di un contenzioso la responsabilità sarà attribuita al produttore, oppure all’utilizzatore – afferma ancora l’accusa – entrambi ne risponderanno proprio perché il nostro ordinamento giuridico – il patto sociale su cui si basa la giustizia – ha bisogno di individuare un responsabile. Ma questo fatto può condannare gli algoritmi definitivamente con sentenze che arriverebbero a sancire il loro non utilizzo. Non è forse meglio lasciarli vivere in un regime di libertà condizionata? Se non lo facessimo, potremmo restare sospesi tra il rischio di non avere alcun responsabile, o un responsabile individuato su una base non oggettiva. Per l’accusa il problema esiste e va affrontato. Anche Tim Cook, il CEO di Apple – continua – ha recentemente aggiunto la sua voce a quelle che ci allertano sulle problematiche legate all’intelligenza artificiale, quando ha affermato che “le nostre informazioni – da quelle di ogni giorno a quelle profonde – sono stati trasformate contro di noi in un’arma con un’efficienza di tipo militare”.
Qui la DIFESA ribadisce che gli algoritmi non fanno che rispondere alle regole di programmazione. E’ la qualità dell’algoritmo che fa la differenza, sostiene. Questa volta riconosce che oggi esistono algoritmi basati sul funzionamento delle reti neurali che sono più sofisticati degli algoritmi tradizionali, ma afferma che anche questi rispondono alle regole imposte dalla programmazione. Il risultato è sempre condizionato da chi ha programmato l’algoritmo, il codice non si auto-genera.
COMMENTO
Non molto tempo fa ho assistito ad una conferenza dal titolo “Una legge per i Robot e per gli Umani”. Ci si domandava se, in un sistema di diritto antropocentrico, un robot potesse essere considerato un soggetto giuridico come entità capace di agire indipendentemente dal programmatore. Dopo un dibattito che ha evidenziato i rischi insiti nel seguire in questo campo una logica di antagonismo – potremmo dire di benchmarking – tra intelligenza artificiale ed essere umano, la professoressa Maria Chiara Carrozza ha prospettato tre ordini di interventi nei confronti dei robot e, per estensione, degli algoritmi in genere: l’adozione di regole prescrittive specifiche (ad esempio, legate alla fase di progettazione e costruzione), l’attuazione di sanzioni in caso di reato (quali la disattivazione, la modifica o anche la distruzione del robot o dell’algoritmo) e, da ultimo, l’adozione di regole morali (come l’adozione del principio di precauzione in casi come quello del progetto Moral Machine, su cui qui si può leggere un appronfondimento proprio sul tema della responsabilità). Ancora una volta concordo con l’accusa nel sostenere che il problema esiste e va affrontato, anche perché applicazioni di giustizia predittiva sono già utilizzate e si stanno diffondendo sulla base della regola che quel che conta è la fattibilità di una soluzione, più che la sua opportunità (in altri termini: si agisce prima di pensare a come si agisce). La giustizia non può essere influenzata da quanto contenuto in una banca dati!
Ed a proposito di quanto affermato dalla difesa circa l’impossibilità di auto-generazione del codice, il futuro può riservarci delle sorprese: sono già in fase di sviluppo applicazioni di machine learning dedicate a generare altri processi basati sul concetto di rete neurale.
Non sono chiari i rischi connessi al riconoscimento del diritto di cittadinanza ai robot.
L’ ACCUSA ricorda che il 26 ottobre 2017 l’Arabia Saudita (un paese che non riconosce diritti di piena cittadinanza alle donne) ha concesso la cittadinanza a Sophia . Questa è stata sicuramente una operazione di marketing provocatoria – ha sostenuto – ma non è il solo caso di concessione di diritti ad entità non umane (anche se nel caso di Sophia la natura effettiva di questi diritti non è stata specificata). L’ Ecuador e la Bolivia riconoscono nella propria costituzione diritti “di cittadinanza” alla natura. Qui l’ecosistema da oggetto diviene soggetto titolare di situazioni giuridiche. La natura diviene un’entità con un autonomo diritto di esistere e di prosperare, con il diritto, tra l’altro, al rispetto integrale della sua esistenza, al mantenimento e alla rigenerazione dei suoi cicli vitali, della sua struttura, delle sue funzioni e dei suoi processi evolutivi.
Il mondo sta prendendo coscienza che non esiste solo l’uomo, continua l’accusa. Questo potrebbe aprire la strada al riconoscimento effettivo di cittadinanza ad una intelligenza artificiale e se nel futuro, come cittadini, ce la dovremmo giocare alla pari con una super-intelligenza, potremmo risultare perdenti e il passo perché questa arrivi a sopprimere l’uomo potrà essere breve (come preconizzato da alcuni film di fantascienza, ma anche da tecnologi e scienziati).
La DIFESA sostiene che sì, si può disquisire su tutto, ma che in questa fase dell’evoluzione, quando abbiamo ancora una conoscenza ridotta del funzionamento del cervello umano, il pensiero che l’intelligenza artificiale possa arrivare ad eliminare l’uomo non deve far parte delle nostre preoccupazioni. Forse questo tema potrà essere affrontato in futuro, ma non oggi. I robot non sono altro che pezzi di ferro e le previsioni prospettate dall’accusa attengono solo alla fantascienza. Oggi siamo troppo lontani dal pensare di riuscire a riprodurre le nostre capacità biologiche, peraltro con un basso consumo di energia.
COMMENTO
Questo è l’unico caso in cui concordo con la difesa, ma anche qui val la pena di inserire qualche considerazione ulteriore. Mi riferisco alla percezione che ha l’uomo degli oggetti e delle entità non umane in genere. Quello che sostengo è che quando ragioniamo sull’innovazione ed i suoi effetti, con trasformazioni che sono di portata globale, e soprattutto quando prospettiamo delle singolarità, dobbiamo sempre prestare attenzione che la nostra discussione risente dei ricordi culturali della società in cui siamo inseriti, mentre è necessario affrontare l’argomento da diversi punti di vista. Il dibattito sull’intelligenza artificiale ferve soprattutto in occidente, una parte del mondo guidata dall’idea di crescita e di innovazione, che ha incluso anche il concetto di disruption, in un contesto antropocentrico legato al capitale e di netta impronta maschilista, soprattutto quando si affrontano temi tecnologici. L’uomo occidentale ha un rapporto di dominio sugli oggetti, sul non umano. Ma questo accade ovunque? A ben vedere, gli esempi portati dall’accusa riguardano paesi non occidentali. Recentemente il filosofo Achille Mbembe, sempre nell’ambito degli Open Innovation Days, nello spiegare il rapporto profondo che esiste tra il possessore di uno smartphone e questo oggetto, ha ricordato che in Africa, uno dei grandi bacini da cui nel futuro attingeremo parecchie risorse, le cose stanno diversamente. Qui gli uomini hanno un diverso rapporto con gli oggetti, che sono percepiti come entità flessibili, con possibilità di azione autonoma rispetto alla vita (da cui gli effetti magici e terapeutici di alcuni di essi, aspetto che noi identifichiamo con il termine animismo).
A questa prima riflessione possiamo aggiungere che anche i principi morali degli uomini non sono universali, bensì variano a seconda della cultura, delle condizioni economiche e dell’area geografica di provenienza (un’esemplificazione legata ai risultati del progetto Moral Machine si può approfondire nell’articolo già citato).
In conclusione, concordo che in questo momento è prematuro discutere sul possibile diritto di cittadinanza di entità dotate di intelligenza artificiale, ma anche un argomento di questo genere ci può stimolare ad ampliare il campo delle nostre riflessioni, soprattutto nel considerare che se guardiamo al futuro l’atteggiamento antropocentrico non regge più: la necessità di sostenibilità ambientale e l’accelerazione del progresso scientifico ci impongono di abbandonare il concetto di “uomo al centro del mondo”, e di iniziare a prenderci cura dell’altro, sia su scala ridotta (ad esempio, sostituendo l’atteggiamento di confronto con quello di coesistenza), sia in grande scala, nel concepire la globalità dell’universo, dove convivono la natura, l’uomo e la tecnologia, come centro del nostro ragionamento.
IL DIBATTITO E LA SENTENZA
La giuria popolare, prima di emettere la sentenza, è chiamata a richieste di chiarimento e ad esporre qualche ulteriore osservazione utile a chiarire la questione. Negli interventi del pubblico vengono ripresi accadimenti che hanno evidenziato ulteriori problematiche legate all’uso degli algoritmi. Qualcuno ha ricordato il progetto di Facebook dove, nell’ambito di un’attività di machine learning, si è verificato l’imprevisto di due chatbot che hanno iniziato a sviluppare strategie autonome ed a dialogare tra loro secondo un nuovo linguaggio – fatto peraltro liquidato dalla corte come meramente suggestivo. E’ stato poi ricordato un ulteriore episodio, sempre relativo all’uso di bot, che ha alterato un tratto del mercato pubblicitario negli Stati Uniti quando, replicando il comportamento umano, questi hanno aumentato artificiosamente il traffico su alcuni siti, ingannando, tra l’altro, alcuni bot di controllo.
Chiuso rapidamente il dibattito per limiti di tempo, il giudice legge nuovamente la richiesta di condanna espressa dal pubblico ministero e si passa al voto.
L’intelligenza artificiale è assolta con 21 voti a favore e 19 contro.
Io ho votato per la sua condanna.
CONCLUSIONI
Il GIUDICE chiude il processo con un commento in cui, a partire dalla constatazione che il giudizio finale è stato di sostanziale parità, dichiara di sentirsi più vicino alle tesi dell’accusa che a quelle della difesa, soprattutto perché la prima non ha chiesto la condanna definitiva dell’intelligenza artificiale, ma la sua condanna ad una libertà vigilata sotto controllo umano. Il paradigma scientifico – afferma – ci porta a ritenere che nulla è realmente nuovo. Ma nel caso in questione vi sono degli aspetti di novità. Gli algoritmi “tradizionali” rispondono a requisiti che hanno una definizione matematica chiara ed incontrovertibile. Ma un algoritmo di “tipo google” non si basa su di una definizione matematica di rilevanza su cui tutti concordano. E’ lo stesso “google” che diventa la definizione operativa di rilevanza. L’algoritmo esegue ciò per cui è stato programmato, ma resta il bisogno di sapere se il suo risultato può essere accettato (e in questo caso anche la possibile apertura dell’algoritmo non aiuta, data la complessità di analisi dello stesso).
Va altresì sottolineato – continua – che non è necessario avere una conoscenza completa dei meccanismi di funzionamento del cervello per consentire il progresso dell’intelligenza artificiale: basti vedere quanto quest’ultima sta avanzando a fronte dello stato delle nostre attuali conoscenze. Anche questo, quindi, non ci protegge dai pericoli che potremmo dover affrontare. Come cittadini dobbiamo cercare di capire cosa sta accedendo intorno a noi e questo diventa più importante quanto più aumenta la complessità: è anche necessario investire per poter competere alla pari. Qui il giudice ha ricordato che quando nel 2000 Bill Clinton annunciò in conferenza stampa che si era arrivati a produrre il sequenziamento del genoma umano, un giornale nazionale – non citato – pubblicò un articolo ricordando che l’Italia era uscita per tempo da questo programma di ricerca e così, non investendo, aveva risparmiato parecchio denaro con la possibilità di ottenere comunque i risultati, in quanto pubblici. Una visione che ha sostenuto essere stata del tutto miope.
Lo storico israeliano Harari nel suo ultimo libro 21 lezioni per il XXI secolo, ha posto, tra le altre, alcune questioni. Cosa ha dato senso fino a qui? Cosa darà senso in futuro? Come vivremo in un mondo in cui le macchine ci conosceranno meglio di noi stessi? Se uno storico, non un tecnologo, pone queste domande, è facile comprendere come sia elevata la preoccupazione che questi sviluppi ci possano condizionare. Sono questioni da affrontare con grande cautela – conclude il giudice – al fine di cercare di comprendere fino in fondo, evitando atteggiamenti oscurantisti. Serve un contrappasso di conoscenze e di presa di responsabilità.
COMMENTO FINALE
In premessa mi sono chiesto se si può processare una tecnologia. La risposta è ovvia: il problema non sta nella tecnologia che, come ho già avuto modo di scrivere, evolve autonomamente e in modo inarrestabile, ma nell’uso che se ne fa. Qui ho accettato il gioco, ed ho emesso una sentenza di condanna, perché mi ha convinto il tipo di pena richiesta dall’accusa: la libertà condizionata sotto il controllo umano. E’ evidente che la specifica di questa libertà condizionata, basata su atti legislativi, norme, linee guida e regole di comportamento, richiede un processo lungo di comprensione, condivisione e continuo adattamento all’evoluzione stessa della tecnologia. Ciò non si può esaurire in poche righe, né oggi siamo nelle condizioni di portare a termine questo compito, ma il dibattito deve essere e restare aperto. Non è un caso che le strategie di sviluppo dell’intelligenza artificiale in molti stati contemplino regole e linee guida relative agli aspetti etici e che in questo campo esistano iniziative importanti, tra cui AI4People nata allo scopo di individuare i principi, le politiche e le pratiche utili a realizzare una “good AI society”.
Le regole della libertà vigilata attengono al tema della necessità di progettare il percorso della trasformazione digitale affiancando, come sostiene Luciano Floridi, “la gamba politico/sociale alla gamba del business che sta già sviluppando l’intelligenza artificiale come fatto a suo tempo con internet”. Per questo – interpretando sempre Floridi – è necessario definire un framework etico che contenga le linee guida per l’attuazione di politiche di coesistenza dell’uomo con l’intelligenza artificiale ed attivare una governance di sistema che includa non solo le regole specifiche di gestione, ma anche il rispetto di norme, leggi e degli aspetti etici.
Alcuni interventi si possono già ipotizzare: si può chiedere che per attività di tipo critico i codici e i dati siano disponibili ed aperti o che vengano ispezionati preventivamente da appositi comitati di controllo (come accade, ad esempio, nello Stato del Nevada); si può agire sulla proprietà dei dati con regole che impediscano condizioni di monopolio e che soprattutto mantengano la proprietà degli stessi in capo a chi li genera, ovvero ai cittadini, anziché a chi li processa e custodisce; si può concedere un diritto di utilizzo alla ricerca scientifica di qualsiasi dato, secondo regole opportune. Azioni di questo tipo, volte a risolvere problemi globali, non possono essere attuate con iniziative isolate: serve un consenso a diversi livelli che coinvolga anche la politica sovra-nazionale e in questo caso vorrei essere più ottimista di quanto oggi non sia. Non solo perché quando parliamo di intelligenza artificiale trattiamo argomenti che richiedono una comprensione troppo distante dalla visione delle attuali politiche degli stati, ma perché azioni concrete richiedono collaborazione e convergenza di iniziative. Se restiamo solo in Europa, pensiamo all’introduzione di normative quali la recente GDPR relativa al trattamento dei dati personali, che se pur non completa, è considerata da molti il punto più avanzato delle regole internazionali sulla privacy delle informazioni. In futuro sarà possibile realizzare altri interventi inter-governativi di tale portata nel momento in cui diverse spinte nazionali sembrano voler disgregare la possibilità di un’azione politica congiunta?
Ma il progresso richiede un’atteggiamento di speranza e pensiero positivo: ognuno di noi può e deve fare la propria parte, ad esempio divulgando, contribuendo ad aumentare la consapevolezza collettiva, chiamando in causa chi può far cambiare le cose. Piccole azioni che possono aiutare a far crescere un movimento collettivo che diriga il futuro secondo percorsi profondamente sociali e, quindi, profondamente umani.