Stampa

L'introduzione nel linguaggio comune del termine algoritmo è avvenuto con un ritardo di qualche decennio da quando il suo studio già cambiava le sorti del mondo nei suoi primissimi prototipi. Alan Turing ed Enigma, la creatura di Arthur Scherbius che criptava i radiomessaggi dei nazisti, non sono stati, con il loro lavoro, degli elementi comprimari nello svolgimento della seconda guerra mondiale, anzi. Ci furono il lavoro e l'intuizione del professore inglese, che ebbe l'illuminazione di creare una macchina per decifrare i messaggi, utilizzando come parametri le parole chiave ripetute con cadenza regolare all'interno degli stessi, raggiungendo un risultato che i migliori crittografi del mondo non avrebbero mai ottenuto e che contribuì a cambiare le sorti della guerra. Nonostante la tragica fine che il suo stesso governo gli destinò, il risultato delle sue intuizioni è sotto gli occhi di tutti.

 

Occorre fare un distinguo: in "introduction to algorithms" pubblicato su MIT press, l'algoritmo è descritto come una procedura di calcolo ben definita che, a partire da determinati valori di ingresso, fornisce determinati valori in uscita. Un insieme di passi che trasforma un Input in un Output, in modo più o meno lineare. Ve ne sono di "complessi", dove il risultato è dato da combinazioni di regole, calcoli e soluzioni elaborate, ottenuto con diverse tecniche (alberi di decisione, classificatori bayesiani, SVM, ensemble method, analisis delle componenti principali, etc) arrivando al cosiddetto "machine learning", dove la macchina è in grado di auto perfezionare il modello e rivaluta i dati, prendendo in considerazione i risultati migliori in autonomia. Un programmatore può creare un modello matematico che trova le correlazioni fra Input e Output (input + previsione di output) per "addestrarlo", cioè fargli trovare il metodo migliore per creare i parametri interni necessari allo scopo.

In un'intelligenza artificiale si correlano milioni di set di dati, sviluppati non in modo lineare ma, imitando il cervello umano, a rete (neurale) in grado non tanto di svolgere un attività, ma imparare a svolgerla. Sul come, non vi è certezza.

In quest'ultimo passaggio si dipana il problema, ma soprattutto la paura: l’area dove non vi è una dipendenza dall'essere umano ma in cui la macchina deciderà in autonomia, diventa zona della quale il timore umano è evidente. Lo è sin dai tempi dei geniali racconti di Isaac Asimov e le sue "tre leggi della robotica", la cui discussione si dipana nei suoi romanzi. C’è una retorica che ha sempre avuto il profumo dei racconti dove, per aver chiesto un desiderio ad entità malvage, esse trovavano un escamotage di natura logica per ritorcerlo contro il malcapitato.

Del più antico mito di Cassandra invece si potrebbe tacciare l'appello di 1000 ricercatori, come l'italiana Francesca Rossi (global leader per l'etica delle IA per IBM), oltre ai ricercatori di DeepMind (progetto di Google), e di Elon Musk, sicuramente il più noto dei firmatari, il quale insieme ad altri eminenti, come lo scomparso Stephen Hawking, ha da sempre espresso enorme preoccupazione per lo sviluppo delle tecnologie legate alle IA, arrivando più volte a teorizzare come addirittura sia probabile distruggano la società come la conosciamo.

Sicuramente non mancherà qualcuno che, a torto o ragione, farà notare che le deludenti avventure del magnate su Twitter e le sue presunte guerre ai bot combattute con la solita arma degli abbonamenti a pagamento (chi lo avrebbe mai detto?), potrebbero farlo sembrare interessato per questioni di concorrenza. Vi sono ottime probabilità che questo elemento svolga un ruolo importante nelle sue posizioni ma questo non deve far perdere di vista il nocciolo del problema, che è assolutamente attuale e tangibile.

Prova ne sia il pilotaggio dell'opinione pubblica negli avvenimenti dell'ultimo decennio, o l'incredibile appoggio mondiale su un certo tema costruito con milioni di bot sparsi in giro per il web. Hanno svolto un ruolo fondamentale nella narrazione funzionale agli interessi dominanti: dalle guerre di terza e quarta generazione alle manovre speculative, gli esempi di manipolazione del consenso che ci vengono in mente sono i più disparati, quindi significa che ne abbiamo ormai la coscienza collettiva pur non disponendo ancora degli anticorpi necessari ad individuarli e respingerli.

La proposta di questo gruppo di ricercatori e business man è quella di fermare per almeno 6 mesi l'addestramento di tutte le IA più potenti di GPT-4, il più avanzato sistema di Open AI, e permettere di istituire una regolamentazione internazionale a riguardo.

Le preoccupazioni espresse nella lettera sono molteplici, fra cui spiccano i rischi per la disinformazione che potrebbe scaturire da contenuti generati artificialmente su richiesta che sarebbero indistinguibili da quelli veri, sino al problema del contrasto al lavoro umano. Fin dalla rivoluzione industriale è noto come la sostituzione della forza lavoro con le macchine sia stato un mantra che accentrava i profitti nelle mani di chi deteneva i mezzi di produzione. Oggi un’azienda informatica potrebbe, ad esempio, sostituire (come forse accadrà) gli illustratori professionisti con un servizio AI based al modico costo di poche decine di Euro al mese. Niente contratti, niente imposte, niente proteste e un modello che si potrebbe replicare ovunque e quasi istantaneamente, perché non richiede assunzione di dipendenti. Visto che poi a breve potrebbero anche superare qualsiasi umano in termini di qualità del lavoro svolto, oltre che in velocità, chi non ne approfitterebbe? L'azienda? Il cliente? La domanda suonerebbe retorica.

L'appello è stato pubblicato sul Future for life institute, organizzazione no profit che tiene sotto controllo i potenziali rischi per l'umanità derivati dallo sviluppo delle nuove tecnologie e presenta inoltre un punto che, innegabilmente, sorprende, vista la provenienza: i ricercatori stessi chiedono che queste decisioni non possano essere prese da consigli di amministrazione di aziende, ovvero gente non eletta da nessuna popolazione, ed auspicano una veloce organizzazione della governance degli stati sullo sviluppo delle IA, con l'istituzione di organismi per regolamentazione e controllo e sorveglianza. Si arrivan a scrivere che "se tale pausa non verrà attuata rapidamente, i governi dovrebbero intervenire per imporla", per permettere di istituire protocolli di sicurezza "sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali" in grado di affrontare "drammatici sconvolgimenti economici e politici che saranno causati dalle IA".

Ci sarà da fidarsi? D'istinto, quel lato oscuramente paranoico di tutti noi potrebbe, magari a memoria della sopracitata storia di Turing, pensare che vi siano progetti più avanzati e molto meno noti, che magari applicati ad ambiti di hacking militare o di spionaggio (vedi Echelon) potrebbero produrre effetti anche molto più devastanti di un missile. La situazione potrebbe prendere la buffa piega degli accordi per la non proliferazione del nucleare, per cui il numero di paesi che possiede ordigni nucleari è aumentato, come le bugie sulle quantità detenute. In fondo, chi se ne priverebbe sapendo che il proprio vicino ne ha una?

Sappiamo che gli umani vacillano di fronte alle promesse di potere e i più potenti più di tutti. Il divieto di ricerca, la nazionalizzazione o commissariamento di eventuali aziende non allineate sembrerebbe a dir poco fantasioso, piuttosto potrebbe spingere gli investimenti delle suddette aziende verso luoghi o zone grigie più o meno prive di giurisdizione o punibilità legale in forma preventiva.

Quei profili finti che ci inquietano mandando messaggi con link truffaldini da qualche anno, potrebbero far parte di un problema con cui rischieremo di aver fatto i conti sempre troppo tardi, come l'ambiente o la salute pubblica.

La "personalizzazione della pubblicità" e altri fantastici miti con cui hanno coperto il profiling della vita di milioni, forse miliardi di persone, il cosiddetto big data, sono a disposizione di colossi che hanno ora i mezzi superiori alla loro capacità di prevedere, come un bambino a cui la pistola laser che hanno regalato è vera. Dall'altra parte, gli enti che dovrebbero essere tecnologicamente pronti e proiettati al futuro, sono gli stessi che gestiscono il sostanziale analfabetismo digitale della nostra burocrazia Per fare una previsione pessimistica, questa volta, basta la logica.