DALL’INTELLIGENZA ARTIFICIALE A CLEARVIEW AI- IL RISCHIO POTREBBE ESSERE UN MONDO DISTOPICO

338

Partiamo da Italo Calvino, che non è stato soltanto un narratore dalla fantasia sconfinata e un acuto osservatore del presente, bensì anche un genio capace di prevedere alcune dinamiche del futuro. Aveva infatti ipotizzato che ci sarebbe stato un tempo in cui i romanzi sarebbero stati scritti da una macchina invece che dall’uomo. A ricordarcelo in questo momento storico, sono tra gli altri, Andrea Prencipe e Massimo Sideri che hanno provato a spiegare l’Intelligenza Artificiale passando proprio attraverso l’ausilio del “metodo Calvino”. Il loro ultimo saggio si intitola, non a caso, “Il Visconte Cibernetico – Italo Calvino e il sogno dell’intelligenza artificiale” (ed. Luiss University Press)

L’innovazione vive di tensioni fra gli opposti. Ad esempio lentezza e velocità o leggerezza e profondità. Quasi degli ossimori dunque, con i quali questo genio visionario, si confrontava già nelle sue “Lezioni americane”.

Come sempre accade con le innovazioni che possono rivoluzionare le nostre vite – anche se non sappiamo esattamente in quali modi – noi esseri umani tendiamo ad esserne al contempo incuriositi e intimoriti. Gli entusiasti del progresso – soprattutto quelli convinti che progresso equivalga a sviluppo (cosa purtroppo non sempre vera) – si focalizzano sugli aspetti pratici (cosa ci consentiranno di fare le nuove tecnologie?), mentre altri ne denunciano possibili risvolti inquietanti o distopici. Stando al saggio di cui sopra, l’intelligenza artificiale sarebbe una grande opportunità che porta con sé grandi rischi.

I dibattiti in merito si sprecano e gli editori si lanciano a pubblicare saggi e trattazioni sull’argomento perché l’attualità, se spiegata da esperti o personaggi famosi (possibilmente televisivi ma non solo), ancora si riesce a venderla. Resta il fatto però che al momento definirne contorni e scenari futuri è cosa complessa.

Tra i dibattiti sul tema, mi ha colpito in particolare: “AI generativa: cosa cambierà?” che si è tenuto a Torino qualche settimana addietro. L’incontro, incentrato su quell’intelligenza artificiale progettata non soltanto per realizzare modelli o previsioni, ma in grado di creare nuovi contenuti come testi, video e immagini, ha posto interrogativi interessanti come: “l’Intelligenza artificiale è il futuro dell’informazione o della disinformazione?”

A dibatterne, tra gli altri, Carola Frediani, autrice di testi quali “Guerre di Rete” e “Deep web. La Rete oltre Google”, che ha messo in evidenza come L’AI generativa rischi di inquinare il discorso pubblico con materiale propagandistico e di disinformazione personalizzata. Si tratterebbe secondo lei di uno strumento molto potente che “permette quindi di offrire servizi migliori, ma se applicato, ad esempio, nella sorveglianza, è in grado di esercitare un controllo molto maggiore e pervasivo, con delle implicazioni ancora tutte da scoprire”.

Inoltre studiosi di diversa natura riconoscono come il termine AI sia vago e ambiguo fin dalla sua nascita. Alcuni di questi, come Yarden Katz, professore al Department of American Culture della University of Michigan, ritengono addirittura questo dato “funzionale a un uso ideologico di tale tecnologia”. La nebulosità del concetto permetterebbe, stando alle sue parole “di reinterpretarlo continuamente sulla base di determinati interessi, a seconda che si tratti di aziende che promettano nuovi mercati agli investitori, di Stati che vogliano rafforzare la sorveglianza o di apparati militari che cerchino di legittimare armi “intelligenti”.

In questo contesto, in continua evoluzione, ci si interroga dunque, oltre che sull’AI, anche sull’influenza delle piattaforme sul nostro modo di comunicare, apprendere e interagire. Anche in merito ai social, occorrerebbe porsi delle domande sul loro uso improprio. La sociolinguista Vera Gheno ne traccia un’analisi nel suo ultimo saggio: “L’antidoto” (edito da Longanesi). L’autrice passa in rassegna i 15 principali comportamenti che adottiamo ogni giorno sui social e ricostruisce la scala di disfunzioni relazionali e comunicative che ci avvelenano la vita: dalla deumanizzazione dei personaggi pubblici al demone della velocità che ci porta a postare ininterrottamente.

Ma il testo forse più inquietante è quello di Kashmir Hill, giornalista del New York Times, che ricostruisce e racconta il più grande attacco alla privacy mai sferrato prima, ovvero il racconto della startup Clearview AI, capace di risalire ai nostri dati sensibili grazie ad una foto. Si tratta di “La tua faccia ci appartiene” (Orville Press).

Ma come funziona Clearview AI? Immaginate uno sconosciuto che, mentre vi passa a fianco per strada con fare indifferente, vi fotografa con il cellulare. Immaginate poi che, grazie alla suddetta applicazione, arrivi a ricavare in pochi secondi il vostro nome, il vostro indirizzo e l’accesso a tutti i vostri social. Ecco in cosa consiste Clearview AI. Risulta difficile dire che cosa in questa trattazione, risulti più inquietante. Il racconto riguarda anche, ovviamente l’inafferrabile Ton-That, co-fondatore della società statunitense che ha ideato l’app e che, ovviamente dice di agire esclusivamente per fini etici, per non parlare di quelli come lui che sono tanti e che vivono in mezzo a noi, ideando e costruendo un mondo dove i concetti di identità e di vita stessa, si trasformano in semplici dati che la polizia stessa usa per conto di non si sa chi. Questi giovani programmatori, spesso considerati dei geni disegnano macchine sempre più sofisticate senza sapere dove ci porteranno.

Articolo precedenteIL PIÙ GRANDE CARNEVALE SLOVENO
Prossimo articoloL’HOTEL CHE NON C’E’