Quando nel 2016 Nick Srnicek, scrisse il noto saggio sul capitalismo delle piattaforme, l’intelligenza artificiale generativa non aveva ancora avuto la diffusione e la centralità che sta assumendo in questi ultimi anni. Il meccanismo di estrazione di valore, non solo economico, dai big data era un processo in fase iniziale ed i cittadini non erano ancora consapevoli di quanto tutto ciò avrebbe progressivamente impattato su molti aspetti, etici e giuridici, della loro sfera personale. Ce lo spiegò più compiutamente, qualche anno dopo, l’autrice statunitense Shoshana Zuboff nel suo celebre Il capitalismo della sorveglianza, che diede inizio ad un ampio dibattito sociale e politico, tutt’ora in corso.
Secondo la Zuboff, infatti, il carburante principale che alimenta le grandi piattaforme digitali deriva dalla raffinazione di un prodotto che ciascuno di noi, quotidianamente, cede loro senza contropartita alcuna: le nostre azioni ed i nostri comportamenti in rete. Questi dati comportamentali vengono estratti e lavorati dagli algoritmi di intelligenza artificiale per essere poi trasformati in utile prodotto finito, vale a dire milioni di profili delle più diverse varietà: il profilo dell’elettore, quello del consumatore di prodotti e servizi, quello del paziente sanitario, quello del cliente di banca o di compagnia assicurativa e svariati altri profili sempre più
targetizzati e segmentati. La c.d. platform economy ed i processi digitali ad essa connessi, hanno poi avuto un’enorme accelerazione a causa della pandemia da covid 19, che ha costretto gran parte della popolazione mondiale a vivere per mesi in casa davanti ad un pc, giungendo al definitivo consolidamento grazie alla rapida evoluzione degli ultimi modelli di IA generativa. Ciò ha naturalmente fatto intravedere, assieme a numerosi benefici per cittadini ed imprese, in termini di connettività, flessibilità e fruizione di servizi avanzati, enormi rischi per la sicurezza e la trasparenza dei dati. Occorre infatti che individui, imprese ed istituzioni acquisiscano la consapevolezza che, in quanto materia prima fondamentale per le piattaforme digitali, i big data diventeranno una merce sempre più pregiata e dunque sfruttata, a discapito della privacy e di altri diritti fondamentali delle persone.
Un altro enorme rischio, che investe diversi ambiti della società, riguarda la manipolazione dei dati e delle informazioni acquisite a scopi politici, economici, finanziari o di creazione del consenso. In particolare, i processi di disinformazione e misinformazione tramite immagini o video falsi si sono enormemente raffinati e potenziati negli ultimi mesi, grazie allo sviluppo accelerato dei nuovi algoritmi di intelligenza artificiale generativa, tanto da rendere spesso indistinguibili all’occhio
umano gli artefatti digitali così prodotti. Lo sottolinea con parole molto chiare Marco Castaldo, co-founder e Ceo della start-up italiana IdentifAI, azienda specializzata nella detection dei falsi digitali: «Con i progressi nell'intelligenza artificiale generativa, ci stiamo avvicinando a un mondo dove è sempre più facile creare una
“realtà” falsa, a nostro vantaggio; ma anche sostenere l’opposto: che una realtà che non ci piace sia stata falsificata. Il futuro è dunque pieno di sfide profonde, sia nella protezione del vero che nella individuazione del falso. Sono in gioco parole chiave come “verità, responsabilità, affidabilità, trasparenza”. Concetti che sono l’essenza delle democrazie e che consentono il corretto funzionamento dei sistemi sociali ed economici. Altrimenti vincerà solo la legge del più forte. Tra i veri deepfake e quelli dichiarati tali, abbiamo bisogno di soluzioni strutturali di ampio respiro; occorrono innovazioni legislative globali ma soprattutto tecnologie affidabili in grado di riconoscere se un artefatto è stato generato da AI oppure no. Noi, con IdentifAI, siamo in campo per contribuire a questa fondamentale battaglia di civiltà». In quanto società digitali dobbiamo imparare a muoverci in un orizzonte di sicurezza più ampio del pure importante, ma circoscritto, dominio cyber: siamo ormai nell’alveo della sicurezza cognitiva che ricomprende “i pericoli sociologici e politici legati all’esposizione di massivi flussi di informazioni dissonanti, che possono contribuire all’aumento di atteggiamenti ostili nelle popolazioni, al declino della coesione sociale, della fiducia istituzionale, a ridurre l’efficacia della produzione della ricerca scientifica e l’affidabilità delle fonti in generale”. Non si tratta, pertanto, di combattere semplicemente guerre commerciali o dell’informazione ma di affrontare una questione decisiva che investe i principi ed i valori costitutivi dell’Occidente democratico e delle strutture sociali e culturali che, negli ultimi due secoli, almeno, su tali fondamenta sono state edificate.