Abbiamo un problema con l’IA

Abbiamo un problema con l’intelligenza artificiale? Premetto che non ne ho mai aperto intenzionalmente un’interfaccia, dove l’accento è su intenzionalmente, mentre la consapevolezza è quella di una sua sempre piu rapida pervasività (più o meno esplicita) in tante piattaforme e navigazioni proprie della dieta digitale d’ogni giorno. Premetto poi, forte della mia ignoranza disciplinare ed esperienziale, anche di appartenere alla ristretta (?) cerchia degli scettici, nella duplice accezione di consapevolezza dell’impossibilità di conoscere ma soprattutto di perplessità in relazione a un possibile esito positivo del suo utilizzo.

Non ho intenzione di precipitare questo contributo sui rischi connessi al raggiungimento della singolarità tecnologica preconizzata da Ray Kurtzweil, tantomeno dalle profezie di Hawking, né dalla possibile obsolescenza del test ideato da Alan Turing nel 1950. Riepiloghiamo, sinteticamente, dalle basi, senza per questo scadere nella facile retorica dell’intelligenza artificale for dummies.

Un’intelligenza artificiale è un sistema non biologico capace, a parere nella norma ISO, di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. Questa definizione schiaccia sulla sola condizione umana caratteristiche per altri versi comuni ad altre specie viventi non umane né animali, ma per ora facciamocela bastare perché il campo della propriocezione non è esattamente il mio pane quotidiano. L’assenza di una definizione condivisa di cosa sia l’intelligenza è d’altra parte l’antipasto perfetto per accertare la parzialità della sua misurazione e valutazione (qi, matrici di Raven, successivi approcci psicometrici o cognitivisti). La stessa assunzione della intelligenza come processo plurale (dovremmo parlare di qui in avanti di forme molteplici di intelligenza) apre paradossalmente proprio all’esistenza di forme di intelligenza specifica anche di ordine informatico, o comunque artificiale in senso lato.

Beethoven avrebbe composto la Nona Sinfonia seguendo un processo di ingegneria inversa: a seguito della determinazione dell’effetto finale da produrre sul pubblico, il compositore procede in modo non lineare costruendo l’opera tenendo sempre a mente il quadro generale del lavoro. Diversamente, l’intelligenza artificiale sviluppata per il progetto avrebbe proceduto in maniera lineare, per compartimenti stagni, in un flusso di lavoro che lo stesso Brandt definisce pixelato. Chiaramente, il progetto non ha come scopo la costruzione di un effetto da produrre sul pubblico tramite la musica; l’effetto a cui si aspira è puramente auratico, da prodursi unicamente in virtù del fatto che sia stata una macchina a comporre la sinfonia completando il lavoro iniziato da un essere umano, che sia dia il caso essere stato uno dei più celebri compositori della storia. Si viene così a creare nella nostra percezione una corrispondenza ontologica tra Beethoven e il suo doppio artificiale.

Mattia Palla su Quaderni d’altri tempi a proposito di Benjamin, Beethoven, fotografia e IA

Questo panegirico mi serve per dire che abbiamo gioco facile a dire che le IA consumer non sono davvero IA laddove non interpretano letteralmente dati, ambiente, né hanno consapevolezza di sé. Eppure selezionare gli aspetti delle intelligenze adatti a dichiarare la stupidita di queste IA non ci colloca in un perimetro piu sicuro né consapevole del loro impatto nelle nostre vite.
Le prime reti neurali e la definizione stessa di IA risalgono agli anni ’50 del Novecento, eppure solo da una manciata di stagioni costrutti come deep learning, machine learning, large language model sono entrati nel discorso pubblico insieme ad algoritmi di rinforzo. Allo stesso modo parole comuni quali allenamento e apprendimento continuo (sic!) hanno assunto nuovi significati, a illustrare i caratteri di versatilità, dei sistemi di conversazione naturale e generazione di content testuali, musicali, grafici… Nel linguaggio commerciale sul web l’introduzione di IA all’interno di un servizio che solo qualche anno fa era un elemento distintivo e quindi posizionante, oggi è un must have. Tra le conseguenze necessarie di questa discorsività magnetica, il precedente posizionamento su crisi climatica e net-zero è pressoché scomparso dalla sera alla mattina.


Recentemente ho seguito seminario di formazione promossa da AIB su questi stessi temi. Preparato il relatore, ricchi i riferimenti, eppure una volta giunti al punto la proposizione di valore di queste piattaforme è stata riassunta in termini del tutto prestazionali (efficienza, velocità, produttività) a fronte di uno speculare soprassedere su limiti, rischi, attenzioni da mantenere nel rapporto con questi strumenti. Si ravvisa non solo un’inedita disponibilita al rischio, ma una sospensione del giudizio mai accordata a sistemi di pirateria etica (o presunta tale) quali z-library, piratebay e assimilati) ma certamente non a trazione commerciale.

Il primo numero di quest’anno della rivista delle biblioteche toscane Bibelot ha dedicato un approfondimento allo sguardo dell’esperto di media information literacy dell’UNESCO Jesus Lau. Vi si trovano il ruolo attivo dei bibliotecari, giusto. L’importanza di un formazione all’utilizzo etico dell’IA, giusto. La lotta all’agrafia che sempre più contraddistingue questa fase di apprendimento e produzione mediale digitale, giusto. Si procede con l’alfabetizzazione e la facilitazione nell’apprendimento delle tecniche per padroneggiare i nuovi strumenti, ok. Poi a un certo punto i bibliotecari possono diffondere la legislazione sulla proprietà intelletturale, informare sulla protezione e sulla privacy dei dati personali, e qui abbiamo un problemone. Ancora una volta la tecnologia assume una presunta neutralità, mentre l’approccio critico e informato è schiacciato sul suo uso. E questo nel pieno della trasformazione genetica di Open AI o dello scandalo che ha travolto Perplexity, su cui vi consiglio l’ascolto del cap. 10 (almeno quello!) della puntata n. 730 dello storico podcast Digitalia. Per non dire di Lavander, Gospel e Where is daddy, i tre sistemi di IA noti utilizzati dallo stato di Israele contro la popolazione di Gaza a scopo di generazione, sorveglianza e tracciamento di target civili (e presunti militanti) e basi operative.

Tornando al nostro recinto tematico è piuttosto interessante anche la Dichiarazione dell’associazione AudioVisual Translators Europe – AVTE (partecipata anche da ACTA-Tramiti) a proposito dell’utilità e degli impatti sul settore della traduzione multimediale dell’IA generativa. Con questa presa di posizione l’Associazione riposiziona la responsabilità dell’utilizzo furtivo e disinvolto dell’automatizzazione della traduzione (machine translation) dal software alle agenzie e alle produzioni di contenuti. Dopodiché si focalizza sul valore delle attività (ad oggi) eminentemente umane di contestualizzazione, post-editing, rielaborazione. In precedenti contributi avevo sfiorato l’argomento, segnalando l’imminente crisi dell’autorialità, in campi in cui traduzione, editing, impaginazione, versioni digitali, sintesi, quiz, videolezioni… possono essere imitate in maniera più o meno convincente da specifiche IA e conseguentemente automatizzate e serializzate in sostituzione di professionisti. Le IA si nutrono di quel che viene loro dato in pasto senza troppi complimenti. Non sono (ancora) cattive, non quanto gli umani, ma sono se possibile più affamate.

Con questi disorganici appunti mi premeva offrire una prima rosa di ragioni, casi studio e spunti per fomentare un diverso approccio all’arrivo di quest’arma di produzione di massa.