Podcast: S02 "La bottega di Efesto" - Ep. 07
Stagione 02 - Episodio 07
Fattene una ragione

Questo episodio del podcast è rilasciato con licenza Creative Commons Attribution-ShareAlike 4.0 International License.
Attribuzioni
Musica: Kevin Hartnell - Earth and Stone Source: freemusicarchive.org Licenza: CC-BY-SA
Musica: Siddartha - Light and Shadow Source: freemusicarchive.org Licenza: CC-BY-NC
Link a “DataKnightmare” su Spreaker.com https://www.spreaker.com/podcast/dataknightmare-l-algoritmico-e-politico--1977562
Trascrizione
Che ci piaccia o no, l’intelligenza artificiale è qui. È qui in mezzo a noi, ed è qui per restare.
Se stai storcendo il naso, dammi fiducia e prosegui l’ascolto… oppure no, per me è uguale, tutto sommato.
Non sono bravo come Walter Vannini (che, citandolo, “non mi paga per dirlo”, ma che io adoro ascoltare sul suo podcast Data Knightmare che, pure tu, non devi assolutamente perderti) ma proverò lo stesso a raccontare questo argomento a modo mio.
Come oggi, 20 anni fa gli smartphone iniziavano a conquistare il mondo. Erano ovunque nelle notizie. Ogni giorno decine e decine di siti web prendevano vita raccontando ogni più minuzioso dettaglio sul più recente santo Graal della tecnologia. I feed RSS delle agenzie di stampa e dei giornali (all’epoca ogni giornale o rivista li aveva!) nelle sezioni “tecnologia” erano piene zeppe di tutti e soli articoli che raccontavano le meraviglie di questo o quel nuovo modello.
Era l’alba dell’iPhone (che era in realtà l’ultimo arrivato, nel panorama tecnologico, ma era arrivato con una campagna di marketing galattica, nel suo stile).
A differenza di oggi, però, 20 anni fa il telefonino lo compravi. E funzionava. Veramente.
Oggi non solo non c’è una reale intelligenza dietro alla parola AI, ma in compagnia di molti altri veterani dell’informatica, nutro diversi dubbi che funzioni realmente, al di fuori di precisi e specifici limiti di batteria.
Ripetere il concetto non fa male.
Inizio facendo una precisazione. Quando dirò “AI” o “intelligenza artificiale” in questo podcast, mi starò riferendo solo ai modelli generativi cioè quelli che producono testi o contenuti multimediali. So che è sbagliato parlare di “intelligenza”, ma lo faccio per brevità e convenzione.
In quanto esseri umani, abbiamo la tendenza ad attribuire caratteristiche umane ad animali o cose inanimate: si chiama antropomorfismo. Lo facciamo senza quasi pensarci. Per cui, se una macchina ci restituisce una risposta che appare frutto di una riflessione, riutilizzando solo in parte la domanda (o il prompt come è in uso dire oggi), tenderemo ad associare la caratteristica di “intelligenza” alla macchina che l’ha elaborato. Anche se di intelligente non c’è poi molto, oltre alla scaltrezza di chi l’ha sviluppata…
In fin dei conti stiamo parlando solo di calcolo probabilistico, che non sono assolutamente in grado di spiegare se non a grandi linee…
Ci proverò lo stesso, però… per farla breve, in fase di addestramento, viene fornita ad una AI un enorme quantità di dati “etichettati”. Si tratta di testi (libri, ricerche, studi, articoli di giornale, blog, e qualunque altra forma di linguaggi scritti o anche parlato e poi trascritto), corredati da una serie di metadati, che possono essere parole chiave, classificazioni, dati di localizzazione, marche temporali… sono dati che danno un contesto all’articolo in questione.
Il modello di linguaggio processa questi testi con i relativi metadati creandosi, concedetemi la semplificazione, degli indici che stabiliscono quale sia la probabilità di trovare certi termini vicini a quali altri. I calcoli necessari a questo processo sono onerosissimi in termini di potenza di calcolo, tempo ed energia necessaria, ma quante più sono le fonti e la capacità del modello, tanto più accurate saranno le risposte agli stimoli delle domande.
In un secondo momento delle persone (che ormai oggi iniziano ad essere sostituite da altre AI già addestrate) valutano le risposte dei modelli a determinate domande, in modo da calibrarli con meccanismi di “rinforzo”.
In un mondo ideale, dove avessimo una knowledge base universalmente stabilita, senza controversie, dove tutto viene pubblicato solamente dopo una peer reviewed e autorizzato, potremmo ragionevolmente disporre di modelli estremamente accurati, e forse anche un po’ monotoni. Ma il nostro mondo è molto diverso da questa orrenda utopia, almeno per adesso.
Abbiamo la possibilità, e lo facciamo continuamente, di avvelenare con le nostre innumerevoli ideologie, i nostri bias, le nostre teorie del complotto e con il nostro pensiero magico qualunque contenuto, inclusi gli articoli scientifici.
Questo non fa del bene ai modelli di linguaggio, e dunque i vari sviluppatori di questi modelli si trovano costretti a introdurre strati su strati di controllo per evitare che vengano generati contenuti offensivi, rendendo questi modelli goffi e ingessati, e senza però ancora riuscire a fare nulla in merito alla possibilità che prendano clamorosi abbagli, le cosiddette allucinazioni.
Del resto che cosa ci si aspettava? Abbiamo noi stessi difficoltà a destreggiarci tra trappole, truffe, bugie, promesse dei politici… che cosa ci si aspettava da un algoritmo ingenuo che non è nemmeno in grado di capire una frazione di ciò che legge o risponde?
Che interpretasse la realtà per noi e ci spiegasse quello che non riusciamo a comprendere?
Come potremmo anche solo mai credere che chi controlla le AI non abbia interesse a farci giungere la sua narrazione del mondo?
Suggerirci opinioni favorevoli per ciò che è nel suo interesse?
Far passare le pubblicità per consigli organici dell’intelligenza artificiale?
Profilarci con le nostre stesse richieste?
Credo sarebbe un mondo molto peggiore di oggi quello in cui questo dovesse mai avvenire. E i vincoli legali che possono impedire tutto questo fanno solamente sorridere chi dispone di denaro sufficiente a coprire il PIL di un Paese come l’Italia.
Dunque, che lo vogliamo o no, che ci piaccia o meno, l’intelligenza artificiale è qui, e ignorarla è un errore tanto quanto accoglierla incondizionatamente.
Ne vanno evidenziati e riconosciuti i limiti, bisogna non concedere alcunché ai venditori di fumo, non va accettato il concetto che “sono imperfetti”, e bisogna ribadire costantemente che se “possono sbagliare” allora non sono altro che prototipi difettosi, curiosi oggetti informatici in alpha release.
Accettare come buono qualcosa che può sbagliare clamorosamente non è un’idea sana, e qualunque tecnico che ignori questo fatto è in mala fede e imputabile.
Questo non significa che esistano dei casi d’uso in cui i modelli generativi possano essere di ausilio per alcuni tipi di bisogni sensoriali o cognitivi, o, se accuratamente calibrati, possano fornire assistenza in alcuni campi di studio e ricerca scientifica estremamente circoscritti. Ripeto: senza mai, però, divenire critici.
Personalmente ne faccio un uso estremamente saltuario e limitato all’ambito lavorativo, dove ho una licenza Copilot legata al mio account aziendale. A casa, per attività personali, ad esclusione dei primissimi esperimenti con la generazione delle immagini che puoi vedere se vai abbastanza indietro sul mio blog, ne evito l’uso.
Vuoi sapere perché? Non temo le allucinazioni o gli errori che può commettere… ho in verità altri motivi, che spiegherò in un’altra puntata relativa agli aspetti etici dei Large Language Models. Grazie per avermi ascoltato.