Podcast: S02 "La bottega di Efesto" - Ep. 08
Stagione 02 - Episodio 08
La pillola rossa

Questo episodio del podcast è rilasciato con licenza Creative Commons Attribution-ShareAlike 4.0 International License.
Attribuzioni
Musica: Kevin Hartnell - Earth and Stone Source: freemusicarchive.org Licenza: CC-BY-SA
Musica: Siddartha - Light and Shadow Source: freemusicarchive.org Licenza: CC-BY-NC
Aziende che hanno sostituito parte della loro forza lavoro con l’AI
Trascrizione
Nell’ultimo episodio ho cercato di raccontare a modo mio, con diverse semplificazioni, che cosa sono le AI generative e perché funzionano solo per un ristretto numero di casi specifici, e mai comunque per applicazioni mission critical.
In questo episodio, invece, volevo spostare la questione sugli aspetti più etici del fenomeno.
Principalmente, gli aspetti di natura non-tecnica che vengono sollevati di solito dai “detrattori” delle AI sono:
- L’impatto ambientale, in termini di consumo energetico e di acqua dolce
- Il furto di proprietà intellettuale messo in atto per addestrare le AI
- La perdita di posti di lavoro causata dall’adozione di questa nuova tecnologia.
Vediamoli brevemente.
L’impatto ambientale è davvero significativo, ma al momento si parla solo di stime (perché di stima si tratta) che si portano dietro una buona dose di assunti (cioè informazioni non note che vengono tirate a caso, con più o meno cognizione di causa), che abbiamo visto essere estremamente variabili.
Le dichiarazioni sulle esigenze energetiche di DeepSeek, ad esempio e se confermate, potrebbero far sì che queste stime vengano riviste significativamente al ribasso. Perché dunque sono state fatte delle stime così esagerate? Non è chiaro. La spiegazione che mi sono dato è che sono servite allo scopo di raccogliere enormi cifre da destinare all’aumento della produzione energetica. Ma questo è un altro discorso… ora facciamo un passo avanti: come contribuiscono le imprese che sviluppano questi modelli alla sostenibilità ambientale dei loro prodotti?
Semplicemente come prevede il Diritto del Paese in cui si trovano e pagano le tasse. L’America ha aziende che se ne battono? Ask America.
Il furto di proprietà intellettuale, anche questo realmente perpetrato, ci fa strillare come galline.
Però facciamo pace con noi stessi a tempo zero quando mettiamo su il pezzotto, quando scarichiamo il torrent di un film, di un libro o di un album musicale, quando condividiamo il nostro account del servizio streaming con amici e colleghi, quando fotocopiamo un testo universitario anziché acquistarlo, o quando compriamo il cappellino di Gucci contraffatto.
Certo, rubare qualche Euro ai brand miliardari o alle star di Hollywood non è come rubarlo al chitarrista che autoproduce un pezzo, o a uno scrittore che pubblica il suo primo libro, e farlo massivamente non è come farlo una volta ogni tanto. Ma soprattutto scoccia che quelli ci guadagnano i miliardi (che poi a quanto pare non è così, lo stanno facendo “a rimessa”), ma dal punto di vista del diritto non c’è molta differenza.
Ma violazione c’è stata, come ce ne occupiamo? Come una qualunque altra violazione del Copyright, ovvero come prevede il Diritto del Paese in cui i contenuti sono stati protetti da diritto d’autore e in cui la violazione è avvenuta. Anche qui un problema di Diritto.
La perdita di posti di lavoro è anch’essa reale. Sul link che ho inserito tra le attribuzioni c’è un articolo di Tech.co con un elenco di grandi aziende che hanno sostituito parte della loro forza lavoro con l’AI. E a quanto pare le professioni rimpiazzate (o che presto lo saranno), principalmente riguardano attività:
- di customer service;
- di pubblicistica e traduzione;
- legate alle risorse umane (ironia della sorte);
- impiegatizie di livello base (immissione dati, assemblaggio di reportistica ancora manuale, presentazioni). Probabilmente, da questo elenco mancano tutte le professioni freelance non strutturate, ma che hanno visto ridotto il loro potere contrattuale. Parlo di artisti grafici, illustratori, fotografi.
In questi casi la responsabilità è di come le Aziende decidono di affrontare il rimpiazzo di personale, strettamente dipendente anche dai CNL, per chi li applica, e (di nuovo) dal Diritto del Paese in cui si trovano. Ma questo è vero sempre, non solo a causa dell’AI. Per i freelance, invece, il problema resta e non è risolvibile proprio perché manca una normativa in merito che tuteli i lavoratori autonomi, in Italia come, e soprattutto, all’Estero.
In realtà chi propone i punti di cui sopra che sono, bada bene, assolutamente reali, potrebbe proporli per qualunque altra impresa energivora che sfrutta i dati disponibili online per far ottenere un guadagno ad altre imprese. Li potrebbe proporre anche per Meta, Google, Apple, Microsoft, anche senza AI. Sembrano, anzi, scritti proprio da un LLM o da un sindacalista italiano vecchio stile.
Per me, i punti eticamente rilevanti sono altri e, se vogliamo, derivano da qualche iterazione di pensiero sulle preoccupazioni di cui ho già parlato. A differenza di queste ultime, però, le mia preoccupazioni non hanno una soluzione triviale.
E parlo di:
- Technology “lock-in”.
- Irrilevanza programmata.
- Disincentivo allo sviluppo di metodi di analisi, ricerca e di indagine propri.
- Normalizzazione dell’incertezza e ritorno del pensiero magico.
Il primo punto, il technology lock-in è presto spiegato.
Siccome molti ruoli umani vengono terminati con un rimpiazzo digitale, presto si perderà consapevolezza e conoscenza su come quel lavoro andava svolto.
Diverrà appannaggio del sistema che lo realizza. Nessun senpai emergerà più, nessun kohai verrà nuovamente addestrato.
Si perderà la capacità di farlo, e dunque tornare indietro non sarà più possibile.
Ricordiamoci, che la forza lavoro di basso livello è molto più numerosa di quella di alto livello e se nessuno ha mai potuto fare la gavetta nessuno sarà mai in grado di valutare la bontà di un incarico svolto.
L’irrilevanza programmata è invece il corrispettivo del concetto di obsolescenza programmata.
Per quanto tempo un motore LLM potrà restare rilevante, ovvero fornire risposte contestuali alle richieste?
Chi produrrà quei nuovi contenuti umani che servono agli LLM per evitare la “morte cerebrale per autocorrelazione”?
Una volta che la maggior parte dei contenuti in circolazione saranno generati da LLM, chi avrà la capacità di controllarli, verificarli, correggerli? Sarà anche solo possibile farlo?
Se potessimo inserire questa domanda in una LLM specializzato come “generatore di Capitalismo” otterremo una unica risposta possibile: ovvero pagare altri esseri umani per scrivere nuovi contenuti e controllare quelli generati…
Ma andrà fatto in modo discreto… tipo Kenny Baker dentro R2-D2 (ma era solo un film… link nelle attribuzioni)… senza far comprendere a nessuno che un LLM può mantenere rilevanza se e solo se un umano, da qualche altra parte, si inventa qualcosa di nuovo e attuale.
E chi pagherà questo effort potrà anche decidere l’orientamento ideologico del modello di linguaggio.
Sul disincentivo allo sviluppo intellettuale mi pare che ci stiamo già avvicinando. Vedo persone e intere organizzazioni che non riescono già più a lavorare senza utilizzare Copilot o ChatGPT. La produttività aumenta a discapito della capacità critica, e dunque si diventa incapaci di articolare un discorso a parole proprie durante una riunione, si inizia anzi, a utilizzare i template, i costrutti sintattici, i termini atipici caratteristici degli LLM (li senti i “pivotal”, i “terrific”, “furthermore”, “It’s important to note”…).
Anziché guidare gli LLM a dire quello che vuoi a molti piace farsi guidare. Ecco questi sarebbero i primi candidati ad essere rimpiazzati, a mio modo di vedere. Tra l’originale e l’imitazione cosa sceglieresti?
Ma, infine, la mia preoccupazione più grande è quella della normalizzazione dell’incertezza.
Sono circa 80 anni che l’informatica cerca di persuadere il resto del mondo che un computer non sbaglia… e che sono gli esseri umani a sbagliare a scrivere il programma, o i dati in ingresso, o a leggere i dati in uscita.
Purtroppo è avvenuto il contrappasso.
Adesso che questo concetto è chiaro, ecco che i bimbiminkia della Silicon Valley sentono l’irrefrenabile bisogno di demolirlo nuovamente, rendendo più fluido il confine tra “giusto” e “sbagliato”, chiedendoci di considerare normale l’imperfezione degli LLM, e di tenerne conto nei risk assessment.
Una follia. Introdurre rischio laddove c’è oggi determinismo.
Se davanti ad uno, due o centocinquanta strumenti analitici metti un LLM per sintetizzarne i risultati e riportare osservazioni su trend e pattern, ecco che hai appena distrutto una pratica rigorosa come quella delle analisi di laboratorio, per fare un esempio.
Hai introdotto incertezza laddove c’erano convalida e qualifica.
Se unisci questo ad una persona “intellettualmente disincentivata” che deve prendere decisioni, che cosa potrà mai andare storto?
E poi, non ti sembra che questo approccio faccia scopa con un altra tendenza nata proprio di questi tempi?
Il rinunciare al fact-checking in favore di una valutazione di popolarità di una lettura di fatti rispetto ad un’altra?
Che cos’è questo se non richiedere agli LLM di fare una sintesi dei pareri degli utenti e proporla come verità?
Questo, a casa mia, si chiama pensiero magico, ed è pericoloso come lo fu la Santa Inquisizione.
Sarà forse un caso che tutto questo avviene nell’esatto momento in cui una classe politica antiscientifica e bigotta sale al potere nella prima potenza economica e militare del mondo?
Non so rispondere alle mie stesse domande, ma sono certo che più me ne faccio e più posso riuscire a definire e circoscrivere la percezione che ho di queste tendenze…
…e adesso che ti ho dato la tua pillola rossa, non mi resta che augurarti:
“Benvenuto nella tua desertica nuova realtà”
Ciao!