Filosofia dell'IA: Non sei tu, sono io…

L'IA è un'apocalisse occupazionale o solo una moda passeggera?

Ogni giorno ascoltiamo o leggiamo notizie di ogni tipo sull'IA, e tutte ricorrono alle solite esagerazioni il cui unico scopo è ottenere il clic, senza curarsi se la notizia corrisponda alla realtà.

I messaggi possono provenire da due correnti d'opinione estreme: o l'IA è un'apocalisse per il mondo (almeno quello del lavoro) come lo conosciamo, o è un "hype" che non serve a nulla.

Così, per curiosità, ho chiesto all'IA cosa ne pensasse. 🤖

Ho usato lo stesso prompt con le tre principali IA: ChatGPT, Gemini e Claude:

Cosa ne pensi di tutte le esagerazioni e iperboli diffuse sull'IA?

Le sfumature nelle risposte di ciascun modello sono interessanti. Gemini introduce o simula una sorta di pseudo-coscienza, pur smitizzandola nella sua stessa risposta ammettendo pregiudizi e possiede una componente molto più morale rispetto a ChatGPT, che si concentra su componenti di produttività più pratiche. Claude si attiene più rigorosamente alla domanda e si focalizza sui messaggi estremi. E tutti e tre sostengono una posizione intermedia del tipo "né troppo, né troppo poco".

Tutti e tre considerano l'IA come uno strumento potente che, in quanto tale, amplifica e modifica la natura del lavoro. 🔧

Riflettendo sui messaggi che prevedono la fine di certi ruoli come programmatori, Product Owner, designer, ecc., mi sembra che:

  • Chi prevede la fine di un ruolo proviene solitamente da un altro ruolo e spesso ha conflitti o problemi con il ruolo di cui chiede la rimozione: sviluppatori sui Product Owner e viceversa, CEO su chiunque appaia nella nota spese, ecc… 🙂
  • È un errore parlare di ruoli; dobbiamo parlare della natura del lavoro.

Quando parliamo della natura del lavoro — e questo si percepisce nelle risposte dell'IA stessa —, pensiamo solitamente alla possibilità di automatizzare certi compiti, ma i compiti sono solo una parte del nostro lavoro. In realtà, molti compiti erano già automatizzabili prima dell'IA generativa; è cambiato solo il modo (e il costo) di automatizzarli.

Vorrei riflettere su altre caratteristiche meno visibili che vengono leggermente suggerite nella risposta di ChatGPT:

Il giudizio, la decisione e la responsabilità.

Queste tre caratteristiche sono state trattate fin dall'antichità in filosofia come attributi essenziali dell'essere umano. Il giudizio e la capacità di soppesare e discutere argomenti, la decisione o la capacità di scelta, e la responsabilità dei nostri atti sono stati affrontati da filosofi che vanno da Aristotele a pensatori più moderni come Cartesio, Hume o Kant.

Al di là dei trattati filosofici, questi concetti hanno definito l'architettura e l'organizzazione della nostra società e sono i pilastri di concetti come il diritto, l'etica, le relazioni di lavoro, la meritocrazia, ecc.

Quando vediamo i progressi dell'IA e le capacità dei nuovi modelli, non dobbiamo dimenticare che queste caratteristiche sono fondamentalmente umane. Per quanto l'IA possa avere la capacità (o possa simulare la capacità) di prendere decisioni, rimane uno strumento e deve sempre esistere un essere umano che si assuma la responsabilità degli atti.

Ho osservato con preoccupazione come certi attori intendano utilizzare l'IA non come uno strumento per amplificare le capacità umane, ma come una scusa per diluire la responsabilità di azioni eseguite da uno strumento come l'IA.

È celebre l'esempio di Anthropic che si è rifiutata di permettere all'esercito degli Stati Uniti di utilizzare l'IA per la sorveglianza di massa dei cittadini statunitensi o per armi autonome. Al di là delle considerazioni etiche sul fatto che questi usi siano giustificati o meno, la responsabilità degli atti è fondamentale. L'IA deve servire in questi casi a diluire la responsabilità di tali atti? Chi è responsabile se l'IA viola la legge sorvegliando i cittadini? O se l'IA commette un errore e "decide" di eliminare un innocente?

Senza andare a casi estremi di vita o di morte, nel nostro lavoro e nella vita quotidiana abbiamo numerosi esempi di decisioni e responsabilità che assumiamo. Chiediamoci: se va male, chi è responsabile, chi viene licenziato, chi rende conto o chi ci mette la faccia… se la risposta è "è stata l'IA…", stiamo andando nella direzione sbagliata.

Pertanto, l'uso dell'IA nel nostro lavoro sarà limitato dai concetti di giudizio, decisione e responsabilità. Non è che l'IA non potrebbe farlo, è che l'essere umano e la società non sono né pronti né disposti a cedere questi concetti.

In questo caso, dobbiamo dire all'IA: Scusa, non sei tu, sono io….