Per fortuna sistemando la nostra libreria abbiamo ritrovato il libro di Cristiano De Mei: “AI Alleanze Intelligenti”, convincente sin dal titolo e dal suo sottotitolo Perché l’Intelligenza Artificiale è un supporto al nostro lavoro (Guerini Next, 2024).

Dopo i primi due capitoli dedicati il primo a considerare la storia dell’AI, dai suoi albori al Machine Learning e agli AI Agent e il secondo alle strutture che caratterizzano l’AI, si entra nel vivo della proposta. Il terzo capitolo “Non è tutto oro” porta l’autore a spiegare che l’AI non è “magicamente intelligente”: è uno strumento da integrare con l’intelligenza umana. L’autore distingue tra ciò che l’AI può fare (analisi rapida di dati, automazione, generazione di opzioni) e ciò che solo l’essere umano può fare (giudizio critico, responsabilità, creatività, senso etico). L’alleanza tra AI e umano è davvero “intelligente” solo se l’AI è usata consapevolmente da persone preparate, curiose e responsabili. Nel Capitolo 4 si sostiene che l’AI diventa un vero alleato quando non “invade” compiti umani essenziali, ma collabora con noi: un esempio è quando l’AI svolge analisi preliminari molto complesse, mentre l’essere umano decide quali scenari scegliere e come interpretarli. Le alternative tra le quali scegliere sono molte (ChatGPT, Anthropic Claude, Gemini, Copilot) ed è opportuno ricordarsi che più che la mente si sceglie un braccio intelligente: utili ma non in sostituzione dell’essere umano. L’AI non è una distopia, ma se gestita occupandosene attivamente, può invece aiutare il mondo ad imboccare percorsi di crescita positiva. Certo per procedere verso le Alleanze Intelligenti, come ricorda De Mei, è necessario adottare regole, responsabilità e percorsi etici chiari. Questi aspetti non si devono dimenticare. Questo lavoro può essere una lettura propedeutica e in parte allineata ad un altro importante libro dedicato a l’AI, quello di Francesco Varanini Splendori e miserie delle intelligenze artificiali (Guerini e Associati, 2024).

Dopo aver presentato:

a. tra i vari splendori, quello di una tecnologia che può rimanere al servizio delle persone, supportare decisioni complesse e ridurre il carico cognitivo,

b. tra le diverse miserie, l’errore di confondere intelligenza e computazione l’AI funziona su modelli semplificati, mentre la vita reale è fatta di ambiguità, contesto, eccezioni, relazioni,

c. l’AI alimenta il sogno manageriale e tecnocratica di poter:

• prevedere tutto,

• ottimizzare tutto,

• eliminare l’incertezza;

purtroppo c’è la complessità che fa svanire questo sogno.

Tra i due lavori peraltro non mancano alcuni punti di contatto. In particolare Varanini mi sembra con una posizione simile a De Mei sul fatto che il problema non sia l’intelligenza artificiale, ma di chi la progetta e la usa, dall’idea di “uomo” che ci sta dietro.

Sottolinea Varanini l’AI diventa pericolosa quando:

• pretende di sostituire il giudizio,

• nega il conflitto e la pluralità,

• promette soluzioni “oggettive” a problemi umani.

Diventa invece preziosa quando:

• resta incompleta,

• dialoga con l’esperienza,

• lascia spazio all’errore, alla responsabilità, alla relazione.

Visti i contenuti mi sembrava interessante chiedere a ChatGPT un confronto tra i due autori. La chat interpellata mi ha proposto le seguenti differenze:

La proposta sembra interessante poiché le differenze sono legate alla diversa visione che i due autori hanno del ruolo che le persone devono svolgere nei confronti dell’AI: secondo De Mei bisogna trovare le soluzioni per usarla bene, secondo Varanini il problema è che tipo di persona la utilizzerà e perché. Certo le loro visioni prospettiche sembrerebbero molto diverse: per Varanini c’è il concreto timore che l’AI ci abitui a pensare meno, mentre per De Mei l’AI ci aiuterà a pensare meglio. Il futuro ci dirà quale delle due visioni sarà quella prevalente.

Resta aggiornato con i nostri contenuti attraverso la nostra newsletter.

Scopri Manage-Mind: i migliori contenuti di management sempre a portata di clic