Per fortuna sistemando la nostra libreria abbiamo ritrovato il libro di Cristiano De Mei: “AI Alleanze Intelligenti”, convincente sin dal titolo e dal suo sottotitolo Perché l’Intelligenza Artificiale è un supporto al nostro lavoro (Guerini Next, 2024).
Dopo i primi due capitoli dedicati il primo a considerare la storia dell’AI, dai suoi albori al Machine Learning e agli AI Agent e il secondo alle strutture che caratterizzano l’AI, si entra nel vivo della proposta. Il terzo capitolo “Non è tutto oro” porta l’autore a spiegare che l’AI non è “magicamente intelligente”: è uno strumento da integrare con l’intelligenza umana. L’autore distingue tra ciò che l’AI può fare (analisi rapida di dati, automazione, generazione di opzioni) e ciò che solo l’essere umano può fare (giudizio critico, responsabilità, creatività, senso etico). L’alleanza tra AI e umano è davvero “intelligente” solo se l’AI è usata consapevolmente da persone preparate, curiose e responsabili. Nel Capitolo 4 si sostiene che l’AI diventa un vero alleato quando non “invade” compiti umani essenziali, ma collabora con noi: un esempio è quando l’AI svolge analisi preliminari molto complesse, mentre l’essere umano decide quali scenari scegliere e come interpretarli. Le alternative tra le quali scegliere sono molte (ChatGPT, Anthropic Claude, Gemini, Copilot) ed è opportuno ricordarsi che più che la mente si sceglie un braccio intelligente: utili ma non in sostituzione dell’essere umano. L’AI non è una distopia, ma se gestita occupandosene attivamente, può invece aiutare il mondo ad imboccare percorsi di crescita positiva. Certo per procedere verso le Alleanze Intelligenti, come ricorda De Mei, è necessario adottare regole, responsabilità e percorsi etici chiari. Questi aspetti non si devono dimenticare. Questo lavoro può essere una lettura propedeutica e in parte allineata ad un altro importante libro dedicato a l’AI, quello di Francesco Varanini Splendori e miserie delle intelligenze artificiali (Guerini e Associati, 2024).
Dopo aver presentato:
a. tra i vari splendori, quello di una tecnologia che può rimanere al servizio delle persone, supportare decisioni complesse e ridurre il carico cognitivo,
b. tra le diverse miserie, l’errore di confondere intelligenza e computazione l’AI funziona su modelli semplificati, mentre la vita reale è fatta di ambiguità, contesto, eccezioni, relazioni,
c. l’AI alimenta il sogno manageriale e tecnocratica di poter:
• prevedere tutto,
• ottimizzare tutto,
• eliminare l’incertezza;
purtroppo c’è la complessità che fa svanire questo sogno.
Tra i due lavori peraltro non mancano alcuni punti di contatto. In particolare Varanini mi sembra con una posizione simile a De Mei sul fatto che il problema non sia l’intelligenza artificiale, ma di chi la progetta e la usa, dall’idea di “uomo” che ci sta dietro.
Sottolinea Varanini l’AI diventa pericolosa quando:
• pretende di sostituire il giudizio,
• nega il conflitto e la pluralità,
• promette soluzioni “oggettive” a problemi umani.
Diventa invece preziosa quando:
• resta incompleta,
• dialoga con l’esperienza,
• lascia spazio all’errore, alla responsabilità, alla relazione.
Visti i contenuti mi sembrava interessante chiedere a ChatGPT un confronto tra i due autori. La chat interpellata mi ha proposto le seguenti differenze:
La proposta sembra interessante poiché le differenze sono legate alla diversa visione che i due autori hanno del ruolo che le persone devono svolgere nei confronti dell’AI: secondo De Mei bisogna trovare le soluzioni per usarla bene, secondo Varanini il problema è che tipo di persona la utilizzerà e perché. Certo le loro visioni prospettiche sembrerebbero molto diverse: per Varanini c’è il concreto timore che l’AI ci abitui a pensare meno, mentre per De Mei l’AI ci aiuterà a pensare meglio. Il futuro ci dirà quale delle due visioni sarà quella prevalente.
Resta aggiornato con i nostri contenuti attraverso la nostra newsletter.
Scopri Manage-Mind: i migliori contenuti di management sempre a portata di clic



Scrivi un commento
Devi accedere, per commentare.