Negli ultimi anni, l’Intelligenza Artificiale ha fatto passi da gigante, tanto da sembrare quasi "intelligente" nel senso umano del termine. Assistenti virtuali, chatbot avanzati e modelli di linguaggio come ChatGPT hanno raggiunto livelli di sofisticazione impressionanti, al punto che molte persone iniziano a parlare di AI come se fosse dotata di una propria coscienza o intenzionalità. Ma questa percezione è frutto di un’illusione cognitiva: stiamo proiettando caratteristiche umane su qualcosa che, in realtà, è solo un sofisticato sistema probabilistico.
L’AI non pensa, calcola!
Uno degli errori più comuni nell’approccio all’AI è confondere la sua capacità di generare testi coerenti con una vera comprensione del mondo. Gli attuali modelli di intelligenza artificiale, basati su reti neurali e algoritmi di apprendimento automatico, non "ragionano" né "comprendono" il significato delle parole come farebbe un essere umano. Il loro funzionamento è basato sulla probabilità: analizzano enormi quantità di dati, riconoscono pattern e producono risposte statisticamente più probabili in base all’input ricevuto. Se un chatbot sembra "riflettere" o "esprimere opinioni", in realtà sta solo generando testi plausibili in base ai dati con cui è stato addestrato.
L’antropomorfizzazione dell’AI
L'essere umano ha una naturale tendenza all'antropomorfizzazione, ovvero l’attribuzione di caratteristiche umane a oggetti, animali o sistemi artificiali. Questa inclinazione può essere pericolosa quando si tratta di AI perché porta a fraintendimenti e illusioni cognitive. Questo comporta due grandi rischi:
Proiezione emotiva – Quando un chatbot risponde in modo empatico o sembra "capire" le emozioni di un utente, è facile pensare che provi sentimenti. In realtà, sta solo riproducendo schemi linguistici appresi dai dati di addestramento.
Attribuzione di intenzionalità – Se un algoritmo prende una decisione che ci sembra "ingiusta" o "scorretta", tendiamo a vedere in essa un'intenzione o una volontà, quando in realtà il risultato è determinato dalla qualità e dalla struttura dei dati con cui l’algoritmo è stato addestrato.
Confondere l’AI con un’entità pensante può avere conseguenze significative, sia a livello individuale che sociale:
Eccessiva fiducia nei sistemi AI: se le persone credono che l’AI "capisca" e prenda decisioni con razionalità umana, potrebbero affidarsi troppo a essa senza verificarne le limitazioni.
Bias nei dati e discriminazione algoritmica: le AI possono perpetuare e amplificare pregiudizi presenti nei dati di addestramento. Se le trattiamo come "obiettive", rischiamo di non vedere gli errori sistematici che possono emergere.
Sostituzione del pensiero critico: delegare eccessivamente il ragionamento e le scelte a sistemi automatici può ridurre la capacità critica degli individui e il senso di responsabilità nelle decisioni.
Per utilizzare l’AI in modo efficace ed etico, è fondamentale adottare un atteggiamento critico e consapevole:
Comprendere il suo funzionamento: sapere che si tratta di un sistema basato su probabilità e pattern aiuta a evitare illusioni.
Verificare sempre le informazioni: l’AI può generare risposte plausibili ma errate. È importante validare i contenuti con fonti affidabili.
Non attribuirle caratteristiche umane: l’AI non ha coscienza, intenzioni o emozioni. È uno strumento, non un’entità autonoma.
L'Intelligenza Artificiale è una straordinaria tecnologia con potenzialità enormi, ma non è una mente, né un essere senziente. È un sistema che elabora probabilità e pattern, e sta a noi utilizzarlo con consapevolezza, senza cadere nella trappola dell’antropomorfizzazione.
Past Vice President Ordine Psicologi Piemonte
Psicologo del lavoro e delle organizzazioni
Specialista in Psicoterapia
Esperto in Ipnosi Evidence Based
REB HP Register for Evidence-Based Hypnotherapy & Psychotherapy
APA Members - American Psychological Association
ABCT Member Association for Behavioral and Cognitive Therapies
AAvPA Members - Australian Aviation Psychology Association