Non so voi ma sempre più spesso ci si trova a parlare con persone che non hanno la minima competenza in una specifica materia ma utilizzano l’intelligenza artificiale (in particolare assistenti basati su intelligenza artificiale generativa come ChatGPT, Copilot, Claude, Gemini, DeepSeek, ecc.) per dimostrare che è molto banale risolvere i problemi più o meno complessi.
Questo fenomeno viene spesso descritto come una manifestazione moderna dell’effetto Dunning-Kruger, amplificato dall’uso dell’Intelligenza Artificiale.
In psicologia, questo bias cognitivo porta persone con scarse competenze in un ambito a sovrastimare la propria capacità di giudizio. L’IA agisce come un catalizzatore, offrendo risultati dall’aspetto professionale che generano una falsa percezione di padronanza (l'”illusione di competenza”), portando chi ha ruoli decisionali a sminuire la complessità di competenze tecniche che non possiede.
L’effetto Dunning-Kruger è una distorsione cognitiva per cui persone poco esperte in un campo sovrastimano le proprie abilità, ignorando la propria incompetenza a causa di un deficit metacognitivo. Studiato nel 1999 da David Dunning e Justin Kruger, evidenzia che chi sa poco crede di sapere molto, mentre i veri esperti tendono a sottostimarsi.
Illusione di competenza
L’IA fornisce risposte rapide e grammaticalmente impeccabili, che innescano un bias di conferma: chi non è esperto interpreta la fluidità del linguaggio dell’IA come prova di correttezza tecnica, ignorando le falle logiche o la mancanza di contesto che solo uno specialista saprebbe cogliere. L’incompetenza non solo porta a errori, ma impedisce di accorgersene, rendendo le persone meno competenti estremamente sicure delle proprie opinioni.
Delega del pensiero critico
Quando persone con responsabilità usano strumenti generativi per “banalizzare” il lavoro altrui, tendono a saltare la fase di supervisione critica. È il rischio della cosiddetta “automazione cieca“, in cui il processo viene validato solo perché prodotto da una macchina, portando a decisioni fragili o errate.
Percezione del valore
Esiste una tendenza a confondere l’efficienza esecutiva (fare una cosa velocemente) con la competenza strategica (sapere perché una cosa va fatta in un certo modo e quali sono i rischi nascosti). L’IA eccelle nella prima, ma non può sostituire l’esperienza necessaria per gestire le eccezioni o le implicazioni di lungo termine di un progetto.
Cosa fare se ci si trova in questa dinamica ?
La strategia più efficace è spostare il focus dal “risultato” al “processo di validazione“: chiedere sempre quali sono stati i criteri di verifica del materiale prodotto dall’IA e quali sono le competenze umane che garantiscono che quell’output sia sicuro, etico e conforme ai requisiti tecnici necessari. Spiegare che la facilità di generazione è un vantaggio per la produttività, ma che la responsabilità del risultato ricade sull’azienda. Chiedere chi risponde in caso di errori causati dall’output dell’IA non supervisionato da un esperto.
Origine dello studio
La ricerca, intitolata Unskilled and Unaware of It: How Difficulties in Recognizing One’s Own Incompetence Lead to Inflated Self-Assessments, fu ispirata da un curioso fatto di cronaca del 1995: un uomo di nome McArthur Wheeler rapinò due banche dopo essersi cosparso il viso di succo di limone, convinto erroneamente che, agendo come “inchiostro invisibile”, il succo lo avrebbe reso invisibile alle telecamere………
Fonti
Ne riporto qui sotto solo alcune da cui mi sono preso la libertà di riassumere in questo post. Se volete approfondire l’argomento basta cercare su google “AI Washing“, “effetto dunning-kruger“.
https://robertoconigliaro.it/ai-effetto-dunning-kruger-consapevolezza-metacognizione/