Pensieri lenti e veloci di Daniel Kahneman

Data pubblicazione: May 18, 2015 11:30:0 AM

Homo sapiens o homo intuitivus? Siamo sicuri di essere una specie razionale, capace di tenere a freno istinti ed emotività quando si tratta di ragionare? Il Nobel Daniel Kahneman, titolare della cattedra di psicologia a Princeton (ha ricevuto il Nobel nel 2002 per l’economia) smaschera i nostri errori di ragionamento nel saggio Pensieri lenti e veloci (Mondadori). Una mappa avvicente e meravigliosamente raccontata di come funziona il nostro cervello.

Siamo esseri razionali, fatti per seguir virtute e canoscenza, o viviamo in balia di intuizioni e presentimenti? La prima ipotesi è più lusinghiera, certo, ma la realtà è ben diversa: l’intuizione permea la maggior parte delle nostre scelte, perché è la risposta standard della mente a ciò che ci accade intorno, mentre la razionalità è pigra e si risveglia solo quando l’intuizione è in panne. A rivelarci questa imbarazzante verità è quello che il New York Times ha giudicato tra i 5 saggi più importanti del 2011: Pensieri lenti e veloci (Mondadori, pp. 548, euro 22) di Daniel Kahneman, psicologo israeliano vincitore nel 2002 del Nobel per l’economia insieme al collega Amos Tversky. I due hanno sfatato il mito principe della teoria economica classica, ossia che le persone siano perfettamente razionali e commettano errori logici solo sotto la pressione delle emozioni.

Niente di più falso per Kahneman: gli errori, invece, sono connaturati alla nostra struttura cognitiva, composta da due sistemi dotati di poteri e compiti diversi. Il primo, definito “Sistema 1” da Kahneman, è l’intuizione. Salda le nostre percezioni in una interpretazione fulminea di ciò che ci circonda, ma privilegiando la coerenza sopra ogni altro aspetto fa sì che tendiamo ad accettare come vera qualsiasi idea, fondata o meno, sia associabile a quelle che già abbiamo in mente. È quanto accade con l’effetto alone, che ci spinge a far combaciare troppo frettolosamente l’opinione complessiva su qualcuno (“quest’uomo è poco professionale”) con l’impressione nata da un dettaglio (“è venuto al colloquio di lavoro senza cravatta”). La spasmodica ricerca di coerenza del sistema 1 gli è necessaria ad aggiornare di continuo – al di fuori del nostro controllo conscio – un modello del mondo costruito associando eventi e idee che ricorrono con regolarità.

Maggiore la ricorrenza, più salde si fanno le associazioni, in particolare quelle tra cause ed effetti. E qui spuntano altri rischi per l’equilibrio delle nostre decisioni: troppo spesso applichiamo l’istintivo pensiero “causale” a problemi che invece andrebbero affrontati con il calcolo delle probabilità. Ad esempio: come mai negli Stati Uniti l’incidenza del cancro al rene è più bassa nelle contee che fanno parte degli Stati rurali del Midwest, del Sud e dell’Ovest? Nella sua fretta interpretativa, il sistema 1 ci suggerisce che la vita di campagna, genuina com’è, difenda dal cancro. Ma non è così, infatti anche le contee americane a più alta incidenza di questo male, sono quelle degli Stati rurali. La verità che sfugge al Sistema 1 è che le contee rurali hanno meno abitanti, e nei campioni statistici più piccoli i picchi positivi e negativi sono più evidenti.

Oltre a fornire risposte sbagliate, la nostra intuizione, spesso, si inventa addirittura le domande. Se un quesito è troppo difficile, il Sistema 1 ne trova un altro più facile, e risponde a quello. Se ci chiediamo “Quanto sono soddisfatto della mia vita?”, il Sistema 1 per trovare una risposta veloce trasforma il dubbio esistenziale nel più abbordabile “Come mi sento oggi?”, a cui sa rispondere in un battibaleno. Del resto sono molti gli scambi che l’intuizione opera a nostra insaputa: ad esempio quando non riusciamo a stimare la probabilità di un evento, la rimpiazziamo inconsciamente con la facilità con cui ci vengono in mente occorrenze dell’evento stesso. È un artificio (definito da Kahneman l’euristica della disponibilità) sensato dal punto di vista dell’evoluzione, perché qualcosa che è nitido nella nostra memoria è probabilmente qualcosa che si ripete spesso, ma l’effetto collaterale è gli eventi spettacolari ci sembrano più probabili di quello che sono: gli americani, per dirne una, ritengono che i tornado siano una causa di morte più micidiale rispetto all’asma, che in realtà miete 20 volte le vittime dei tornado. Su questo effetto psicologico fanno leva sia i terroristi che, all’opposto, le lotterie che promettono premi straordinari. Il guaio è che il cervello umano non è fatto per la statistica, ci ricorda Kahneman illustrandoci un altro tipo di sbaglio che anche le persone più brillanti commettono: confondere la probabilità di qualcosa con la sua rappresentatività.

Poniamo che qualcuno ci dica che “Linda ha 31 anni. È laureata in filosofia. All’università era molto impegnata contro le discriminazioni,

e ha partecipato a manifestazioni politiche” e poi ci chieda di valutare le probabilità che le seguenti descrizioni siano vere: “Linda è impiegata”, “Linda è insegnante”, “Linda è impiegata e femminista”. Kahneman ha trovato che l’89% degli studenti universitari di Stanford (e – clamorosamente - l’85% degli studenti di dottorato in scienza delle decisioni di Stanford) ritiene che “Linda è impiegata e femminista” sia più probabile di “Linda è un’impiegata”, solo perché combacia di più con la definizione iniziale. Ma dovrebbe, invece, essere ovvio il contrario: è l’affermazione più generica che può essere vera in un maggior numero di casi! Galeotta fu la fretta del Sistema 1, che non potendo fermarsi mai tende a fidarsi delle informazioni che creano poco attrito cognitivo, ossia quelle più in linea con quelle già possedute. Come far passare il falso per vero, quindi? Basta ungere un po’ le rotelle della cognizione: Kahneman ha dimostrato, ad esempio, che - a parità di contenuto - un messaggio più leggibile (magari scritto in grassetto) viene creduto da un maggior numero di lettori.

Anche la ripetizione fa miracoli di credulità, perfino quando è incompleta: chi ascolta più volte la frase “la temperatura corporea di un pollo è…”, poi crede più facilmente a falsità come “la temperatura corporea di un pollo è 90 gradi”. Se invece le informazioni sono difficili da assorbire, allora entra in gioco il Sistema 2, la nostra mente razionale, assai meno ingannabile: Shane Frederick dell’Università di Princeton ha mostrato che uno stesso problema aritmetico, se scritto in caratteri poco leggibili, causa tre volte meno errori di quando è scritto in caratteri normali. Perché si attiva l’attenzione, e la razionalità riconquista quel posto di guida che è meno suo di quanto ci piaccia pensare.

Puoi comprare il libro su Amazon

Fonti:

http://archivio.panorama.it/scienza/salute/Tra-intuizione-e-razionalita-ecco-come-funziona-il-nostro-cervello

http://it.wikipedia.org/wiki/Daniel_Kahneman