Cosa vuol dire essere razionali? Detto con parole semplici, essere razionale significa essere ragionevole o sensato, agire cioè in modi che possano essere spiegati e giustificati sulla base di specifiche motivazioni (Mele, 2003). Questa definizione può andar bene per il linguaggio comune, ma non per quello scientifico. Un filosofo potrebbe notare che definire il concetto di razionalità facendo riferimento ad altri termini che virtualmente hanno lo stesso significato non è altro che un esercizio di tautologia. La tautologia è un errore logico, e gli errori logici sono esempi di irrazionalità. Un biologo potrebbe suggerire che il richiamo alla ragione e alle capacità di ragionamento esclude gli altri animali, le persone molto giovani e quelle molto anziane, e le persone intellettualmente disabili. Ma queste categorie possono davvero essere considerate irrazionali? È impossibile, in realtà, stabilire una linea di confine ben definita tra creature con un perfetto funzionamento (cioè, razionali) e tutti gli altri (Singer, 1993). Il biologo potrebbe anche notare che il riferimento al ragionamento solleva le controverse questioni relative alla coscienza, alla consapevolezza di sé e all’azione deliberata. Nel migliore dei casi, questi concetti possono essere temporaneamente accettati, se si segue l’idea che la saggezza popolare è più avanti della teoria scientifica; nel peggiore dei casi, possono essere considerati varianti del concetto metafisico di libero arbitrio e, quindi, non scientifici (cf. Baer, Kaufman, & Baumeister, 2008). Perché mai qualcuno costruirebbe una definizione di razionalità su un terreno così fragile?
L’opinione dei psicologi si articola in tre ampie categorie. Alcuni psicologi trovano noioso il concetto di razionalità e preferiscono dedicarsi allo studio del comportamento e dell’esperienza. Altri si trovano a proprio agio con assunti presi a prestito dalla psicologia popolare (ad es., i concetti di intenzionalità, azione deliberata o responsabilità) e studiano come il comportamento e l’esperienza rispondano a tali assunti. Altri ancora richiedono criteri oggettivi di razionalità che eludano la questione di come le persone ragionano quando preparano una risposta.
Attualmente, in psicologia, i modelli che postulano l’esistenza di sistemi di pensiero duali sono d’obbligo. Un sistema (“Sistema 1”) comprende i processi di pensiero intuitivi, veloci, e in larga parte inconsapevoli, mentre l’altro sistema (“Sistema 2”) comprende i processi basati su regole logiche, lenti e, almeno in parte, consapevoli (Evans, 2008). A volte viene suggerito che il Sistema 2 è la sede della razionalità, mentre il Sistema 1, condiviso con gli altri animali, è primitivo e inaffidabile. Tuttavia, sembra che anche quelli che sostengono questo approccio non ci credano veramente. Crederci significherebbe regredire ad un modello di razionalità che pianta la sua bandiera sulla vetta di una ragionevolezza soggettivamente esperita.
La corrispondenza: la credenza che riflette la realtà
I criteri di razionalità suggeriti dagli psicologi che appartengono al terzo gruppo non fanno alcun riferimento alla consapevolezza e ai concetti ad essa associati. Un criterio è quello della “corrispondenza” (Hastie & Rasinski, 1987). Un giudizio è razionale se corrisponde ad un valore di verità stabilito indipendentemente o all’ipotesi più vicina alla realtà. È razionale dire che 2 + 2 = 4. Contando (ad es., fagioli o teste) possiamo facilmente stabilire che 5 non è la risposta corretta. Una domanda più difficile è “Qual è la lunghezza dell’equatore?” la risposta in questo caso non può venire dall’esperienza; si ottiene da studi precedenti e comporta il fatto di affidarsi a fonti competenti. Non tutti sanno la risposta corretta (circa. 40000 km), ma quelli che la sanno “segnano un punto” sia per la conoscenza che per la razionalità; i due aspetti vengono, in altre parole, confusi.
A meno che un giudizio non sia pienamente azzeccato, la domanda è “Quanto è lontano?” Quanto è grande l’errore dipende dal contesto. Ad esempio, sovrastimare di 5 unità il numero di fagioli contenuti in una mano è un errore più grave che sovrastimare la circonferenza della Terra di 5 km. Quando c’è un sistema di misura con un valore minimo e un valore massimo, ci si può chiedere quanto grande sia l’errore in relazione al massimo errore possibile (Jussim, Stevens, & Salib, 2011). Immaginate di dover indovinare qual è la radice cubica di 2197. È improbabile che arriviate alla risposta corretta (13) senza l’aiuto di un supporto meccanico o elettronico. Allo stesso modo, voi, come molti altri, probabilmente non sapete che la lunghezza dell’equatore moltiplicata per 9.6 corrisponde (in media) alla distanza dalla luna.
Questi problemi ci dicono poco sulla razionalità perché il nostro sistema psicologico non è equipaggiato per affrontarli. La razionalità varia in funzione sia di quanto la nostra mente è acuta sia della difficoltà del problema (Simon, 1990). Ogni giudizio o errore individuale ci dice tanto del primo quanto del secondo aspetto. Le inferenze sulla razionalità della persona o sulla difficoltà del compito si confondono le une con le altre. Per risolvere questo problema, un approccio di ricerca può essere quello di mantenere costante la difficoltà del compito, preferibilmente ad un livello intermedio, e di misurare le differenze individuali nella prestazione. Un approccio più completo è quello di studiare come il tipo di compito e la strategia di pensiero interagiscono per produrre una corrispondenza tra giudizio e criterio (cioè, la verità; Gigerenzer, 2008).
La corrispondenza viene misurata come un’associazione statistica tra giudizio e criterio in una serie di compiti. Per esempio, in uno studio di psicologia sulla percezione del rischio, si può chiedere alle persone di ordinare le cause di morte in base alla loro frequenza, e queste classificazioni possono essere confrontate con le percentuali effettive di mortalità (Lichtenstein, Slovic, Fischhoff, Layman, & Combs, 1978). Se l’associazione tra giudizio e realtà è perfetta, cioè se il coefficiente di correlazione è uno, la corrispondenza è perfetta. Lo standard da battere è una correlazione di 0, che significa che non c’è alcuna relazione tra giudizio e realtà. Questo standard ha due implicazioni. Primo, per segnare un punto a favore della razionalità, è sufficiente dimostrare che la corrispondenza è migliore di quanto uno si sarebbe aspettato se la risposta fosse stata data a caso. Ricordate che si ha l’opposto quando il giudizio e i criteri sono confrontati in un compito individuale. In questo caso, l’evidenza è contraria alla razionalità se la differenza è significativamente maggiore di zero, cioè, se si trova un errore (Krueger & Funder, 2004). Secondo, la corrispondenza è raramente perfetta, il che significa che c’è regressione statistica (Fiedler & Krueger, 2011). Quando i giudizi (relativi, ad esempio, alla propria abilità) sono molto elevati, i corrispondenti valori di criterio è probabile che siano bassi. Ad esempio, una persona che è sicura in grado massimo della propria abilità, molto probabilmente la sta sovrastimando. Al contrario, una persona che vale molto probabilmente sottostimerà le proprie capacità. Questi errori di sovra- e sottostima sono necessarie conseguenze della regressione statistica. Non ci rivelano nulla relativamente a come la mente lavori.
Un’implicazione ulteriore del concetto di corrispondenza applicato alla razionalità è che una correlazione perfetta non è necessariamente desiderabile. Le correlazioni possono facilmente avvicinarsi alla perfezione se il modello viene adattato a dati raccolti in passato. La razionalità, tuttavia, non è un adattamento a dati del passato ma una previsione orientata al futuro (Hertwig & Herzog, 2009). Questa strategia accetta l’errore al fine di fare meno errori, per usare una frase memorabile di Hillel Einhorn (1986).
Un’interessante variante di irrazionalità basata sulla corrispondenza è la tendenza all’iper-identificazione di schemi. Gli esseri umani hanno la squisita capacità di estrarre schemi dal disordine. Possiamo leggere un testo anche se sbavato, e possiamo capire cosa ci sta dicendo un amico anche nel fracasso di una festa. L’aspetto negativo di questa abilità di filtrare è che spesso vediamo schemi anche dove non esistono. Nel 1976, Viking 1 fotografò una formazione rocciosa su Marte che rassomigliava ad un volto. Alcuni entusiasti subito ipotizzarono che qualche civiltà aliena avesse scolpito la roccia. Varrebbe la pena chiedersi perché gli alieni lo avrebbero fatto e perché avrebbero voluto che il volto sembrasse umano. Passando ad una vicenda più triste, molti londinesi nel 1940 pensarono che l’aviazione tedesca stesse bombardando la città seguendo un piano premeditato, facendoli confluire in aree che loro erroneamente ritenevano sicure (Gilovich, 1991). Le forze di erosione (su Marte) e la casualità (a Londra) era tutto ciò che c’era.
Se dovessimo concentraci solo sul falso riconoscimento di schemi non esistenti, potremmo pensare che le persone sono completamente svitate. Tuttavia, dalla più ampia prospettiva della teoria della decisione, questi falsi allarmi (false alarms) sono visti congiuntamente ai molti successi (come il fatto di riuscire a leggere cosa è scritto sulla sabbia anche dopo che il vento ha iniziato a soffiare). I falsi allarmi sono accettabili se sono meno costosi delle risposte mancate (misses) (Haselton et al., 2009; Swets, Dawes, & Monahan, 2000). I casanova e gli psicologi evoluzionisti lo sanno bene. Corteggiano molte donne e tollerano molti rifiuti cercando così di minimizzare le opportunità mancate. Un fenomeno collegato sono le credenze in agenti sovrannaturali come gli dei o i demoni (Boyer, 2001) e le teorie della cospirazione (Krueger, 2010). In questi casi, le persone vedono schemi di azione intenzionali e razionalità dove non esistono.
Coerenza: Essere liberi dalla contraddizione
Un altro criterio di razionalità è la coerenza. I giudizi razionali non devono violare gli assiomi delineati dalle teorie formali della decisione (cf. Hastie & Dawes, 2010). Ad esempio, le preferenze, per essere coerenti, devono essere transitive. Se si preferisce A rispetto a B e B rispetto a C, si deve anche preferire A rispetto a C. Le persone a volte violano la regola della transitività quando non riescono ad usare le stesse dimensioni, nel confronto tra le diverse alternative. Un altro esempio di errore logico riguarda l’affermazione del conseguente (o vero conseguente). La proposizione “Se A, allora B” non implica “Se B, allora A.” Le persone spesso si confondono con questo tipo di implicazioni, specialmente se sono formulate in modo astratto. Un terzo esempio è dato da una legge di probabilità, che afferma che la congiunzione di due eventi non può essere più probabile di ciascun evento preso singolarmente. Le persone tendono a cadere in errore quando uno degli eventi è presentato in modo da sembrare molto probabile (Hastie & Dawes, 2010). Dopo il disastro di Fukushima, ad esempio, la gente potrebbe erroneamente credere che è più probabile che si verifichi un disastro nucleare come conseguenza di un terremoto piuttosto che si verifichi un disastro nucleare a causa di qualsiasi ragione (terremoti inclusi).
È possibile anche fare una distinzione tra preferenze contraddittorie e contraddizioni tra preferenze e comportamento. L’effetto framing rappresenta un esempio di preferenze contraddittorie. Perché tra un guadagno certo (ricevere sicuramente 100 Euro) e uno incerto (50% di probabilità di vincere 200 Euro e 50% probabilità di non vincere nulla), dovremmo preferire il primo? E perché dovremmo preferire una perdita incerta (uguale probabilità di perdere 200 Euro o di non perdere niente, dopo aver ricevuto una ricompensa di 200 Euro) ad una certa (perdere di sicuro 100 Euro)? Eppure, molte persone mostrano questo tipo di avversione al rischio quando si prospettano dei guadagni, ma tollerano il rischio quando si prospettano delle perdite (Kahneman & Tversky, 1984). Anche se ciò potrebbe sembrare irrazionale e, quindi, “cattivo,” spesso si ignora che questa inversione di preferenza non ha alcun effetto sul benessere personale. I valori attesi di ciascun esito sono gli stessi (Krueger, 2011).
Tuttavia, se c’è una contraddizione tra preferenza e comportamento, il benessere personale ne soffrirà. Le persone che agiscono in modo contrario alle proprie preferenze accettano una perdita. Fanno ciò che non vogliono e scelgono ciò che non desiderano. Considerate ad esempio l’effetto dei costi irrecuperabili (o effetto dei costi affondati) (Arkes & Blumer, 1985). Molte persone continuano a perseguire corsi d’azione che ritengono inutili. Gettano via denaro buono per cose cattive o sprecano la propria vita per guerre già perse. In questo momento, il salvataggio europeo della Grecia è un esempio del primo tipo di comportamento. I libri di storia sono pieni di esempi del secondo tipo di comportamento (ad es., il prolungato impegno degli Stati Uniti in Vietnam dopo l’offensiva del Tet; il rifiuto dei Tedeschi di arrendersi dopo la Normandia). Le persone (e le istituzioni) onorano i costi irrecuperabili in parte nel tentativo di apparire coerenti. Preferiscono la coerenza del comportamento nel corso del tempo alla coerenza tra comportamento e desideri.
La psicologia sociale della compiacenza è uno tra i più prominenti e interessanti argomenti di questo campo. Indurre le persone ad essere compiacenti significa spingerle a fare ciò che tu vuoi e non ciò che loro vogliono; si tratta quindi di una seduzione all’irrazionalità (Cialdini, 2001). La teoria della dissonanza cognitiva ci offre un esempio particolarmente interessante. In un paradigma sperimentale, i partecipanti sono spinti a fare qualcosa che non vogliono fare, come dire una bugia senza ricevere un’appropriata ricompensa (Festinger & Carlsmith, 1959). Oltre ad essere immorale, questa bugia è irrazionale perché contraddice sia la preferenza per la verità che la preferenza per il fatto di essere almeno pagati per aver fatto qualcosa di immorale. Il risultato principale, tuttavia, riguarda il cambiamento delle credenze dopo la bugia. Nello studio di Festinger e Carlsmith, i partecipanti che non ricevevano una ricompensa adeguata arrivavano a credere di non aver affatto mentito. Questo cambiamento di atteggiamento, che costituisce una riduzione della dissonanza cognitiva, può anche essere visto come irrazionale. Al contrario, si potrebbe argomentare che ciò che è accaduto non è una “razionalizzazione” del proprio comportamento, ma un vero e proprio recupero di razionalità. Dopo tutto, il cambiamento di atteggiamento elimina la contraddizione tra atteggiamento e comportamento.
La prospettiva che vede la razionalità come coerenza si fonda sull’assunto che vi sia un’agente o io unitario che si preoccupa di essere coerente. Una volta che questo assunto è indebolito, l’argomento della coerenza perde forza. L’idea di unità mentale è stata a lungo messa in dubbio. Da Eraclito a Montaigne a Whitman, grandi autori hanno proposto concezioni della mente senza assumerne l’unitarietà. La teoria del sé di William James (1890) è eraclitea nella misura in cui enfatizza la fluidità. Kurzban (2010) ha recentemente proposto una teoria modulare della mente che apre il terreno a sé multipli e quindi ad una minor necessità di coerenza. Ci si potrebbe chiedere se il tradizionale accento sulla coerenza non sia altro che un mezzo per alimentare l’illusione di un io indivisibile.
Razionalità e Responsabilità Sociale
Sebbene sia possibile attribuire un valore alla razionalità di per sé, è più semplice valutarla positivamente se si crede che sia associata alla moralità e alla responsabilità sociale. L’idea che razionalità e moralità vadano di pari passo ha una lunga tradizione nel pensiero occidentale. Può essere fatta risalire al filosofo greco Platone fino ad arrivare allo psicologo americano Robyn Dawes1. Tuttavia, questa idea ha dei limiti. Ritornando all’osservazione di Simon che molto dipende dalla natura del compito, è possibile considerare esempi in cui razionalità e moralità sono negativamente associate, positivamente associate o non associate.
Nei dilemmi sociali (o giochi), spesso si assume che razionalità e moralità siano in opposizione tra loro. Una persona (o “giocatore”) deve scegliere tra essere morale o razionale. Non può essere entrambe le cose. Consideriamo il dilemma del prigioniero. In questa situazione, una persona che coopera è considerata carina ma ingenua, una persona che non coopera è considerata intelligente ma avara (Krueger & Acevedo, 2007). In contrasto, alcune teorie della percezione sociale trattano razionalità e moralità come aspetti di due ampi e indipendenti insiemi di tratti. Questi modelli a due fattori operano una classificazione degli individui in quattro tipi, di cui uno – quello sia razionale che morale – è sicuramente il più desiderabile (Cuddy, Fiske, & Glick, 2008). Infine, una vera corrispondenza tra razionalità e moralità è possibile in certe circostanze. Il classico “problema dei punti,” descritto da Paccioli nel 1494, è un esempio. In questo gioco di probabilità, A e B hanno ciascuno una probabilità di .5 di vincere un turno. Il primo che segna 6 punti vince l’intera partita. Il gioco viene interrotto quando A ha vinto 5 turni e B ne ha vinti 3. Come dovrebbero dividersi la posta in gioco? La soluzione razionale è quella di calcolare la probabilità che il giocatore in testa finisse per primo il gioco se questo continuasse, e dividere il denaro di conseguenza. La soluzione è razionale perché evita contraddizioni, ed è, per questa ragione, giusta (Krueger, 2000).
Conclusione
Questa breve rassegna attraverso le concezioni moderne di razionalità suggerisce che il concetto di razionalità è ben lontano dall’essere monolitico. Vi sono molte prospettive “ragionevoli”. È fuori da ogni dubbio che una specifica prospettiva diventerà dominante in un dato momento. Rimane cruciale, per gli autori, spiegare dettagliatamente cosa intendono per razionalità e dove la collocano nell’ecologia persona-compito. Herbert Simon ha lucidamente e instancabilmente sottolineato questo punto. Simon dice che una scienza che cerchi di dimostrare che le persone sono fondamentalmente razionali o fondamentalmente irrazionali non andrà molto lontano. Da un punto di vista pragmatico, la sfida è di ampliare i domini in cui razionalità e moralità guidano insieme il comportamento.
1Un’intervista a Robyn Dawes si può trovare qui: http://www.youtube.com/watch?v=oR9YmEj9D_c
Glossario
Dissonanza cognitiva: Stato psicologico spiacevole che deriva dalla percezione di una discrepanza interna alla persona (ad es., tra un atteggiamento e un comportamento che è rilevante per quell’atteggiamento), che spinge alla sua rimozione.
Teoria della decisione: Una prospettiva sull’accuratezza, che distingue due tipi di errori (falsi positivi e risposte mancate) e due tipi di risposte corrette (successi e rifiuti corretti). La qualità di una decisione dipende dalle probabilità associate a questi quattro eventi e dal valore personale che viene loro assegnato.
Dilemma del prigioniero: Un gioco interpersonale in cui due giocatori possono cooperare o non cooperare e in cui la ricompensa di ciascun giocatore dipende dalle scelte di entrambi. Le ricompense sono ordinate in modo che la non cooperazione unilaterale è la più remunerativa, seguita dalla mutua cooperazione e dalla cooperazione unilaterale.
Regressione statistica: Un principio di base della previsione, che afferma che il valore previsto non sarà mai più estremo del valore del previsore. Il classico esempio dell’altezza intergenerazionale illustra bene questo principio. L’altezza di padri e figli è positivamente associata; padri alti tendono ad avere figli più alti, rispetto ai padri bassi. Tuttavia, i figli dei padri più alti tendono ad essere più bassi dei loro padri e i figli dei padri più bassi tendono ad essere più alti dei loro padri (Galton, 1886).
Bibliografia
Arkes, H. R., & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior and Human Performance, 35, 129-140.
Baer, J., Kaufman, J. C., & Baumeister, R. F. (2008). Are we free? Psychology and free will. New York, NY: Oxford University Press.
Boyer, P. (2001). Religion explained. New York, NY: Random House.
Cialdini, R. B. (2001). Influence: Science and practice (4th ed.). Boston, MA: Allyn & Bacon.
Cuddy, A. J. C., Fiske, S. T., & Glick, P. (2008). Warmth and competence as universal dimensions of social perception: The Stereotype Content Model and the BIAS Map. In M. P. Zanna (Ed.), Advances in Experimental Social Psychology (vol. 40, pp. 61-149). New York, NY: Academic Press.
Einhorn, H. J. (1986). Accepting error to make less error. Journal of Personality Assessment, 50, 387-395. doi:10.1207/s15327752jpa5003_8
Evans, J. St. B. T. (2008). Dual-processing accounts of reasoning, judgment, and social cognition. Annual Review of Psychology, 59, 255-278. doi:10.1146/annurev.psych.57.102904.190139
Festinger, L., & Carlsmith, J. M. (1959). Cognitive consequences of forced compliance. Journal of Abnormal and Social Psychology, 58, 203–210. doi:10.1037/h0041593
Fiedler, K., & Krueger, J. I. (2011). More than an artifact: Regression as a theoretical construct. In J. I. Krueger (Ed.). Social judgment and decision-making. New York, NY: Psychology Press.
Galton, F. (1886). Regression towards mediocrity in hereditary stature. Journal of the Anthropological Institute of Great Britain and Ireland, 15, 264–263.
Gigerenzer, G. (2008). Rationality for mortals. New York, NY: Oxford University Press.
Gilovich, T. (1991). How we know what isn’t so. New York, NY: The Free Press.
Haselton, M. G., Bryant, G. A., Wilke, A., Frederick, D. A., Galperin, A., Frankenhuis, W. E., & Moore, T. (2009). Adaptive rationality: An evolutionary perspective on cognitive bias. Social Cognition, 27, 733-763. doi:10.1521/soco.2009.27.5.733
Hastie, R., & Rasinski, K. (1987). The concept of accuracy in social judgment. In D. Bar-Tal, & A. Kruglanski (Eds.), The social psychology of knowledge (pp. 193-208). Cambridge, U.K.: Cambridge University Press.
Hastie, R., & Dawes, R. M. (2010). Rational choice in an uncertain world: The psychology of judgment and decision making (2nd edn). Thousand Oaks, CA: Sage.
Hertwig, R., & Herzog, S. M. (2009). Fast and frugal heuristics: Tools of social rationality. Social Cognition, 27, 661-698. doi:10.1521/soco.2009.27.5.661
James, W. (1890). The principles of psychology (Vol. 1). New York, NY: Holt.
Jussim, L., Stevens, S. T., & Salib, E. R. (2011). The strengths of social judgment: A review based on The Goodness of Judgment Index. In J. I. Krueger (Ed.). Social judgment and decision-making. New York, NY: Psychology Press.
Kahneman, D., & Tversky, A. (1984). Choices, values, and frames. American Psychologist, 39, 341-350. doi:10.1037/0003-066X.39.4.341
Krueger, J. (2000). Distributive judgments under uncertainty: Paccioli's game revisited. Journal of Experimental Psychology: General, 129, 546-558. doi:10.1037/0096-3445.129.4.546
Krueger, J. I. (2010). Die “Grosse Verschwörungstheorie” aus psychologischer Sicht [The “Great Conspiracy Theory” from a psychological perspective]. Zeitschrift für Anomalistik, 10, 6-16.
Krueger, J. I. (2011). The (ir)rationality project in social psychology: A review and assessment. In J. I. Krueger (Ed.). Social judgment and decision-making. New York, NY: Psychology Press.
Krueger, J. I., & Acevedo, M. (2007). Perceptions of self and other in the prisoner’s dilemma: Outcome bias and evidential reasoning. American Journal of Psychology, 120, 593-618.
Krueger, J. I., & Funder, D. C. (2004). Towards a balanced social psychology: Causes, consequences and cures for the problem-seeking approach to social behavior and cognition. Behavioral and Brain Sciences, 27, 313-376. doi:10.1111/j.1467-9221.2004.00359.
Kurzban, R. (2010). Why everyone (else) is a hypocrite. Princeton, NJ: Princeton University Press.
Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M., & Combs, B. (1978). Judged frequency of lethal events. Journal of Experimental Psychology: Human Learning and Memory, 4, 551, 578.
Mele, A. R. (2003). Motivation and agency. New York, NY: Oxford University Press.
Simon, H. A. (1990). Invariants of human behavior. Annual Review of Psychology, 41, 1-19.
Singer, P. (1993). Practical ethics. New York, NY: Cambridge University Press.
Swets, J. A., Dawes, R. M., & Monahan, J. (2000). Psychological science can improve diagnostic decisions. Psychological Science in the Public Interest, 1, 1-26. doi:10.1111/1529-1006.001.