Un testo, come dicevamo, lungo e articolato che però ha il pregio dell'estrema chiarezza, per cui noi, che economisti non siamo, ne consigliamo semplicemente la lettura.
da https://jacobinitalia.it/la-poverta-dei-nobel-per-leconomia/

L’assegnazione del premio Nobel per
l’economia di quest’anno appare come un tassello da cortocircuito nel dibattito
sulla scienza economica come disciplina accademica. Il titolo è stato
attribuito a tre economisti che si occupano di sviluppo (development
economics): Abhijit Banerjee, Ester Duflo e Michael Kremer. Premiati per il loro
«approccio sperimentale che ha
trasformato l’economia dello sviluppo, un campo di ricerca sulle cause della
povertà globale e i modi migliori per combatterla».
Secondo i meno attenti, finalmente
l’accento è stato posto sui soggetti più colpiti e svantaggiati dal sistema
capitalistico in linea con gli Obiettivi di Sviluppo del Millennio delle Nazioni Unite. Tuttavia, spostando
l’attenzione dal dito alla luna, la scelta dell’Accademia Reale Svedese non fa
che blindare le proprie scelte dentro un ben definito perimetro teorico,
attraverso il riconoscimento del premio a economisti che affrontano il tema
della povertà su solide basi empiriche, sui fatti e su come misurarli, e non
invece per mezzo di mezzi fallimentari dettati da «ignoranza, ideologia e inerzia»
.
I tre, infatti, sono tra i
principali esponenti dell’approccio sperimentale come metodo di studio e di
analisi nelle scienze sociali che consiste in un’analisi micro-econometrica del
comportamento degli individui sottoposti a programmi. Il fulcro di
quest’approccio risiede nel tentativo di riprodurre un esperimento da
laboratorio in grado di isolare la discrezionalità dello
«scienziato-economista» dalle vere cause di un fenomeno o come in realtà è in molti
dei casi, l’efficacia o meno di alcuni programmi di intervento.
Significa mettere un bollino verde
su microinterventi che possono aiutare singoli o famiglie a sottrarsi alla
morsa della povertà. Questa è la lotta alla povertà globale per cui viene attribuito
il premio Nobel. Ma partiamo dai fatti sulla povertà globale.
Usando come linea di povertà $7,40 dollari al giorno,
cioè il minimo per garantire un livello nutrizionale dignitoso e una speranza
di vita «normale», secondo i dati della Banca Mondiale, nel 2015 la povertà
morde la carne viva del 56% della popolazione mondiale, 4,115 miliardi di
individui. Erano 3,183 miliardi nel 1991 (il 70%) della popolazione mondiale.
Il numero di poveri è aumentato non diminuito, sebbene sia aumentato meno
rispetto a quanto sia cresciuta la popolazione mondiale. Ma dov’è che è
diminuita la povertà? Principalmente nel Sud Est Asiatico e nello specifico in
Cina dove l’incidenza della povertà – misurata sui 7,4 dollari al giorno –
passa dal 99% del 1981 al 43% del 2015: escono da questa condizione circa un
miliardo di individui. In che modo i fatti, quelli grandi che muovono la storia
e il progresso sociale possono essere spiegati con microesperimenti che nella
migliore delle ipotesi si basano su appena qualche migliaio di individui?
Nessuno. La storia recente della Cina mette in luce come non sia il mercato, le
politiche neoliberiste o il progresso tecnico lasciato a sé stesso a smuovere
le condizioni materiali di centinaia di milioni di cittadini: ma un’idea ben
precisa, dei programmi pubblici su scala enorme, un’economia fortemente
regolata e sovrana, nonché una politica economica fondata su una politica
industriale di medio-lungo periodo.
I randomisti
Sono questi i fatti che vanno
comparati all’approccio dei neo premi Nobel per l’economia e il loro metodo
empirico: gli esperimenti aleatori controllati. Per capire meglio di cosa si
tratti è possibile immaginare un semplice esempio di come funziona un
esperimento aleatorio controllato. Un preside pensa che utilizzare maggiori
strumenti interattivi possa facilitare l’apprendimento e il rendimento
scolastico dei suoi alunni e per testare questa ipotesi decide di spendere
parte del budget scolastico in questi strumenti da destinare ad alcune classi
pilota. Queste classi sono scelte in maniera completamente aleatoria così da
escludere la possibilità che gli studenti possano scegliere di partecipare al
progetto creando un effetto selezione che comprometta la valutazione
causale dell’intervento. Da questa randomizzazione si generano due gruppi: gli
assegnati alle classi sperimentali (i «trattati») e chi segue un metodo
d’insegnamento tradizionale (i «controlli»). Dalla comparazione dei risultati
medi delle due differenti classi si ricaverà un giudizio sull’efficacia
dell’intervento del preside e, quindi, una valutazione sulla necessità o meno
di questo investimento.
La critica metodologica
Tuttavia, questo approccio presenta
alcune criticità che sono illustrate tra gli altri da economisti ed
econometrici come James Heckman.
Tra le principali vi è il problema di generalizzazione (o validità esterna, in
gergo tecnico). Facendo riferimento all’esempio riportato, è lecito aspettarsi
che l’effetto ottenuto con queste classi-pilota, sia diverso in intensità o
addirittura opposto utilizzando scuole diverse o addirittura classi diverse,
figuriamoci se applicato a una società con istituzioni scolastiche diverse. Per
evitare questo problema, appunto, sono necessari ripetuti esperimenti dello
stesso tipo per verificare la consistenza dei risultati. Ma non ci sarà mai un
esperimento identico a un altro, soprattutto in contesti differenti
È altrettanto possibile che non
tutti gli alunni di quella classe seguano completamente il programma: periodi
di assenza, scarsa attenzione, inutilizzo dei nuovi strumenti, ecc. Problema
questo che accentua anche la già presente eterogeneità degli alunni oggetto di
studio e che rappresenta un’ulteriore minaccia alla stima causale
dell’efficacia del programma scolastico.
Inoltre, si possono generare anche
delle esternalità positive che alterano l’effetto reale del nuovo metodo
didattico in questione: è possibile immaginare che tra le varie classi,
soggette e non all’esperimento, ci si scambino informazioni, appunti,
materiali, che possono far sì che anche gli alunni all’interno delle classi tradizionali
beneficino del nuovo programma.
Ulteriore problema è quello noto
come effetto Hawthorne ed
effetto John Henry. Il
primo, nell’esempio riportato, consiste nel fatto che gli alunni cambino
atteggiamento in classe e attitudine allo studio come risposta al fatto di
essere parte di un esperimento. Sapendo di essere «sotto osservazione» possono
automaticamente porre maggior impegno. L’effetto Henry è simile, ma dal lato di
chi non fa parte dell’esperimento: sentendosi esclusi e/o penalizzati, gli
altri alunni possono aumentare il proprio impegno per imitare e raggiungere gli
stessi risultati delle classi pilota.
Martin Ravallion nella
critica all’approccio sperimentale aggiunge un altro elemento rilevante:
l’etica. Se da sempre l’uomo si deve confrontare con il concetto di bene e
male, allora è lecito ritenere che in economia, e soprattutto nel
welfarismo/utilitarismo, il giudizio etico sui mezzi non siano rilevanti, ciò
che conta è il fine. Insomma, se gli strumenti possono essere non-etici non è
fonte di preoccupazione a condizione che questi siano utili ad aggiungere nuova
conoscenza. È eticamente giusto sottrarre persone ugualmente povere da un
progetto di aiuto e lotta alla povertà solo per il gusto di un esperimento? No,
quando la lotta concreta alla povertà prescinde dall’utilizzo di un approccio
micro-econometrico.
Se quelli evidenziati da Heckman e
altri solo i limiti tecnici ed etici più evidenti, essi non sono né gli unici
ma neppure i più profondi.
La critica teorica: una questione di egemonia
Innanzitutto, l’approccio randomista
interviene direttamente sul senso della disciplina economica non più
considerata scienza sociale, ma scienza dura, capace di affermare il legame
diretto, deterministico e incontrovertibile tra fatti economici misurati con un
determinato approccio e tra individui. Un risultato diventa allora
scientificamente valido se e solo se esso è frutto di un esperimento aleatorio
o qualcosa di molto simile in grado di misurare tali relazioni attraverso
identificazioni precise (nel loro modo di intenderle) tra causa ed effetto. Il
neo-premio Nobel, Esther Duflo, sostiene che il loro obiettivo è stato quello di
sviluppare una metodologia affinché «la lotta alla povertà fosse basata su basi
scientifiche». Rincara la dose Michael Kremer il quale, raggiunto al telefono
per un’intervista nel giorno dell’acclamazione, dichiara che il loro lavoro
mette insieme l’indagine di questioni «pratiche, come la povertà, e il
rigore intellettuale». Niente più che arroganza, la stessa che
negli ultimi decenni ha egemonizzato larga parte dei dipartimenti di economia.
Sempre più di frequente per pubblicare sulle riviste che contano bisogna essere
in grado di mostrare la solidità della propria identificazione empirica, poco
importa quale sia la domanda di fondo a cui si prova a dare risposta. Ancora
più grave, è l’aver ridotto la ricerca economica a una disciplina che si
interroga su minuzie piuttosto che assumere come oggetto dell’analisi i
fenomeni nella loro ampiezza e complessità. Questioni come il potere, la
distribuzione del reddito e della ricchezza, i cambiamenti strutturali cioè le
dinamiche del sistema economico-politico sono ignorate, soprattutto dalle
riviste «che contano» in quella paralisi del pensiero determinata dal mantra
«publish or perish» – «pubblica o muori».
Quando non ignorate vengono derise e
addirittura accusate di «negazionismo scientifico», soprattutto se confutano i
risultati di ricerche condotte attraverso il metodo sperimentale. Così come
avvenuto in Francia, dove gli economisti Pierre Cahuc e André Zylberberg nel
libro Negazionismo economico e come sbarazzarsene (Flammarion, 2016) attaccano i
colleghi non allineati – i cosiddetti eterodossi – al pensiero dominante in
campo di politica economica e di cui disfarsi niente poco di meno che grazie al
rigore del metodo sperimentale. Goccia che fece traboccare il vaso e aprire uno
dei dibattiti più violenti degli ultimi anni fu la discussione sugli effetti
della riduzione della giornata lavorativa a 35 ore sull’occupazione. Studi
empirici ma approcci differenti, basati su esperimenti naturali, come quello di
cui abbiamo già discusso in merito agli effetti del salario minimo.
Ma il nocciolo della questione rimaneva essenzialmente il diritto al pluralismo
in economia, teorico e metodologico, contro cui Jean Tirole, altro premio
Nobel, si scagliò in una lettera niente poco di meno che all’allora Minsitro
dell’Università e della Ricerca, additando il pluralismo come relativismo e «anticamera dell’oscurantismo».
Il dibattito investì la Francia intera, quotidiani, associazioni di economisti,
Ministero dell’Università e della Ricerca e diede vita a un contro pamphlet
– Misère du scientisme en économie (Edition du Croquant, 2017) – in cui
il gruppo degli Economistes Atterrées e l’Associazione Francese di Economia
Politica smentirono capoverso dopo capoverso le tesi di Cahuc e Zylberberg. Ci
si potrebbe fermare qui e osservare la vivacità francese, cosciente quantomeno
che è proprio sulla battaglia delle idee che si produce conoscenza, ricchezza
culturale, ma soprattutto che questo terreno di battaglia esiste e bisogna
contenderselo; cosa che invece non avviene più in Italia, salvo rare
eccezioni.
Di fronte all’intransigenza contro
approcci altrettanto validi ma alternativi, l’apparente semplicità e agilità
dello strumento metodologico degli esperimenti in quanto libero da teorie
ingombranti squarcia il velo di una continuità teorica inderogabile. Il
pensiero dominante non ammette alternative e non a caso contro queste si
scaglia agitando tutte le proprie leve di potere. Se da un lato è vero quanto
sostiene un altro premio Nobel, Angus Deaton, insieme a Nancy Catwright e
cioè che l’idea che la ricerca economica possa essere ridotta a una valutazione
empirica in assenza di teoria o basi concettuali solide è un espediente
azzardato che non può ricomporre né fornire strumenti utili allo sviluppo del
pensiero e quindi della ricerca scientifica stessa. Dall’altro bisogna non
essere ingenui e riconoscere che c’è sempre una teoria sottostante da cui
muovere i passi.
La continuità teorica
Gli esperimenti aleatori sono svolti
all’interno di un unico contesto teorico, quello per cui l’economia non è che
la risposta comportamentale degli individui (imprese, lavoratori, consumatori,
banche) che agiscono razionalmente di fronte alla scarsità di risorse, e i cui
comportamenti mutano al cambiare degli incentivi individuali. Nessun rapporto sociale,
nessun rapporto di potere, nessuna storia. Niente di più coerente con la teoria
marginalista.
Non ci si interroga sul perché
esiste la povertà come fenomeno storico-sociale, ma come l’individuo X può
uscire da questa condizione grazie a interventi mirati su di lui o la sua
famiglia. Le implicazioni teoriche e politiche sono evidenti. Infatti,
focalizzarsi su micro campioni della popolazione astraendo dai contesti
socio-economici in cui questi avvengono pare perfettamente in linea con
la scuola austriaca e
l’idea robinsoniana dell’economia, cioè lo studio dei comportamenti individuali
intesi come relazione tra il fine (massimizzazione dell’utilità, dei profitti)
e i mezzi scarsi a disposizione, rafforzata dalla più moderna teoria degli
incentivi (o mechanism design) – per la quale furono assegnati i nobel nel 2007
a Eric Maskin, Roger Myerson,
Leonid Hurwicz – che lo stesso Banerjee rivendica essere
«l’area di ricerca economica che negli ultimi decenni ha avuto maggior
successo». Di nuovo gli individui al centro del mondo: poiché il mercato
fallisce, la mano invisibile non funziona nella realtà, è opportuno indirizzare
le scelte ottimali dei singoli attraverso meccanismi incentivanti. I rapporti
sociali, le conformazioni delle classi e delle istituzioni, il grado di
democratizzazione dell’economia nonché il tipo di politiche economiche attuate
non sono neutrali allo studio della povertà. In questo senso, la critica del
welfarismo/utilitarismo del più datato premio Nobel (1998) Amartya Sen, pare
cogliere parte di questi aspetti. Secondo Sen focalizzarsi sulle funzioni di
utilità dell’individuo genera continuamente delle misure che penalizzano proprio
gli individui che si cerca di studiare per proporre programmi efficaci perché
l’attenzione al reddito individuale esclude le altre fonti di eterogeneità. Per
questo egli propone che qualsiasi giudizio di povertà e standard di vita «non
debbano essere basati su beni, caratteristiche o utilità, ma su qualcosa che
può essere chiamata abilità delle persone». Sen per spiegare il concetto
utilizza l’esempio della bicicletta: «è chiaramente un bene materiale, ma
concentrandoci sulla sua funzionalità, questa garantisce lo spostamento di una
persona. La bicicletta, quindi, fornisce alla persona un’abilità di spostamento
che altrimenti non avrebbe». Tuttavia, gli individui non hanno libero accesso
allo stesso insieme di possibili abilità per motivi di differenze sociali ed
economiche. Seguendo l’esempio della bicicletta, non tutti gli individui
possono avere accesso al bene materiale che incorpora la funzione di mezzo di
trasporto e, di conseguenza, non tutti gli individui possono acquisire
l’abilità di spostamento. In questo senso, le condizioni storiche, politiche e
sociali possono rientrare nella definizione di Sen, a differenza dell’approccio
micro-econometrico dei neo-premi Nobel.
Questo significa che la pretesa di
razionalizzare le decisioni individuali del soggetto povero fallisce dinanzi
l’esclusione di fattori sociali e istituzionali per natura dinamici e basati
sui rapporti sociali, in cui la presunta libertà individuale garantita
dal mercato nei fatti non esiste. L’approccio randomista,
semplicemente, dà ragione a Margaret Thatcher quando
stigmatizzava proprio i più poveri affermando che «non esiste una società,
esistono individui, uomini, donne e famiglie. Per questo i governi non devono
intervenire sennonché tramite gli individui stessi e le persone devono prima
guardare sé stesse”.
Del resto, focalizzarsi sullo studio
della povertà in questi termini e analizzando specifici programmi a livello
locale e individuale, significa dar credito alla teoria neoliberale del
Welfare: targetizzare gli interventi dello Stato esclusivamente ai più
bisognosi, così da ridurre l’ingerenza dello Stato e della spesa
pubblica.
Teoria criticata da Walter Korpi e Joakim Palme con
il paradosso della redistribuzione: più uno Stato cerca di targetizzare
il suo intervento con trasferimenti ai più poveri e meno efficace è la spinta
egualitaria e l’eradicazione della povertà. L’approccio metodologico di Abhijit
Banerjee, Esther Duflo e Michael Kremer sembra proprio generare e alimentare
questo paradosso aiutando la valutazione e formazione di politiche pubbliche
sempre più micro-fondate e escludenti.
Povertà è scelta politica
Jason Hickel afferma che la povertà
è una scelta politica e Alberto Cimadamore Gabriele
Koehler e Thomas Pogge lo seguono affermando che uno dei
principali motivi per il quale il primo dei Millenium
Development Goals, –
eliminare fame e povertà – è fallito, è il rifiuto da parte delle Nazioni Unite
e dei governi nazionali di contrastare ed eliminare quelle politiche economiche
che di fatto la povertà la creano. Hickel aggiunge che la struttura
dell’attuale economia globale è intrinsecamente iniqua e preclude la
possibilità concreta di eradicare la povertà. L’idea di Hickel per cui la
povertà è una scelta politica si basa su quella che Marx chiamava «legge di
centralizzazione del capitale». In un mercato globale dove i Paesi poco
sviluppati e con capitali individuali atomizzati e irrilevanti in rapporto ai
capitali dei Paesi avanzati, sono assorbiti e appunto centralizzati dai
capitali maggiori. Non è una questione di complementarità tra le capacità dei
lavoratori, come invece sostiene la teoria O-Ring sviluppata
proprio da Michael Kremer nel 1993 per cui i Paesi occidentali sono più
produttivi perché producono beni più complessi (lo si vada a dire a tutti i
lavoratori asiatici che producono per Apple, Haway e simili); è una questione
di come funziona il capitalismo come sistema economico. Non sorprende, dunque,
che il processo di accumulazione nelle zone più povere del mondo sia
estremamente lento e il divario non si restringe, anzi aumenta. Ingenuamente
potremmo chiederci come mai i neo-nobel non si siano mai posti la semplice
domanda di studiare l’effetto sulla povertà delle delocalizzazioni produttive,
della frammentazione dei processi produttivi, delle lunghe catene del valore
globale.
In un approccio che esclude la
critica del sistema economico in essere e che anzi ne legittima le fondamenta
teoriche confermando l’idea di una società individualizzata e atomistica, il
«radicale ripensamento su come combattere la povertà globale» resta disatteso.
Lasciando ai Nobel il tempo di
comprendere la questione, sarebbe meglio che al di qua del pensiero dominante
iniziassimo a pensare seriamente al tema delle disuguaglianze: l’obiettivo
politico non può essere quello di ridurre la deprivazione materiale, bensì
sradicare i meccanismi per cui tale deprivazione rimane dietro l’angolo e al
contempo restituire giustizia sociale in tutte le sue dimensioni, dalla libertà
al potere riducendo il suo accumularsi in poche mani a discapito della
maggioranza della società.
*Marta Fana,
PhD in Economics, si occupa di mercato del lavoro. È autrice di Non è lavoro è sfruttamento (Laterza).
Luca Giangregorio PhD student in Social Sciences presso l’Università Pompeu
Fabra di Barcellona.
Nessun commento:
Posta un commento