Colletiva logo CGIL logo
Colletiva logo CGIL logo

Capitalismo

Il paradigma dell'economia dei dati

Foto: Markus Spiske da Pexels
Sergio Bellucci
  • a
  • a
  • a

L'informazione è un fattore produttivo diverso da qualsiasi altra merce finora prodotta. Le teorie rivoluzionarie dell'economista Paul Romer. Da allora l'innovazione viene collocata all'interno della teoria della crescita. Il suo impatto, infatti, è prevedibile e non casuale

I paradigmi sono strutture potenti. Costruiscono il quadro di consapevolezze socialmente distribuite e consentono di “abitare” il mondo attraverso schemi condivisi (anche quando avversati nei loro esiti interni). Talvolta nella storia, però, le conoscenze che si accumulano lievitano in direzioni che sono “inspiegabili” all’interno del paradigma imperante. La maggioranza ignora questi “fatti marginali” e prosegue nell’abitare il vecchio mondo con le stesse “letture”. Alcuni si lanciano contro le novità che emergono affermando “che sono contrarie alla vita e alla cultura”, come ci predisse il Pierre Levy che nel ’90 dispiegava la sua lettura sulla società della rete che stava emergendo. Sono i più accaniti “conservatori” dell’ordine che sta crollando e tra questi possiamo trovare sia quelli in totale sintonia con gli esiti che il paradigma aveva prodotto, sia una parte di dissidenti che immaginavano che il paradigma potesse sfociare in un equilibrio diverso e mai raggiunto.

Esistono, poi, i “curiosi” che non si accontentano della lettura dei processi che il vecchio paradigma in campo produce e riproduce. Provano a immaginare nuovi schemi, potenzialità inedite che l’emersione del nuovo determina, connessioni inesplorate che si possono dischiudere con una lettura diversa dei “fatti”. Sono gli innovatori che rompono il paradigma e producono un quadro di comprensione nuovo che “amplia e include” il vecchio quadro ma dice delle cose sulle novità che il vecchio paradigma non poteva dire. Per dirla con Machiavelli si può stare con il Principe (il paradigma esistente) o contro il Principe (e lottare per un paradigma diverso). In mezzo non esiste spazio, la politica non consente vuoti.

Possiamo fare un parallelo di rottura di un paradigma esistente dicendo che i dati rappresentano, per il mondo economico, quello che la luce rappresentò per la fisica alla fine dell’Ottocento. Al tempo, infatti, il mondo della fisica riteneva di aver inscatolato tutta la realtà all’interno delle sue teorie. Tutto funzionava “meccanicamente” e tutto, sotto il rigido controllo delle apparecchiature dei laboratori, appariva “tornare” nei calcoli degli scienziati. Alla Royal Society of London for Improving Natural Knowledge, la più antica società scientifica nazionale al mondo, all’inizio del Novecento si discuteva molto su quello che potremmo chiamare, imitando Fukuyama, “La Fine della Scienza”, l’era in cui la conoscenza “finale” del mondo avrebbe consentito all’uomo di “calcolare tutto”, “prevedere ogni cosa”, programmare le infinite “invenzioni” capaci di mettere l’uomo al centro della vita sul pianeta. Tutto pareva tornare “perfettamente” e ogni cosa aveva il proprio posto. L’impalcatura e gli scaffali erano tutti “perfetti”.

Poi accadde qualcosa di imprevisto.

Era il 1887 e due fisici americani Albert Abraham Michelson e Edward Morley, in uno scantinato messo a disposizione dal Morley effettuarono un esperimento (noto come l’esperimento Michelson-Morley) e dimostrarono l'indipendenza dellavelocità della luce rispetto all'ipotetico vento d'etere. Quell’esperimento rappresentò la prima forte prova contro la teoria dell'etereluminifero ed è considerato, a buona ragione, uno dei più famosi e importanti esperimenti della storia della fisica poiché aprì alla possibilità di innescare le domande giuste che portarono Albert Einstein a formulare la teoria della Relatività e, di conseguenza, la rivoluzione della Meccanica Quantistica.

I dati, in economia, sono stati e restano sottovalutati esattamente come era stata la velocità della luce. C’è un motivo storico-sociale per questo impasse teorico. Per millenni, infatti, i dati necessari alla produzione erano, sostanzialmente, riposti all’interno del sapere sociale o, per meglio dire, nel “lavoro vivo”. Le conoscenze necessarie a “immaginare” un prodotto e le conoscenze necessarie a realizzarlo, erano depositate negli uomini. Uomo e conoscenza erano un “soggetto unico”, una entità “inscindibile”. La conoscenza e “l’atto produttivo” erano connesse nella fisicità delle persone. L’apporto necessario alla produzione di una merce era strettamente umano non in senso lato ma proprio depositate nel singolo individuo.

Poi arrivò il capitale.

La grande rottura del capitale è rappresentata dai processi di sussunzione che Marx descrive: quella “formale” (il processo di “contrattualizzazione” del tipo di apporto che l’individuo deve dare al ciclo produttivo) e quella “reale” (la capacità del capitale di “estrarre” la conoscenza dal lavoro salariato e trasformarla in “capitale fisso” - la macchina). Per circa un secolo e mezzo il mondo del lavoro ha contrattato (e spesso molto bene) la prima parte della sussunzione, quella formale. Abbiamo strappato conquiste nella contrattazione del “plusvalore assoluto” e di quello “relativo”, conquistando salario - diretto e indiretto -, ritmi, tempi, forme del comando, ecc. Nulla o poco più abbiamo fatto nel processo di “sussunzione reale”, lasciando al capitale mano libera sulla sua capacità di introiettare il “saper fare” umano. Tutto questo ebbe una importanza “relativa” nella grande fase di espansione capitalistica e aiutò nel meccanismo della sua sottovalutazione.

La cosiddetta “ricorsività tecnologica” (la narrazione che ad ogni posto di lavoro che si “disumanizzava”, divenendo una macchina, se ne generavano due nella produzione di quella macchina che sostituiva la persona) rappresentò un grande abbaglio prodotto dal vorticoso sviluppo capitalistico e “confortato” da numeri che sembravano tornare al vaglio degli strumenti degli economisti. Come nell’Ottocento per la misurazione delle velocità lontane da quelle della luce, tutto sembrava “quadrare” mentre, in realtà, iniziava a cambiare a mano a mano che i dati, l’informazione, assumevano un ruolo crescente nel flusso produttivo e di consumo. Analogamente a ciò che accadde alla fisica, quando iniziò a misurarsi con la velocità della luce e scoprendo che le vecchie equazioni funzionavano “fino a…”, cioè erano delle approssimazioni, le leggi economiche iniziarono a non reggere al vaglio della “realtà”. Servivano correzioni poiché le “informazioni necessarie a produrre” divenivano una entità a sé, un elemento del ciclo produttivo che assumeva una sua “autonomia” e andava introdotto nelle “equazioni” degli economisti.

Paul Romer, alla fine degli anni Ottanta del Novecento, propose delle innovazioni nella comprensione del ciclo economico che tentavano di analizzare le novità che erano emerse e che gli economisti “ignoravano” o “non vedevano”, un po’ come i fisici che continuavano a misurare la velocità dei treni e confermavano la giustezza della Legge di Newton. L’innovazione consisteva nel considerare l’informazione come le “istruzioni per realizzare una merce” e che, quell’informazione, rappresentava un “elemento” del processo produttivo ed economico. Consideriamo, inoltre, che a quel tempo l’automazione nella gestione dell’informazione era praticamente un fattore irrisorio.

La proposta di Paul Romer affossò il modello economico che era assunto sulla previsione del tasso di crescita basato sui fattori del risparmio, produttività, crescita della popolazione. Nei loro modelli il fattore tecnologico era considerato “esogeno” e dunque, in quanto “esterno”, irrilevante per loro equazione. Romer ribaltò tutta l'argomentazione dimostrando che l'innovazione, essendo trainata da forze di mercato, non deve essere trattata come un elemento accidentale o esterno alla crescita economica, ma come una sua parte intrinseca, “endogena”. L'innovazione, quindi, andava collocata all'interno della teoria della crescita: il suo impatto, infatti, è prevedibile e non casuale.

Questa tesi, come nel caso dell’esperimento di Michelson-Morley, apriva uno squarcio non più ricucibile nell’impianto della comprensione di ciò che realmente stava accadendo nell’economia e nella produzione e che la rivoluzione digitale avrebbe portato alle estreme conseguenze. Romer, oltre a supportare la sua proposta con un'analisi algebricamente impeccabile del capitalismo in generale, propose una lettura sulla novità del sistema economico che avrebbe avuto implicazioni “rivoluzionarie”, definendo il “progresso tecnico” come il “miglioramento delle istruzioni per mescolare le materie prime”. La sua rottura separava le cose dalle idee, cioè dalle “istruzioni”. Per l’economista, che per questa innovazione ha ricevuto nel 2018 il Premio Nobel, l'informazione è come un modello utile per creare qualcosa e questo vale, allo stesso modo sia per le merci materiali, sia per il mondo digitale. Questo portò l'economista a delle conclusioni che oggi dovrebbero apparire “ovvie” ma che spesso non lo sono, e cioè “che le istruzioni per lavorare con le materie prime sono intrinsecamente diverse dagli altri beni economici”. L'informazione è un fattore produttivo diverso da qualsiasi altra merce finora prodotta.

È su questa base che provai a proporre, dal 1998 con alcuni articoli e saggi, l’impatto di tali novità sull’organizzazione del lavoro, con la proposta del taylorismo digitale, dell’avvento del lavoro implicito e sulle necessità di nuove forme di contrattazione e nuovi campi di rivendicazione sociale e politica.