Angelo Baracca

 

Il secolo tecnologico:

scienza, tecnologia e società nel Novecento

 

 

L’ideologia della superiorità, del potere illimitato e dell’assoluta oggettività della scienza non è sempre esistita nel mondo moderno, e comunque non ha mai avuto la forza che ha assunto nel corso del XX° secolo, che ha visto di fatto il trionfo della scienza e della tecnica su tutti i piani, e nel quale gli scienziati sono divenuti i depositari del sapere, i nuovi “sacerdoti” non tanto della conoscenza, quanto dell’ideale prometeico di controllare e modificare la natura. Questa ideologia ha assunto la forza del mito – il mito del progresso e dello sviluppo – ed ha anestetizzato le coscienze, occultando naturalmente i nessi sempre più stretti tra gli sviluppi della scienza, gli interessi economici, gli orientamenti sociali.

 

Gli scienziati sono uomini come gli altri e sarebbe semplicemente inconcepibile che nel rapportarsi all'oggetto del loro studio non lo facessero con l'intenzionalità e lo spirito che deriva loro dal fatto di vivere ed operare in una data società, condividendone gli obiettivi e le inquietudini. Ma il potere che deriva loro dal loro sapere non fa di essi cittadini come gli altri: essi svolgono un ruolo particolarmente efficace nel prefigurare, orientare, rendere operanti ed efficaci le scelte concrete, le soluzioni ai problemi più sentiti del momento; siano esse soluzioni tecniche, di organizzazione del lavoro, di cicli produttivi, di concorrenza commerciale, ecc. Ne deriva il particolare ruolo di complicità che la “comunità scientifica” ha sempre svolto nei confronti del potere, e che è ripagato dalla posizione privilegiata che essa ricopre: complicità a cui l'ideologia dell'oggettività della scienza e della distinzione artificiosa tra conoscenza pura e suo uso fornisce una massiccia copertura e giustificazione.

 

La scienza non è neutra perché non esiste, e non è mai esistita, l'osservazione pura e disinteressata della natura; la natura stessa è sempre data all'uomo solo attraverso il filtro delle sue intenzioni e delle sue scelte. É in questo modo che la conoscenza scientifica, teorica e pratica, il rapporto storicamente determinato dell’uomo con la natura, come tutta la cultura, portano il marchio dei rapporti sociali nel cui ambito si sono sviluppate (Marx sosteneva che le forze produttive sono plasmate dai rapporti di produzione: una concezione purtroppo abbandonata dalla parte preponderante del "marxismo" successivo).

 

La scienza moderna è un prodotto della società capitalistica occidentale: essa ha rovesciato il presupposto che è stato alla base del sapere di grandi civiltà, e cioè il rispetto dei meccanismi e degli equilibri della natura, adottando invece un atteggiamento di controllo ed intervento sulla natura per modificarne e sfruttarne i processi e le risorse a fini di profitto. Le gravi conseguenze di un tale atteggiamento – a cui la scienza fornisce il pretesto e il supporto delle sue procedure rigorose – stanno venendo al pettine dagli ultimi decenni del secolo che si è chiuso, con la drammaticità della crisi ambientale, con gli scandalosi problemi della povertà, della fame e delle malattie, con gli effetti sempre più micidiali delle guerre scatenate per il controllo delle risorse del Pianeta. Ma l'atteggiamento generale degli scienziati non sembra cambiare, con poche eccezioni.

 

L’ideologia che supporta il “mito” della scienza viene spesso giustificata con argomenti apparentemente inconfutabili, per la loro riconosciuta “ovvietà”: la sconfitta di micidiali malattie (in prima fila, oggi, la promessa di salvarci dall’Aids), le meraviglie delle tecnologie dell’informazione e della comunicazione, e così via. Argomenti quasi scontati se ci si appiattisce su questa stessa ideologia, in un tautologico circolo vizioso: pur di rimuovere, cioè, inezie quali l’imperversare della malaria (“naturalmente” in Africa), la probabile origine dell’Aids proprio da quei laboratori tecnologicamente avanzati (se non addirittura una sua “invenzione” transgenica, come sostengono autorevoli specialisti e Premi Nobel, emarginati poi della “corporazione” scientifica), o la falcidia di vite umane in conflitti armati in cui vengono sperimentate quelle stesse tecniche raffinate, poi così benefiche per le nostre vite; mentre vengono subito rimosse sconvolgenti denunce, quali lo spaventoso ed inarrestabile aumento di turbe psichiche o di affezioni allergiche nei bambini (per non parlare ovviamente dei milioni di essi - che non fanno più neppure notizia - che muoiono di fame o malattie, o sono abbandonati nelle strade, o uccisi da squadroni della morte), il dilagare di affezioni legate alle condizioni di stress della vita moderna e di inquinamento per cause belliche, industriali, agricole, ecc. Tutte circostanze considerate l’inevitabile prezzo da pagare per il progresso. Mentre è ugualmente rimosso l’immanente incubo nucleare, e i drammatici problemi ambientali diventano pretesto per raffinati studi e dotte discussioni che non alterano le scelte economiche e politiche, e garantiscono anzi ulteriori profitti.

 

Non è stata ancora scritta, ma sarebbe estremamente illuminante, una storia dell’umanità che analizzi il contributo determinante del progresso tecnico-scientifico nello sgominare i movimenti di contestazione sociale, espropriandoli degli strumenti conoscenza e controllo dei meccanismi produttivi e sociali che avevano acquisito, rivoluzionando le basi tecniche della produzione, e consentendo così al capitalismo di uscire rafforzato dalle sue ricorrenti crisi storiche.

 

Su questa base cercheremo di mettere a fuoco, in modo problematico, le principali svolte scientifiche del secolo che si è chiuso, insieme alle fasi di sviluppo economico e sociale e alle concomitanti ristrutturazioni dei loro fondamenti materiali, della loro consapevolezza ideologica (o falsa coscienza) e delle loro concezioni di fondo.

 

È superfluo, ma doveroso, sottolineare l’inevitabile schematismo dell’analisi che segue, la quale richiederebbe ben altro spazio, oltre che l’approfondimento di aspetti che devono ancora essere oggetto di ulteriore indagine: quelle che seguono sono in parte indicazioni di lavoro, analogie che servono per individuare i tratti comuni di correnti scientifiche e culturali proprie di un ambiente in una determinata epoca storica. Non credo però che si tratti di analogie ingiustificate, in quanto esse sono riferite sempre alla situazione e agli sviluppi strutturali. È importante tenere conto che il cammino della scienza, come quello della cultura o dell’arte, spesso non è lineare e omogeneo: ricostruire storicamente una razionalità di questi sviluppi a grandi linee è un’operazione che ha senso, anche se un’analisi più approfondita e dettagliata dovrà tenere conto degli sfasamenti, delle anticipazioni e dei ritardi, di alternative presenti o latenti, dell’influenza di forti personalità individuali che danno sempre un’impronta originale e inconfondibile, anche se la storia non può ridursi ad esse (Einstein non è la fisica del nuovo secolo, come Picasso non è la pittura: anche se la loro influenza è stata determinate).

 

Per di più, sebbene il ritmo dello sviluppo scientifico sia aumentato vertiginosamente negli ultimi decenni, lo spazio che qui ad essi si è dedicato è proporzionalmente minore, in parte per la mancanza di una sufficiente prospettiva storica, in parte per la complessità stessa di tali sviluppi: si è preferito concentrare l’analisi sui cambiamenti metodologici e pratici di fondo, sulla ristrutturazione dei paradigmi; in particolare sul processo di formalizzazione della scienza, che al moltiplicarsi degli sviluppi specialistici ha fornito la base necessaria, asettica e flessibile, svincolata dai significati e dai contenuti specifici. Questa, mi pare, è la premessa necessaria per cercare di cogliere anche la complessità degli sviluppi attuali. Anche se l’aggravarsi dei problemi globali e la concomitante comparsa della “scienza del caos”, parallela allo sviluppo dell’intervento scientifico sul vivente, testimoniano l’acuirsi delle contraddizioni.

 

La transizione tra Ottocento e Novecento

 

1. Il nuovo secolo si aprì con una radicale rivoluzione delle concezioni della Fisica (teorie dei quanti, teoria della relatività, termodinamica statistica), che sovvertì profondamente il modo di concepire la Natura e di rapportarsi ad essa: quali furono la vera natura di questa rivoluzione scientifica, le motivazioni che la sottendevano? La risposta a questa domanda ne presuppone un’altra: che funzione svolgeva il meccanicismo che alla fine dell’Ottocento permeava tanto la filosofia e la cultura, come l’impostazione pratica ed ideologica della scienza?

 

La prima fase dell’industrializzazione – fin verso la metà dell’Ottocento - si era basata sull’inventiva che caratterizzava lo spirito imprenditoriale della classe borghese: l’elaborazione scientifica aveva mantenuto un ruolo subalterno all’innovazione tecnica, e l’atteggiamento empirista e fenomenista fondato sull’oggettività dei soli dati di esperienza ed il rifiuto di ipotesi e modelli, teorizzato dalla prima filosofia positivista, aveva fornito la necessaria base ideologica del nuovo ordine sociale e culturale, rispetto alle speculazioni e all’arbitrarietà che avevano invece contrassegnato quello precedente. Alla scienza si richiedeva, in questo contesto, di fornire spiegazioni delle innovazioni tecniche, al fine di perfezionarle ed estenderne l’applicazione.

 

Ma la nuova fase che si era aperta dopo la metà del secolo, con la comparsa di nuovi attori - in primo luogo la Germania - apriva prospettive diverse e poneva esigenze inedite. I paesi in cui decollava la rivoluzione industriale si trovarono a competere con la poderosa industria britannica, che vantava un secolo di vantaggio: la via maestra che si presentò fu quella di rinnovare profondamente le basi tecnologiche dello sviluppo. Non può considerarsi una coincidenza, o un’astuzia della storia il fatto che la comunità scientifica tedesca e mittel-europea abbia costituito l’élite scientifica mondiale dagli ultimi decenni del secolo XIX ai primi decenni del secolo XX: la comunità scientifica tedesca si fece materialmente carico del compito storico e di fatto seppe sussumerlo nell’impostazione del proprio lavoro, fornendo effettivamente gli strumenti adeguati. La prima esigenza per realizzare questo obiettivo consisteva nel raggiungere un livello di elaborazione scientifica che non lasciasse l’innovazione alla genialità dell’inventore, ma che fornisse una base più sicura per guidare la scoperta di nuovi campi e processi. Di fatto, il presupposto ideologico empirista della prima metà del secolo venne quasi repentinamente capovolto (1856-59, Clausius, Maxwell: uso ed accettazione di modelli cinetici dei gas e di modelli di fluidi in elettromagnetismo; 1859, accettazione del modello atomico molecolare in chimica e suo uso intensivo per elaborare modelli della struttura molecolare e progettare nuove molecole; ricorso dichiarato a procedimenti ipotetici da parte di Darwin, 1859): i modelli vennero ora esplicitamente accettati come strumenti ipotetico-deduttivi, “sonde” per esplorare ambiti ignoti, proprio perché – essendo basati su entità non osservabili e trattati in termini matematici rigorosi – sono in grado di andare al di là del quadro empirico e di predire proprietà o processi nuovi. Il successo di questa impostazione è provata, ad esempio, dagli innumerevoli processi e prodotti innovativi realizzati da uno dei settori tecnologicamente più avanzati, l’industria chimica tedesca, in stretta collaborazione con i Politecnici e le Università, dove venivano intanto poste le basi della moderna chimica-fisica; o dalla scoperta di Hertz nel 1873 delle onde elettromagnetiche, predette dai modelli di Maxwell del campo elettromagnetico.

 

Questi sviluppi, se da un lato fornirono la base tecnologica della Seconda Rivoluzione Industriale, sul piano scientifico condussero alla nascita di nuove branche specialistiche basate su modelli specifici. Si rendevano pertanto necessari nuovi criteri metodologici: il riferimento diretto ai dati sperimentali, che aveva costituito la base della scienza precedente, non poteva più fornire infatti la base comune. Fu proprio in questo senso che il meccanicismo fornì il nuovo contesto unificante atto a ristabilire un controllo sulla dinamica diversificata dello sviluppo scientifico, sul proliferare delle branche e delle assunzioni modellistiche non direttamente osservabili e molto specifiche, la cui efficacia predittiva risiedeva proprio nella loro libertà di principio.

 

Questa ristrutturazione del rapporto con la natura investì tutte le espressioni culturali. La proposta degli espressionisti di cogliere direttamente le sfumature, coloristiche o sonore, della realtà sensibile entrò in crisi con l’irruzione degli elementi più profondi che dissolvono quell’immediatezza. La psicologia scientifica, che nacque in questi decenni adottando metodi fisici di misura delle relazioni tra stimoli e sensazioni (psico-fisica), ma anche l’impianto riduzionistico della psicologia associazionista, lasciarono il posto all’indagine di meccanismi psichici specifici ad un tempo più generali e più profondi.

 

2. La crisi della concezione del mondo ottocentesca maturava rapidamente su tutti i terreni sotto la pressione incontenibile degli eventi: crollava la convinzione dell’autoregolazione del mercato, si avviarono programmi di ricerca di nuovi linguaggi e di nuovi modelli concettuali.

 

In campo scientifico la nuova base metodologica era destinata ad essere messa in crisi dallo stesso processo che si era innescato, il quale condusse a travalicare ben oltre il prevedibile il quadro dei fenomeni naturali, mettendo a dura prova la capacità interpretativa del meccanicismo. Da un lato, alle soglie del nuovo secolo, questa stessa dinamica scientifica, le nuove possibilità tecniche, dischiusero ambiti inattesi di fenomeni, difficili da ricondurre a questo quadro interpretativo. Molte scoperte fondamentali furono “casuali” (la scoperta della radioattività, per aver abbandonato un minerale in prossimità di una lastra fotografica; la scoperta dei “raggi catodici” per la fluorescenza osservata in un tubo a vuoto e conseguentemente la scoperta dell’elettrone: ecc.): ma questa apparente “casualità” era in realtà il prodotto della nuova dinamica e della nuova mentalità.

 

D’altro lato, però, era quello stesso tentativo di mantenere un controllo sul proliferare dei modelli che entrava in conflitto con la nuova prassi e con le esigenze concrete che la sottendevano: infatti, se i modelli erano lo strumento per predire fatti e proprietà nuovi, che senso aveva limitarne l’ambito con il requisito della loro base meccanica? Ben inteso, questo processo innovativo si svolgeva in modo tutt’altro che lineare, e non era un progetto esplicito e consapevole: qualsiasi trasformazione non si impone repentinamente, ed ha i suoi alfieri e i suoi oppositori; non diversamente, la nuova prassi scientifica metteva in crisi mentalità consolidate, e faceva scattare la reazione di coloro che a quelle rimanevano legate. Furono in realtà i chimici ad anticipare, alle fine dell’Ottocento, la rivoluzione metodologica della scienza. In Germania la chimica accademica aveva rapporti di collaborazione diretta con la grande industria chimica, che costituiva uno dei settori più sviluppati tecnologicamente, il fronte avanzato della seconda rivoluzione industriale. Sospinti da esigenze e committenze concrete e pressanti, i chimici si resero implicitamente conto dell’artificiosità, ancor prima della difficoltà, di ricondurre processi complessi a meccanismi meccanici: le reazioni chimiche sono troppo difficili da trattare in base alle collisioni tra le molecole, mentre l’approccio della termodinamica, basato su grandezze medie rispetto alle proprietà molecolari e su funzioni di stato che non dipendono dai dettagli dei processi, fornisce una base molto più efficace e generale.

 

La maturazione della riflessione dei fisici fu invece più lenta e tormentata, anche se più profonda, per il loro atteggiamento meno pragmatico e la loro attenzione ai processi fondamentali: gli attacchi, molto aspri, al meccanicismo e alla “fisica dei modelli” si fondarono su difficoltà reali (i problemi dell’irreversibilità termodinamica e dell’etere elettromagnetico), ma si ispirarono ad un impossibile ritorno ad un’impostazione fenomenistica (emblematiche le polemiche con Boltzmann, che fu tra i fattori della depressione che nel 1906 lo portò al suicidio), a cui l’empirismo critico di Mach cercò di fornire una base filosofica che nobilitasse il vecchio positivismo.

 

Se dunque il quadro dei fenomeni fisici palesò una complessità inaspettata (raggi catodici; raggi X, Roentgen, 1895; radioattività, Becquerel, 1896; scoperta dell’elettrone, Thomson, 1897; effetto termoelettronico; effetto fotoelettrico; spettri atomici; raggi cosmici; ecc.), fu l’impostazione riduzionista della scienza ottocentesca che rivelò il proprio carattere artificioso e limitativo, entrando in conflitto con la nuova mentalità.

 

3. Le teorie rivoluzionarie della Fisica all’inizio del900 costituirono in primo luogo il rifiuto e il superamento dei limiti del meccanicismo e del riduzionismo.

 

I famosi contributi di Planck sul campo di radiazione del 1900 furono a mio giudizio fondamentali non tanto per l’introduzione di una suddivisione dell’energia in “quanti” discreti - procedimento che egli effettuò in modo pragmatico, come discretizzazione di un fenomeno continuo, senza attribuirgli un significato fondamentale: concettualmente non diverso dall’approccio finitistico di Boltzmann - quanto per il procedimento spregiudicato e svincolato da qualsiasi canone meccanicistico: la memoria sul “quanto” (la sola che viene ricordata oggi) era stata preceduta di qualche settimana da una prima memoria in cui Planck aveva già derivato lo spettro del campo sulla base di un procedimento termodinamico anziché meccanico. Come egli scriverà più tardi:

 

“Poiché il creatore di un’ipotesi ha a priori piena libertà quanto ai modi di formularla, egli ha facoltà di scegliere come vuole i concetti e gli enunciati, purché essi non contengano contraddizioni logiche.

“La misura per la valutazione di un’ipotesi fisica non risiede nella sua intuibilità, ma nella sua capacità di prestazioni.

 

La termodinamica, anziché la meccanica, venne scelta come base concettuale e metodologica da tutti i fondatori delle idee quantistiche (Planck, Einstein, Nernst), e contrassegnò la convergenza della nuova generazione dei fisici con l’impostazione metodologica che i chimici avevano anticipato.

 

Di fatto la proposta di Planck non venne recepita dalla comunità scientifica per almeno un lustro. La vera introduzione dell’ipotesi del “quanto di luce” (molto più tardi chiamato fotone) fu dovuta ad una delle tre fondamentali memorie di Einstein del 1905, sulla base di un ragionamento di termodinamica statistica che testimoniava emblematicamente il capovolgimento dell’atteggiamento meccanicistico tradizionale: esso non si basava neppure su nuove indicazioni sperimentali, ma le anticipava in base all’esigenza di ristabilire la “simmetria” delle concezioni dei fisici, i quali interpretavano la struttura dei corpi materiali in termini discreti (atomici), e il campo in termini di continuo spaziale: la distorsione ideologica ufficiale attribuisce l’ipotesi di Einstein all’interpretazione della soglia di frequenza nell’effetto fotoelettrico, mentre invece questa fu predetta proprio da Einstein, e verificata solo dieci anni dopo da Millikan, il quale invece cercava di falsificarla.

 

La convergenza con la metodologia che i chimici avevano inaugurato si realizzò concretamente nel 1906, quando W. Nernst – un elettrochimico che studiava gli equilibri delle reazioni chimiche – stabilì il terzo principio della termodinamica: egli si rese conto che la conseguenza fisica diretta del nuovo principio (l’annullarsi di tutti i calori specifici alla temperatura dello zero assoluto) coincideva con una previsione (anch’essa puramente teorica) fatta da Einstein. Nernst effettuò così la prima verifica sperimentale di una conseguenza delle nuove concezioni quantiche, e si convertì nel più convinto sostenitore di queste: fu l’organizzatore del Primo Congresso Solvay del 1911, e successivamente collaborò attivamente con Einstein.

 

Anche l’interpretazione microscopica dei processi macroscopici aveva intanto capovolto la filosofia meccanicistica della prima teoria cinetica (anche se dal 1877 Boltzmann ne aveva sottolineato il fondamento statistico) con la termodinamica statistica, elaborata da Gibbs (1902) ed Einstein (1903-4), in cui la complessa definizione, formale e astratta, della probabilità di un processo macroscopico non viene costruita dalle interazioni tra i costituenti microscopici, ma viene stabilita in base alla connessione diretta con la funzione termodinamica caratteristica del processo.

 

4. Le nuove concezioni fisiche erano lungi dal costituire una nuova visione organica della natura; tanto meno furono accettate dalla comunità scientifica nel suo complesso. Come poteva un fisico formato dalla razionalità della vecchia scuola riconoscere procedure tanto eterodosse e pragmatiche, apparentemente prive di ogni logica (tradizionale)? Come riconosce Planck nella sua Autobiografia Scientifica:

 

“Una nuova verità scientifica non trionfa perché i suoi oppositori si convincono e vedono la luce, ma piuttosto perché alla fine muoiono, e nasce una nuova generazione a cui i nuovi concetti diventano familiari.

 

La rottura con la metodologia meccanicistica, che si stava affermando nella chimica e nella fisica, rispondeva alla crisi della visione del mondo e della struttura economico sociale ottocentesche: ma la stabilità era lontana, anzi si addensavano le nubi di un terribile conflitto bellico, al quale sarebbe seguita una fase di endemica instabilità, che solo nel secondo dopoguerra avrebbe trovato una soluzione (peraltro fondata su un artificioso equilibrio di potenze distruttive).

 

La messa in discussione dei canoni tradizionali produceva una profonda ristrutturazione del quadro culturale. La critica del tempo e dello spazio assoluti sviluppata da Einstein si accompagnava al superamento dell’eurocentrismo, alla relativizzazione dell’uomo e della società nel tempo, operata dallo storicismo, e nello spazio, acquisita dagli interessi antropologici ed etnologici. La rivoluzione freudiana dell'introduzione dell'inconscio come movente dei comportamenti, decisamente ribelle alla razionalità e ai suoi precetti, si accompagnava in ogni campo alla ricerca degli elementi profondi della realtà, lontani dall'apparenza fenomenica. Il superamento della prospettiva e dell'armonia classiche, che gli impressionisti avevano cercato nell'immediatezza del colore puro o nella qualità coloristica degli strumenti musicali, aveva aperto una ricerca che - attraverso le innovazioni formali ed espressive di Cezanne, di Van Gogh e dei Fauves, o lo sviluppo wagneriano di tutte le risorse della gamma cromatica - sfociava nella scomposizione dell'oggetto (cubismo, 1905-06; anche in dichiarata consonanza con le nuove concezioni scientifiche, come nel futurismo, 1909), nel superamento della tonalità e nella liberazione della dissonanza, o nell’audacia delle armonie politonali di Stravinsky (per non parlare della diffusione del jazz). Contro le tesi obiettivistico-naturaliste del positivismo, Husserl rivendicava il ruolo del soggetto nella conoscenza e l’esigenza di risalire alle essenze che danno significato all’esperienza empirica.

 

Il più lento avanzamento delle conoscenze sul vivente non consentivano ancora alla biologia di compiere il grande salto qualitativo: la rivoluzione darwiniana richiedeva infatti l’integrazione della genetica e la scoperta dei meccanismi sub-cellulari per tradursi in una concezione scientifica generale della struttura e dell’evoluzione del vivente. Solo ai primi del900 venne confutata l’ereditarietà dei caratteri acquisiti, e videro la luce da un lato la teoria mutazionista (de Vries) e dall’altra la genetica e la teoria cromosomica (Morgan), ma esse rimasero contrastanti fino agli anni ‘20 (la maggior parte dei biologi continentali muovevano infatti alla genetica una critica di fissismo, e Morgan non pensava che una mutazione potesse produrre nuove specie). Anche la pioggia di scoperte sugli enzimi, gli ormoni, l’istologia del sistema nervoso, la clorofilla, e molte altre, rimasero a lungo scollegate tra loro.

 

5. La nuova prassi scientifica, svincolata dai canoni tradizionali, introduceva una rottura rispetto alla riflessione epistemologica, che avrebbe assunto poi la dimensione di una radicale separazione tra le due attività. Planck, ad esempio, nella sua riflessione epistemologica a posteriori perseguiva un ideale kantiano di ricerca di una verità assoluta, che contrastava singolarmente con il “possibilismo” della sua effettiva prassi scientifica. In effetti, finché la scienza aveva mantenuto una sostanziale unità di fondo, basata sull’aderenza ad una metodologia “naturale” (fosse il meccanicismo boltzmanniano, come il fenomenismo machiano), in quanto riflesso di una collocazione strutturale riferita alla base meccanica della prima fase dell’industrializzazione, era sussistita anche una fondamentale coerenza tra la concreta prassi scientifica e la riflessione epistemologica su di essa: essendo la conoscenza scientifica concepita come generalizzazione induttiva diretta, la sua logica di fondo veniva identificata tout court con la prassi effettiva degli scienziati.

 

La ristrutturazione produttiva e sociale cambiava radicalmente la situazione. La crisi delle certezze precedenti e dei tradizionali modelli di sviluppo del sapere scientifico, la sostanziale arbitrarietà delle nuove procedure, richiedevano, oltre che nuove concezioni scientifiche, nuove strategie epistemologiche che recuperassero la validità e l’oggettività della conoscenza scientifica; che salvaguardassero ed immunizzassero, per così dire, la razionalità scientifica rispetto ai profondi cambiamenti che ne mettevano in discussione l’immagine ingenua precedente. In altre parole, le connessioni, in realtà sempre più strette, con la realtà produttiva e ideologica, dovevano venire occultate se si voleva mantenere e ribadire la funzione, l’efficacia, la specificità del sapere scientifico: in tale contesto si veniva configurando, ed imponendo rapidamente, l’ideologia della scienza come ricerca pura e disinteressata della verità, indagine delle leggi oggettive della natura, conoscenza asettica, svincolata dal suo “uso”.

 

6. Il programma perseguito (sia pure in forme diverse) da Einstein, Schroedinger, de Broglie di stabilire una concezione realistica, in termini spazio-temporali, dei processi fisici, era destinato ad essere travolto dagli eventi, indipendentemente dai suoi progressi e dalla sua effettiva praticabilità.

 

Qualcosa di simile doveva accadere per i tentativi in campo artistico di ristrutturare semplicemente l'oggetto, creando nuovi sistemi di regole (come avvenne ad esempio per la dodecafonia). Gli sviluppi economici, sociali e culturali modificavano continuamente il contesto generale e tali tentativi si mostravano rapidamente insufficienti.

 

Le trasformazioni che si profilavano, anche a livello produttivo (taylorismo, fordismo), richiedevano in particolare un supporto scientifico sempre più flessibile, formale, dotato di una logica al suo interno, e non in diretto rapporto con una specificità empirica. Nel conflitto mondiale si registrò un grande sforzo scientifico e tecnologico, che preparò le basi per la successiva trasformazione tanto dell’organizzazione della ricerca scientifica, quanto della struttura economica e sociale (il diretto coinvolgimento del premio Nobel per la chimica Fritz Haber nella realizzazione degli aggressivi chimici inaugurò le forme istituzionali di collaborazione degli scienziati nelle ricerche militari). L’invenzione delle valvole termoioniche (diodo, Fleming 1904; triodo, de Forest 1906) aveva aperto il campo dell’elettronica, destinato a fornire una base flessibile e nuovi strumenti di controllo che nei decenni a venire avrebbero rivoluzionato tanto i processi produttivi, quanto la vita sociale.

 

Nella fisica, fin dal lavoro sul modello dell’atomo d’idrogeno del 1913, elaborato per interpretare gli spettri atomici discreti in termini di livelli energetici permessi dell’elettrone, Bohr dichiarava senza mezzi termini:

 

“È chiaro che non sto in alcun modo cercando di dare ciò che comunemente si suole definire una spiegazione: nulla è infatti stato detto sul come e perché la radiazione viene emessa”;

 

E più tardi Heisenberg ribadiva:

 

“La propagazione, l’assorbimento e l’emissione della luce sono fatti sperimentali che devono venir posti alla base di qualsiasi tentativo di chiarimento, e non spiegati.

 

Questa nuova scelta avrebbe poi condotto a posizioni sempre più pragmatiche, alla base di una concezione fisica – la “Meccanica Quantistica Ortodossa”, o di Copenhagen  il cui significato diviene puramente formale: nell’interpretazione probabilistica proposta da Max Born nel 1926, l’equazione fondamentale della teoria (l’equazione di Schroedinger: anche se il suo autore l’aveva formulata al fine di ricondurre anche il comportamento ondulatorio della materia ad un’interpretazione causale e realistica, in termini di continuo spazio-temporale) concerne l’ampiezza di probabilità, una funzione costituita addirittura da “numeri immaginari”, che ha solo una connessione indiretta con i valori sperimentali, costituiti naturalmente da numeri “reali”, e che vengono espressi dal “modulo al quadrato” di tale ampiezza, o da valori di aspettazione espressi tramite essa. La “Scuola di Copenhagen” dichiara apertamente che non è neppure lecito fare modelli dei processi atomici secondo le rappresentazioni della nostra conoscenza del mondo macroscopico, poiché le “entità” fondamentali a questo livello si possono descrivere correttamente solo attraverso il formalismo matematico. Come scrive Dirac:

 

“La tradizione classica considerava l’universo come un’associazione di entità osservabili in movimento secondo leggi definite di forze, in modo da formarsi un modello mentale nello spazio e nel tempo. [] Le leggi fondamentali [della meccanica quantistica] governano un substrato del quale non possiamo formarci un modello mentale senza introdurre inesattezze.

 

Queste scelte pragmatiche provocarono reazioni irritate di Einstein, come quando nel 1924 scriveva a Born in tono chiaramente sarcastico:

 

“L’idea che un elettrone esposto a una radiazione possa scegliere liberamente l’istante e la direzione in cui spiccare il salto è per me intollerabile. Se così fosse, preferirei fare il ciabattino, o magari il biscazziere, anziché il fisico.”;

 

mentre Schroedinger dal canto suo affermava:

 

“Il punto di vista di Bohr, secondo il quale una descrizione spazio-temporale è impossibile, lo rifiuto radicalmente.”,

 

e quasi di rimando Heisenberg scriveva a Pauli:

 

“Quanto più soppeso la parte fisica della teoria di Schroedinger, tanto più orribile mi sembra.

 

 

Dalla Repubblica di Weimar al New Deal

 

7. La tormentata vicenda della Repubblica di Weimar rimane per tutti gli anni ’20 il riferimento fondamentale per comprendere gli sviluppi scientifici e culturali che stiamo discutendo, anche se la prima guerra mondiale aveva portato alla ribalta della scena mondiale gli Stati Uniti, che si delineavano come nuovo gigante economico e tecnologico.

 

La Repubblica di Weimar costituì su tutti i piani un vero crogiolo di esperienze, spesso innovative, talvolta in contraddizione tra loro, alle quali le irrisolte contraddizioni impedirono di coagulare in un sistema stabile.

 

Le inquietudini e l’instabilità del dopoguerra, l’umiliazione per la sconfitta, la frustrazione per le condizioni di pace, il trauma prodotto dalla Rivoluzione d’Ottobre, alimentarono un clima culturale fortemente irrazionalistico. Nel 1927 Sommerfeld scriveva:

 

“La fede in un ordine mondiale razionale cadde per il modo in cui terminò la guerra e si impose la pace; per questo ognuno cerca la salvezza in un ordine irrazionale.”

 

È stata documentata l’influenza diretta della filosofia irrazionalista (Kierkegaard) ed anti-determinista nella formazione di Bohr e di Heisenberg; della psicoanalisi junghiana nel pensiero di Pauli.

 

In un illuminato discorso all’Accademia Prussiana delle Scienze, nel 1932, Schroedinger discuteva i tratti comuni tra gli sviluppi scientifici e le più diverse manifestazioni culturali e sociali, quali il “nuovo funzionalismo” nell’arte, la diffusione della statistica nell’amministrazione pubblica, la ricerca di mezzi appropriati per manovrare grandi masse, tanto a livello umano quanto nella produzione industrale.

 

Gli sviluppi della psicoanalisi e le espressioni culturali ed artistiche riflettevano ad un tempo il fermento, il travaglio e la profonda crisi morale e spirituale; in una parola, la crisi della società europea. L'espressionismo rivendicava il carattere soggettivo dell'opera d'arte, l'espressione della tormentata realtà interiore, il ritorno all'istinto, il rifiuto di ogni convenzione formale, ricorrendo alla violenza dell'immagine, ad un clima di esasperata irrealtà tanto nella pittura come nel cinema, o alla ristrutturazione dei principi dell'organizzazione tonale nella musica. La ricerca del senso occulto degli eventi o dei segni, con diverse modalità, ispirava tanto la letteratura (Proust, Joyce, Kafka), quanto le arti figurative (Klee, Kandinsky, Mondrian). Il surrealismo dischiudeva la natura a-logica, inquietante e sinistra dei rapporti tra le cose al di là della loro percezione spazio-temporale. Brecht sviluppava la sua tagliente critica sociale e morale. Heidegger (Essere e Tempo, 1927) insisteva sulla finitezza dell’uomo, richiamandosi all’autenticità dell’essere.

 

L’ambiente di Vienna, dopo il crollo dell’Impero Absburgico, non fu meno stimolante, inquieto e creativo di quello tedesco: la “Kakania” di Musil, già patria di Mahler, Boltzmann, Mach, Klimt; e ora di Freud, Kokoschka, Schönberg, Wittgenstein, Hoffmannsthal, Schnitzler, Kraus, Loos, degli “austromarxisti”.

 

Ma l’inquietudine ed i fermenti superavano i limiti del continente. I migliori scrittori americani, delusi dalla guerra e dal materialismo dell’America post-bellica, scelsero l’esilio europeo per descrivere con distacco gli eccessi del loro paese, o il “sogno americano”. Il senso dell’ambiguità del reale e della precarietà dei valori ispirò la produzione letteraria inglese (Virginia Woolf, Eliot).

 

Ma i fattori strutturali rimangono il riferimento essenziale per comprendere tanto le espressioni scientifiche e culturali, quanto il tragico esito dell’esperienza di Weimar. Si moltiplicarono esperienze e proposte che anticiparono soluzioni successive, ma né la fase di “razionalizzazione”, né i progetti lungimiranti di Rathenau (si pensi anche all’esperienza del Bauhaus) risolsero le contraddizioni e poterono arrestare la deriva.

 

La scienza costituì uno dei cardini dell’orgoglio germanico umiliato. La Repubblica di Weimar abbassò le imposte e facilitò gli investimenti in campo scientifico. Si sviluppò una competizione tre Berlino, indicata come il centro del tradimento dell’orgoglio nazionale e della cultura giudaica, e le sedi periferiche (tra le quali Gottinga, dove lavorava Heisenberg, e che confluì con la “scuola di Copenhagen” di Bohr), in cui si sviluppò uno spirito nazionalista, sciovinista e anti-ebraico.

 

8. La crescita disordinata e incontrollabile, la permanente instabilità economica e sociale, l’approfondirsi della crisi richiedevano l’acquisizione di strumenti di controllo flessibili, non rigidamente deterministici, che consentissero di stabilire correlazioni tra dati, indipendentemente dalla loro natura e dal loro significato.

 

La meccanica quantistica ha fornito un atteggiamento concettuale ed una base fisica spogliati di riferimenti specifici, ridotti ad una struttura matematico-formale, dotati quindi di estrema adattabilità, proprio in quanto essa si limita programmaticamente a correlare risultati di osservazioni sul sistema che si studia, puri dati sperimentali: nelle parole di Bohr

 

“L’oggetto della nostra descrizione della natura non è tanto discernere l’essenza reale dei fenomeni, quanto cercare e trovare, tanto lontano quanto è possibile, relazioni tra gli aspetti variabili della nostra esperienza.”

 

Non stupisce quindi che questa teoria fisica abbia costituito ad un tempo la base per gli sviluppi successivi, ed il modello di pensiero e di schematizzazione della scienza, che si è riflesso in molti ambiti culturali. Estremamente significativo, ad esempio, è il ruolo fondamentale che von Neumann (al quale si deve la formalizzazione matematica della teoria) svolgerà negli USA nello sviluppo tanto della “teoria dei giochi”, come delle capacità logiche degli elaboratori elettronici, e nella loro realizzazione pratica per compiti militari.

 

L’operazionismo di Bridgman (1927) forniva il corrispettivo e il supporto epistemologico alla “filosofia delle osservabili” della meccanica quantistica. Si potrebbe tracciare un parallelo anche con l’impostazione della psicologia comportamentista, che assumeva come unico oggetto il comportamento osservabile e misurabile (un atteggiamento che avrebbe avuto poi pesanti implicazioni sociali), e con i primi sviluppi dell’antropologia (Boas).

 

9. Un percorso non diverso da quello che abbiamo discusso per la Fisica seguì la Matematica. Al prodigioso sviluppo della matematica francese nel periodo napoleonico e positivistico, fondato su una concezione concreta ed empirica, la scuola tedesca della prima metà dell’Ottocento aveva contrapposto un punto di vista di ispirazione kantiana. Ma la funzione ideologica del kantismo come fattore culturale unitario nel periodo in cui la Germania aveva aspirato all’unità nazionale, si rivelò successivamente un forte limite all’ulteriore sviluppo della matematica. La svolta ebbe in Hilbert il rappresentante più emblematico. Per fornire massima libertà di ragionamento e sicurezza assoluta della correttezza del procedimento matematico, egli aveva formulato un programma di fondazione unitaria e autonoma della matematica: questa avrebbe dovuto ridursi ad un insieme di assiomi, cioè di relazioni formali tra simboli svuotati di contenuti concreti, le cui regole non risiedono al di fuori delle stesse, ma al di dentro. Il “Programma di Hilbert” si basava sulla ricerca di una dimostrazione di coerenza e di completezza dei sistemi assiomatici che erano alla base della matematica, che potesse essere data senza uscire al di fuori del sistema logico-formale dato.

 

Ma proprio alla fine di quei fatidici anni ’30 il “Teorema di Goedel” (1931) provò che la non-contraddittorietà di un sistema formale è indimostrabile all’interno di esso, segnando così il fallimento del programma e del formalismo hilbertiani.

 

La logica formale si riduceva ad un’esigenza di rigore che, non avendo più pretese fondamentaliste, fosse generalizzabile indipendentemente dai significati specifici: il neopositivismo logico - riprendendo la polemica antipsicologica della fenomenologia husserliana, il Tractatus logico-philosophicus di Wittgenstein, e l’esigenza di una rifondazione su basi esclusivamente logiche ed empiriche dell’intera conoscenza umana – privilegiava così l’analisi logica del linguaggio scientifico.

 

10. Il Grande Crollo del 1929 poneva fine di fatto all’esperienza di Weimar. Ma senza di essa non si capirebbe la storia successiva: molte delle esperienze e delle proposte che vi si erano prefigurate si sarebbero sviluppate posteriormente, tanto nel totalitarismo nazista (si sono riconosciute oggi tendenze “moderne” del nazismo e del fascismo, come l’intervento dello Stato nell’economia), quanto negli Stati Uniti. L’élite intellettuale e scientifica tedesca che fuggiva dagli orrori del nazismo, e spesso non era meno disgustata dallo stalinismo, trovò negli USA una situazione non meno contraddittoria: la “società di massa” generò negli intellettuali un senso di repulsione e stimolò le loro analisi critiche, ma al tempo stesso è innegabile che là essi trovarono di fatto il clima e gli stimoli adeguati per realizzare quegli sviluppi innovativi che in Germania erano rimasti latenti o incompleti.

 

La crisi e la depressione che ne seguì costituirono in qualche modo un’esperienza limite: bisognava porre fine alla ricorrente vocazione auto-distruttiva del capitalismo. La soluzione venne prospettata dal New Deal di Roosevelt, anche se si sarebbe pienamente sviluppata solo con il balzo imposto dal secondo conflitto mondiale. Si andarono comunque modificando in modo permanente i rapporti tra Stato ed economia (si potrebbe riflettere sull’influenza dell’esperienza, per quanto molto diversa, della pianificazione in URSS; ma una scelta simile avveniva in Germania ed in Italia). Keynes (1936) introdusse la nozione di “domanda effettiva”, dalla quale dipendono il reddito nazionale e l’occupazione, e teorizzò il ruolo della spesa pubblica per assicurare la piena occupazione delle risorse disponibili. L’innovazione tecnico-scientifica assurse ad un livello di importanza senza precedenti, venendo esplicitamente chiamata ad alimentare una nuova dinamica di crescita in cui l’innovazione  e la creazione di nuove branche divenisse tanto rapida e incalzante da alimentare un ritmo di consumi che impedisse di fatto il verificarsi di crisi di sovrapproduzione. Ma chi avrebbe consumato questi beni sempre nuovi? Il capitalismo compì un vero salto mortale, cercando di trasformare la stessa classe operaia da tradizionale contraddizione in motore dello sviluppo senza sosta, inaugurando un periodo di alti salari e piena occupazione: la scienza doveva svolgere anche l’indispensabile funzione di organizzare il consenso su questa ideologia di sviluppo e dei vantaggi per tutti.

 

Si conferma qui concretamente la profonda omogeneità tra gli atteggiamenti, le finalità, il ruolo assunti dalla “comunità” scientifica e le strategie perseguite e messe in atto dalle classi che detengono il potere economico, nella convergenza dell’evoluzione metodologica e pratica della scienza - cioè tanto della sua impostazione quanto dei suoi risultati – con le strategie di soluzione della crisi e di ristabilimento degli equilibri economici e sociali: non si tratta di una “committenza” diretta, né di una scelta esplicita, e neppure di una convergenza a posteriori, ma della sussunzione degli stessi obiettivi da parte di strati sociali che convergono sulle scelte di fondo, in primo luogo sociali ed economiche.

 

La meccanica quantistica, come tante proposte maturate negli anni ’20, aveva addirittura anticipato il necessario cambiamento radicale della prassi scientifica: di fronte alle difficoltà delle concezioni realistiche, alla loro continua messa in discussione - in una parola, alla loro scarsa produttività, scientifica e applicativa - la scelta esplicita della meccanica quantistica non era ormai più quella di fornire rappresentazioni generali del mondo, ma niente di più (e niente di meno!) che un quadro di riferimento generale, formale, flessibile, asettico, che non limitasse, bensì stimolasse, gli sviluppi più diversi e liberi, l’applicazione a qualsiasi campo o problema. Si chiudeva in qualche modo un ciclo: i dati di esperienza rimanevano il riferimento centrale dell’elaborazione scientifica, ma mentre agli inizi essi costituivano l’immagine concreta che la rappresentazione scientifica doveva riflettere, ora  essi si riducevano all’oggetto accessorio e mutevole di un formalismo astratto e polivalente, la cui struttura logica prescinde dalla loro natura specifica. I paradossi logici che Schroedinger, e soprattutto Einstein (“paradosso di Einstein, Podolsky e Rosen”), denunciarono tenacemente nel corso degli anni ‘30 ricevettero dal “gran sacerdote” del nuovo corso, Niels Bohr, risposte che si limitavano in sostanza a ribadire la struttura logica della meccanica quantistica. L’evoluzione successiva della scienza non avrebbe più messo in discussione il quadro formale di riferimento, reso ormai asettico, ma avrebbe sviluppato e stimolato in modo quanto mai libero e spregiudicato sviluppi ed interventi sempre più approfonditi e specialistici, forme di puro potere dell’uomo sulla natura, tanto sulle sue manifestazioni naturali, quanto (e soprattutto) su quelle che il nuovo potere della scienza riusciva a “scatenare”. La “conoscenza” delle meraviglie della natura rimaneva la copertura, da decantare nella divulgazione, condotta in termini celebrativi, tali da occultare le vere motivazioni e implicazioni dell’impresa scientifica: il consenso sociale veniva organizzato attorno al mondo creato dalla tecnica, che diveniva più che mai una seconda natura, se non più vera, per lo meno apparentemente più fruibile per il consumatore, in quanto non più grezza, ostica o addirittura ostile come la Natura, ma già piegata all’utilizzazione umana, e garantita dal potere conoscitivo e pratico della scienza.

 

11. Come in altre occasioni, gli ambienti scientifici più avanzati - questa volta negli Stati Uniti - anticiparono i tempi, in piena consonanza con i settori produttivi più dinamici e lungimiranti: lo sviluppo di branche scientifiche specializzate iniziò infatti nei primissimi anni ‘30, nel pieno della depressione, con il preciso intento di aprire settori nuovi, che superassero la morsa della  recessione.

Lo studio del nucleo dell’atomo prese slancio nel 1931-32, con una scelta iniziale precisa, che ne prefigurava gli sviluppi e le applicazioni successive. Da Berkeley E. O. Lawrence lanciò sulla stampa e nelle Esposizioni Universali il battage sull’enorme energia contenuta nel nucleo dell’atomo, e proprio nella fase più dura della recessione e di tagli drastici dei finanziamenti alla ricerca riuscì a raccogliere dalle compagnie elettriche notevoli finanziamenti per le sue ricerche sulla generazione di alti voltaggi e per lo sviluppo della nuova branca: in realtà egli realizzò (e brevettò) una macchina, il ciclotrone, per accelerare particelle cariche ad energie sempre più elevate su traiettorie a spirale e con voltaggi abbastanza modesti; la sua smania di costruire acceleratori di energia sempre più alta gli fece mancare alcune scoperte fondamentali (la disintegrazione artificiale dei nuclei e la radioattività artificiale), a cui arrivarono i britannici Cockroft e Walton nel laboratorio di Rutherford con un acceleratore molto meno potente. Il “re dei corn-flakes”, Kellogg, finanziò la realizzazione a Pasadena di un analogo laboratorio di fisica nucleare che porta il suo nome. Nei nuovi laboratori si svilupparono nuove forme di ricerca d’équipe (aumentò il numero di lavori scientifici firmati da 3, 4, o più autori), che sarebbero poi risultate fondamentali negli sviluppi successivi.

 

La ricerca, in questo come in altri campi, fu inoltre finanziata da grandi Philantropic Foundations, nelle quali i magnati dell’industria (Carnegie, Rockefeller, ecc.) ponevano denaro che era così sottratto alla tassazione.

 

Lo sviluppo della fisica dello stato solido ricevette contributi determinanti nei laboratori di ricerca scientifica della Bell Telephone, finalizzati alla ricerca di base, svincolata da interessi applicativi, nella convinzione che in tal modo le applicazioni ne avrebbero giovato. Già nel 1930 il Dipartimento della Bell sulle valvole termoioniche contava circa 200 scienziati e collaboratori (nel 1927 Davisson e Germer vi eseguirono l’esperimento di fisica fondamentale che provò la natura ondulatoria degli elettroni), era visitato dai maggiori fisici dell’epoca, i quali tenevano conferenze, creando un clima simile agli ambienti universitari. Fu soprattutto qui che negli anni ‘30 si svilupparono le ricerche sui solidi, che coprirono un campo vastissimo: dai tubi a vuoto e dall’emissione termoionica, alla conduzione, ai cristalli, ai dielettrici, ai materiali magnetici, agli amplificatori e ai semiconduttori e ai dispositivi elettronici a stato solido. Venne formulata la moderna teoria della bande dei solidi.

 

L’elettronica, grazie anche a questi studi, progredì rapidamente, proponendosi come tecnica polivalente tanto nei più diversi settori scientifici, quanto negli sviluppi tecnici e produttivi (servomeccanismi).

 

Il governo USA mobilitò gli scienziati delle università e delle industrie per sviluppare le capacità di calcolo automatico, necessarie per scopi militari (nel 1936 il matematico inglese Alan Turing pubblicò un articolo fondamentale). Tra il 1939 e il 1944 l’IBM realizzò il Mark I, macchina ancora elettromeccanica con ingranaggi contatori formati da ruote, che usava 3000 relè e moltiplicava due numeri di 23 cifre in 4,5 secondi (le tavole di tiro dell’artiglieria furono calcolate con un calcolatore analogico ed il ricorso ad un centinaio di donne che eseguivano manualmente i calcoli relativi alle operazioni della macchina, e richiedevano mezz’ora contro una settimana del calcolo manuale).

 

Si dispiegava in tutta la sua potenza la vocazione prometeica originaria della scienza moderna occidentale, complice del potere, mirata non tanto a svelare i segreti della natura, ma a controllarla, trasformarla, sfruttarla a fini di profitto, piegarla agli interessi economici forti, utilizzarla per perpetuare e rafforzare il dominio capitalistico: il capitalismo chiamava nel momento di estrema crisi, e la scienza fedelmente rispondeva; un atteggiamento che avrebbe svelato di lì a poco i danni esiziali apportati alla natura, ai suoi equilibri, ai suoi cicli (peraltro largamente prevedibili se si fosse adottato un atteggiamento diverso), ma che non per questo ha cessato di operare nei modi più spregiudicati.

 

La messa a punto di tecniche e concetti specifici e specializzati consentì anche alla biologia di compiere i passi decisivi, con l’integrazione con la fisica (raggi X, microscopio elettronico, microscopio ottico a contrasto di fase, ecc.) e la chimica (struttura delle proteine, ciclo dell’urea, teoria chimica della trasmissione sinaptica, ecc.), mentre la nascita della genetica di popolazione (Haldane, Fisher, Wright, 1920-30) e la conferma del carattere genetico della variabilità che Darwin aveva osservato nelle popolazioni naturali (L’Héritier e Teissier, 1937) aprirono la strada alla teoria sintetica dell’evoluzione negli anni ‘40.

 

Anche la Terra su cui viviamo si era trasformata in un “organismo” vivo, in continuo divenire secondo la teoria della deriva dei continenti, enunciata da Wegener nel 1915. Mentre l’universo che ci circonda aveva incominciato ad allargarsi a dismisura e ad animarsi da quando Hubble, negli anni ‘20, aveva dimostrato che le galassie sono esterne alla Via Lattea, e nel 1929 aveva fornito le prime prove della continua espansione dell’universo.

 

12. Gli ambienti intellettuali accusarono lo shock del crollo di un mondo che pure dava da tempo segnali di profonda crisi, l’incertezza delle prospettive, l’avvento di regimi totalitari. La produzione culturale ed artistica degli anni ’30 e ’40 per un verso recepì a suo modo il dissolversi dell’immediatezza empirica dietro una realtà ultima che la scienza più avanzata sottraeva ad ogni rappresentazione spazio-temporale, per un altro accentuò il proprio malessere di fronte al fatto che il maggior potere dell’uomo sulle cose non sembrava sufficiente a confermare la sua centralità, o a definire il suo ruolo: la messa tra parentesi della realtà fisica immediata sembrava quasi mascherare l’incapacità di dare risposte alle domande esistenziali, rese più inquietanti dall’addensarsi di fosche nubi, che sfociarono in un terribile conflitto e nell’incubo della distruzione atomica, realizzata dalla liberazione di forze naturali che sembravano sfuggire al controllo dell’“apprendista stregone”.

 

La critica sviluppata dalla fenomenologia ai limiti della conoscenza scientifica (Jaspers, Filosofia, 1932; Husserl, La Crisi delle Scienze Europee, 1936) trapassò nel richiamo dell’esistenzialismo all’autenticità ed alla consapevolezza dell’essere e della sua trascendenza.

 

La Scuola di  Francoforte trasferì la ricerca impostata nel 1924 nel clima di Weimar all’esilio americano, sviluppando la teoria critica della società.

 

Iniziava la produzione letteraria di Beckett, descrivendo la solitudine nichilista dell’individuo.

 

13. L’Italia. La scienza italiana, dopo Alessandro Volta, aveva attraversato una lunga fase di mediocrità, che rifletteva l’arretratezza del paese. La borghesia che realizzò l’unità nazionale non era portatrice di un progetto sociale ed economico molto avanzato.

 

Tra ‘800 e ‘900 i soli contributi scientifici di un certo rilievo vennero, con poche eccezioni (Righi), dai matematici, ma in settori piuttosto astratti (Peano, Levi-Civita, Ricci-Curbastro), anche di fisica-matematica, trascurando però la matematica applicata (anche qui con una notevole singolarità, Vito Volterra: equazioni integro-differenziali applicate alla dinamica di popolazioni); oppure direttamente in campo tecnico (Galileo Ferraris; Marconi, il quale però trovò successo il Inghilterra), nel settore elettrico, che conobbe un notevole sviluppo (anche questo, tuttavia, soprattutto in campo impiantistico, rimanendo invece arretrato e dipendente dall’estero nel settore vitale  delle macchine elettriche). L’accelerazione dell’economia italiana ai primi del secolo si basò sul basso costo del lavoro e sul rialzo dei prezzi internazionali. I pochi fisici italiani rimasero legati alle concezioni classiche (poche voci isolate si registrarono sulla teoria della relatività, ma per criticarla), e la chimica rimase in una situazione di arretratezza.

 

La prima guerra mondiale precipitò il paese in una crisi che mise drammaticamente a nudo il ritardo tecnologico e produttivo. Nel clima di aspirazioni e di frustrazione che ne seguì si sviluppò un interesse per le scienze applicate, di cui il fascismo fece la sua bandiera, più ideologica o utilitaristica che basata su un progetto culturale. La filosofia idealistica di Croce e Gentile condusse anzi a risultati di segno opposto, in particolare in biologia, dove prevalse una corrente antimaterialistica ed antipositivistica. Alcuni sviluppi interessanti si ebbero nella chimica applicata.

Nella fisica svilupparono un’opera lungimirante due esponenti del regime, Garbasso e soprattutto Corbino (Ministro della Pubblica Istruzione, 1921), il quale intuì le potenzialità della nuova fisica del nucleo atomico (nel 1929 anch’egli la indicava come una prospettiva per uscire dalla crisi economica) e l’importanza dell’organizzazione scientifica: grazie ad essi si svilupparono contatti internazionali e si formò una generazione di giovani fisici, Persico, Rossi, Occhialini, Pontecorvo, Segre, Amaldi, ma soprattutto Fermi, che dal 1922 mostrò la padronanza della meccanica quantistica ed un’eccezionale flessibilità come teorico e sperimentale. Sotto la sua guida i “ragazzi di Via Panispernasvilupparono un’esperienza avanzata e anticipatrice di ricerca d’équipe, tanto più rimarchevole a fronte della penuria delle strutture e dei mezzi: finché le leggi razziali dispersero il gruppo, e quasi tutti i giovani si rifugiarono all’estero (anche Fermi, aiutato da Bohr, approfittando della consegna del Premio Nobel).

 

 

Dalla “Big Science” all’incubo nucleare

 

14. Solo la seconda guerra mondiale diede all’economia americana l’impulso decisivo per la ripresa: entro il primo anno dall’entrata in guerra, la spesa pubblica statunitense triplicò; il tasso di disoccupazione dimezzò entro il 1942, e dimezzò ulteriormente nel 1943.

 

Il balzo scientifico-tecnico indotto dal conflitto raggiunse proporzioni colossali ed innescò meccanismi nuovi e forme organizzative che avrebbero profondamente segnato gli sviluppi successivi della ricerca scientifica. Ma la famosa lettera di Einstein al Presidente Roosvelt ed il timore della minaccia nazista non sarebbero bastati se non fossero già state create nel decennio precedente le condizioni per un’esperienza di quelle dimensioni. Il “Progetto Manhattandispose di un finanziamento senza precedenti e raccolse migliaia di scienziati e tecnici di discipline diverse a lavorare su un progetto comune, diretto dai militari e coperto da segreto. D’altra parte, la realizzazione della bomba atomica cambiò radicalmente il mondo, le relazioni tra le potenze, i meccanismi economici, le inquietudini degli intellettuali e degli artisti, la mentalità e gli atteggiamenti della gente comune. A partire da allora la collaborazione, diretta o indiretta, degli scienziati con i militari divenne prassi comune.

 

La certezza di Hitler di piegare in poche settimane la Gran Bretagna fu spezzata da un nuovo strumento elettronico che i britannici avevano appena realizzato, il radar, e che i progressi vertiginosi dell’elettronica, aumentando il valore della frequenza (magnetron), resero ancor più efficace.

 

Ma  i militari promossero molti altri settori. Decisivi furono gli sviluppi degli elaboratori elettronici, destinati anch’essi a rivoluzionare la società del futuro. Un Memorandum del 1940 di Norbert Wiener al NDRC (National Defense Research Committee) proponeva il passaggio dai calcolatori analogici a quelli digitali e l’uso di valvole termoioniche. Lavorando tra il 1940 e il 1943 al Radiation Laboratory del MIT su un progetto per una centrale automatica di tiro, Wiener inventò il feedback (retroazione) e scoprì le analogie con il comportamento animale che avrebbero poi dato vita alla neurofisiologia. von Neumann, allora impegnato quale esperto di calcolo e di esplosioni a Los Alamos, concepì il progetto di un elaboratore elettronico moderno. Nel gennaio del 1945 von Neumann e Wiener promossero un convegno interdisciplinare a porte chiuse che costituì di fatto l’atto di nascita della cibernetica (N. Wiener, Cybernetics, or Control and Communication in the Animal and the Machine, 1948). È opportuno osservare come il controllo, l’organizzazione e la comunicazione di dati sia una scelta di metodo e di logica che accomuna la cibernetica e la meccanica quantistica, al di là del contenuto e del formalismo specifici delle due teorie.

 

15. Poche furono le reazioni provocate negli scienziati dall’esplosione delle bombe atomiche su Hiroshima e Nagasaki (agosto 1945). Un solo fisico abbandonò il “Progetto Manhattan”, Rotblat, premio Nobel per la Pace 1995. Agli inizi Franco Rasetti, emigrato in Canada, aveva rifiutato l’invito di Fermi ad unirsi al progetto: dopo Hiroshima egli abbandonò totalmente la fisica e si dedicò alla paleontologia, la geologia e la botanica.

 

Wiener inviò una lettera di dimissioni dal MIT, che però non ebbe seguito; prese però posizione pubblicamente nel 1946, e si dedicò a ricerche di confine tra matematica, neurofisiologia e ingegneria; a differenza, ad esempio, di von Neumann, il quale continuò ad essere coinvolto nei progetti di difesa nazionale.

 

16. Il trentennio che ha seguito la conclusione del conflitto ha costituito una fase eccezionale di sviluppo del capitalismo (quella che Hobsbawm chiama “l’età dell’oro”). Si inaugurò una “economia mista”, caratterizzata da un forte intervento degli stati nel pianificare la modernizzazione economica e accrescere enormemente la domanda: è stata una fase di rigidità nella produzione e nei rapporti di lavoro, basata sull’offerta di beni durevoli in quantità crescenti, e su un mercato di massa in cui beni di lusso vennero ad essere considerati come prodotti necessari. Questo meccanismo è stato garantito da un patto tra capitale e lavoro, con il riconoscimento dei sindacati; da politiche di piena occupazione, in cui salari e profitti sono cresciuti insieme; e da un impegno in direzione dello stato assistenziale e della sicurezza sociale.

 

Lo sviluppo scientifico e tecnologico è divenuto un meccanismo fondamentale, per garantire la continua innovazione dei prodotti. La civiltà di massa ha trasformato radicalmente i modi e i ritmi di vita, l’organizzazione delle città, i rapporti sociali e la mentalità collettiva.

 

Le espressioni artistiche e culturali hanno riflesso l’avvento della società di massa in modi diversi. Da un lato, l’astrattismo e l’arte informale hanno espresso una forte carica irrazionalistica, rifiutando la forma e rinunciando ad una rappresentazione del mondo esterno, producendo di questo una figura alterata irriconoscibile ed esplorando le potenzialità espressive della materia, o elaborando suoni e rumori (musica concreta). D’altro lato si sono sviluppate forme artistiche che hanno utilizzato direttamente quanto la società di massa offriva: la pop art ha sottratto l’espressione artistica all’esperienza soggettiva per ricondurla alla sfera dell’uomo comune massificato, alle ossessive suggestioni della pubblicità e dei mass media, manipolando immagini ed oggetti offerti dalla tecnica;  mentre il progresso tecnico ha aperto alla musica elettronica un universo sonoro inesplorato ed ha offerto la possibilità di intervenire direttamente sulla materia sonora senza il tramite dell’esecuzione (fino alla computer music, che converte i segnali elettrici prodotti da un computer secondo un apposito programma).

 

17. Il “Progetto Manhattan” inaugurò la nuova scala di organizzazione della ricerca scientifica nota come Big Science e ne divenne il prototipo. Dopo la fine del conflitto - mentre le ricerche sullo sviluppo delle armi nucleari procedeva negli USA in grandi laboratori di ricerca militare e in URSS in vere città segrete – la ricerca fondamentale in fisica procedette verso la ricerca della “particelle elementari”, i presunti costituenti fondamentali della materia: la strada che fu seguita fu quella di generare fasci di particelle cariche di energie sempre più alte, per mezzo di macchine acceleratrici sempre più gigantesche (sincrotroni, colliders, supercolliders: derivati idealmente dal principio introdotto da Lawrence nel ciclotrone), in grandi laboratori, a volte internazionali, nei quali lavorano centinaia o migliaia di fisici e di tecnici.

 

C’è da chiedersi se la strada della Big Science fosse davvero la scelta obbligata, ossia richiesta dal tema stesso di indagine. In questi esperimenti si creano condizioni artificiali, estremamente lontane dalle condizioni comuni (tanto che si pretende di riprodurre le condizioni esistenti nelle fasi iniziali del Big Bang, la grande “esplosione” che si vuole abbia dato vita all’intero universo). Se lo studio della struttura dell’atomo agli inizi del secolo avesse imboccato una strada con analoghe caratteristiche, anziché concentrarsi sull’atomo più semplice, c’è da chiedersi se sarebbe giunto ai risultati che conosciamo, o se invece ci avrebbe fornito un quadro diverso. Uno dei fisici nucleari che negli anni ‘30 aveva condotto gli esperimenti più accurati, rimasti fondamentali, sulle forze nucleari – M. Tuve, alla Carnegie Institution di Washington – aveva rifiutato di unirsi al “Progetto Manhattan” (ma diresse un progetto militare molto più piccolo, per realizzare una spoletta di prossimità che giocò un ruolo decisivo nelle battaglie delle Ardenne e del Pacifico): dopo la guerra riprese le ricerche nucleari, ma scelse di lavorare in piccoli gruppi, su problemi di carattere fondamentale; finché abbandonò definitivamente la fisica nucleare “quando si trasformò da uno sport in un business”.

 

18. Una storia singolare, il Giappone. A questo proposito è interessante registrare un interessante caso di una scuola di fisica che sviluppò un’impostazione fortemente nazionale, forse l’ultima prima che i processi di globalizzazione della ricerca scientifica creassero una totale omologazione in tutti i paesi: negli anni ’30 e ’40 la fisica nucleare giapponese elaborò concetti avanzati e talvolta precorritori, ma sostanzialmente alternativi rispetto a quelli della fisica occidentale di quegli anni, e senza adottare le forme organizzative di questa.

 

Dopo una lunghissima fase storica di isolamento, alla fine dell’Ottocento si era incominciato a sentire in Giappone (dopo la sconfitta della Cina nella “Guerra dell’Oppio”) la necessità di aprirsi alla tecnologia ed alla scienza occidentali, ma questa apertura si era sviluppata in un contesto in cui la tradizione culturale era rimasta fortissima.

 

I fisici giapponesi avevano acquisito la meccanica quantistica alla fine degli anni ’20 (Nishina) ed avevano orientato i loro interessi verso la fisica nucleare. Dal 1933 vennero realizzati anche in Giappone i nuovi acceleratori di particelle, ma non si svilupparono né interessi applicativi, né forme di ricerca d’équipe, e tantomeno di Big Science dopo la guerra. Si sviluppò invece un tentativo di elaborare una concezione scientifica unitaria, fondamentale, radicata nella tradizione filosofica giapponese e divergente rispetto alle interpretazioni ed ai modelli elaborati in Occidente: il mesone di Yukawa (1936) non era nella sua concezione solo la particella che media la forza nucleare, ma l’elemento centrale di una concezione più complessa, che non fu percepita pienamente in Occidente. Successivamente, e fino agli anni ‘50, in una condizione di isolamento della fisica giapponese, Sakata adeguò e sviluppò questa idea, nell’ambito di una concezione marxista, introducendo tre costituenti fondamentali della materia ed anticipando in un certo senso l’approccio unitario che si è poi imposto, con una filosofia e moventi assai diversi, negli anni ‘80.

 

19. La fisica delle particelle elementari ha costituito la branca della fisica egemone a livello mondiale nel dopoguerra, quella che ha assorbito le quote più cospicue dei finanziamenti pubblici per la ricerca in fisica in tutto il mondo. Forse gli Stati Uniti si aspettavano da queste ricerche ricadute più concrete, soprattutto in campo militare. In ogni caso la fisica delle particelle elementari ha svolto la funzione di “colonizzare” la fisica degli altri paesi (quelli occidentali in modo diretto, i paesi dell’Est in modo indiretto), inducendoli a concentrarsi nello sviluppo di un campo dominato e controllato dagli USA, lontano da ricadute pratiche, in cui le apparecchiature erano quasi esclusivamente americane, e in ogni caso le applicazioni sarebbero venute in modo mediato, consentendo agli USA di trasferire le conoscenze necessarie nell’area del segreto militare (vi sono documenti ufficiali che testimoniano questo progetto).

 

Altri rami della fisica - come l’elettronica, o la fisica dello stato solido - consentono applicazioni molto più dirette e necessitano di finanziamenti molto minori. La fisica dello stato solido si è sviluppata in Italia in modo estremamente lento, con scarsissimi finanziamenti e tra innumerevoli difficoltà, e solo a partire dagli anni ’70 ha raggiunto un livello decoroso. In questo campo i laboratori delle grandi industrie statunitensi raccolsero rapidamente i frutti di quanto avevano seminato nel decennio precedente: la realizzazione del transistore da parte di Bardeen e Brattain nei laboratori della Bell alla vigilia di Natale del 1947 giunse quasi inaspettata, tanto che l’azienda la tenne segreta e la brevettò nel 1948. I dispositivi a stato solido rivoluzionavano l’elettronica, e da allora le innovazioni si sono succedute a ritmo incalzante.

 

L’astrofisica compiva progressi sconvolgenti. Nel 1952 ci si avvide che le valutazioni delle distanze intergalattiche erano state largamente sottovalutate: le dimensioni dell’universo improvvisamente raddoppiarono, ed un ulteriore raddoppio si ebbe nel 1958. Dagli anni ’20 il volume dell’universo è aumentato di un miliardo di miliardi di volte!

 

In biologia, dopo la formulazione negli anni ‘40 della “teoria sintetica” dell’evoluzione, si ebbe l’esplosione delle ricerche di biologia molecolare, che sfociarono nel primo quadro unitario dei processi biologici. Stabilito che la sintesi delle proteine dipende dai geni (Beadle e Tatum, 1941) e che il supporto di questi ultimi è la molecola del DNA (Avery, MacLeod e McCarthy, 1944; Hershey e Marta Chase, 1952), da un lato Watson e Crick dimostrarono la struttura a doppia elica del DNA (1953) e dall’altro fu determinata la struttura tridimensionale delle proteine (secondaria: Pauling, 1950-51; primaria: Sanger, 1954; terziaria: Anfinsen, 1956-58). La struttura terziaria venne ricondotta alla sequenza lineare degli amminoacidi, preparando così l’incontro tra biochimica e genetica. La base genetica della sintesi delle proteine venne formulata in termini della teoria dell’informazione (il flusso unidirezionale di questa tra gli acidi nucleici e da questi alle proteine eliminava definitivamente l’ereditarietà dei caratteri acquisiti), e divenne la base per il “dogma centrale” della biologia (Crick, 1958), la cui interpretazione rigida introdusse un atteggiamento riduzionistico, unidirezionale nell’interpretazione dei meccanismi dell’organismo vivente (schematicamente: DNA®RNA®sintesi delle proteine).

 

Venne chiarito il funzionamento della catena respiratoria e della fotosintesi.

 

In queste ricerche si svilupparono laboratori specializzati di grandi dimensioni e collaborazioni internazionali che portarono a superare la chiusura delle scuole nazionali.

 

Sono stati lanciati grandi progetti scientifici, quali il Progetto per il controllo chimico della fertilità, le ricerche oceanografiche, l’Anno Geofisico Internazionale. Ma è il caso di segnalare “campagne” molto più riservate condotte da molti paesi su “cavie umane”, ovviamente ignare, per sperimentare gli effetti delle radiazioni nucleari, o di nuove sostanze o farmaci.

 

20. Nel 1955 gli Stati Uniti lanciavano una grande campagna a livello mondiale. Le spese nella ricerca militare per la realizzazione e il perfezionamento delle armi nucleari avevano raggiunto livelli enormi: come sempre, giungeva il momento in cui cercare di trasferire le tecnologie militari al settore civile, per farne una nuova fonte di profitto. La realizzazione delle bombe aveva reso necessaria la realizzazione di reattori nucleari militari nei quali il processo controllato di fissione dell’Uranio-235 produce invece dall’Uranio-238 il Plutonio, un elemento “trans-uranico” non esistente in natura, ma ”esplosivo” nucleare ideale; l’enorme quantità di energia prodotta nei reattori dalla fissione controllata aveva costituito fino ad allora solo un problema, imponendo costosi sistemi di raffreddamento. Giungeva il momento per ammortizzare e mettere a frutto questi investimenti, la ricerca di base e la tecnologia già sviluppate, lanciando la campagna dell’“Atomo per la Pace”: in una Conferenza mondiale (del mondo occidentale) nel 1955 a Ginevra venne proposto il mito dell’energia inesauribile e a basso costo, attraverso l’utilizzazione massiccia in tutto il mondo di reattori nucleari (naturalmente venduti dagli USA) per trasformare l’energia da essi prodotta in energia elettrica. Sub-conferenze vennero immediatamente promosse in molti paesi, con l’adozione di ambiziosi programmi nucleari. Il progetto non si è poi sviluppato con le dimensioni che si preventivavano (migliaia di centrali, mentre ci si è fermati a poche centinaia, e pochi paesi sono arrivati a produrre una percentuale significativa dell’energia elettrica per questa via), ma i profitti non sono certo mancati; e un paese come la Francia (e probabilmente anche l’URSS) ha potuto sostenere la realizzazione della “Force de Frappe” nucleare proprio con l’integrazione dell’industria nucleare militare e civile.

 

21. L’URSS. L’esperienza sovietica aveva intanto prodotto una serie di effetti notevolissimi, anche se di valenze assai diverse, nel campo scientifico e culturale.

 

Sul piano generale l’esperienza della pianificazione aveva provocato una cesura, che forse la storia economica non ha ancora valutato appieno, anche nei paesi capitalisti, anticipando molti aspetti della politica del New Deal.

 

L’attività scientifica aveva ricevuto un impulso enorme, stimolata dall’eliminazione della struttura zarista, coniugando l’elaborazione teorica con l’attività sperimentale nel segno da un lato di una forte impronta ideologica, che produsse risultati contrastanti, ma dall’altro anche della definitiva accettazione della tecnologia occidentale e del dominio dell’economia occidentale, in particolare della folle e suicida corsa agli armamenti.

 

Certo non mancarono posizioni ideologiche che produssero danni notevoli tanto alla scienza quanto alla produzione sovietiche (basti per tutti il “caso Lysenko”). La resistenza ad accettare l’impianto logico della meccanica quantistica diede luogo anche a riflessioni fisiche profonde, e non limitò la fecondità della fisica sovietica (Landau).

 

È rimasta notevole la scuola matematica russa, con un approccio sistematico e sistemico che ha portato, e ancora porta, contributi importanti di carattere fondamentale.

 

La fase di vitalità della cultura sovietica si espresse nel formalismo e nel costruttivismo; consentì alla straordinaria capacità espressiva di Ejzenštjn di coniugarsi con l’esuberanza ritmica e coloristica di Prokof’ev.  Stalin pose fine a queste esperienze ed inaugurò il periodo del “realismo socialista”, reso ancor più rigido nel periodo zdanovista. Solo la morte di Stalin (1953) aprì la fase del “disgelo” e rivitalizzò la genuinità delle espressioni culturali ed artistiche.

 

22. Il lancio dello “Sputnik” sovietico nel 1957 provocò negli USA un vero shock: improvvisamente l’Occidente sentiva minacciata il proprio primato, proprio sul terreno tecnologico sul quale il divario sembrava incolmabile. Il settore missilistico ed il controllo dello spazio attorno alla Terra erano cruciali dal punto di vista della sicurezza e della superiorità militare. La reazione fu energica ed immediata e rafforzò i meccanismi del neocapitalismo. Si andò dalla redazione di nuovi manuali scientifici per una preparazione più solida degli scienziati e dei tecnici, all’accelerazione dei programmi missilistici: nel 1958 fu messo in orbita il primo satellite artificiale americano (“Explorer I”) e venne creata la NASA, diretta dallo scienziato nazista creatore delle V2, Wernher von Braun, il quale realizzò il  missile Saturno che poco più di dieci anni dopo portò il primo uomo sulla Luna (20.07.1969).

 

Anche se la fase di maggiore tensione della Guerra Fredda sembrava passata (1950-53, guerra di Corea), si verificò un’accelerazione della corsa agli armamenti e della competizione per il controllo dello spazio: nel 1962, con la crisi dei missili a Cuba, il mondo ebbe la sensazione di avere sfiorato un conflitto nucleare.

 

Anche la ricerca scientifica ricevette un ulteriore impulso ed accentuò il processo di specializzazione che si era avviato nel dopoguerra.

 

Sul terreno culturale, probabilmente lo strutturalismo ha costituito l’ultimo progetto sotteso da un certo intento unitario (di stampo prettamente francese), ancorché sia stato profondamente diviso tra i suoi protagonisti, i quali spesso hanno rifiutato questo appellativo: l’intento, aristocratico e antiumanistico, di considerare il mondo umano alla stregua di qualsiasi campo di indagine delle scienze naturali, e di scoprire relazioni sistematiche e costanti (strutture) tra i fenomeni socio-culturali.

 

 

Dalla crisi degli anni ’70 alla nuova rivoluzione tecnico-scientifica

 

23. La guerra del Vietnam (1965-73) segnò un punto di svolta su tutti i piani: da un lato per l’utilizzazione spietata e spregiudicata di tutti i tipi di armi esistenti, utilizzate indifferentemente su tutti cittadini inermi, donne, bambini; dall’altro per i grandi movimenti di protesta che provocò negli USA e in tutto il mondo.

 

La fine della guerra del Vietnam coincise con lo scoppio della crisi petrolifera e con gli stadi terminali della lunga agonia del sistema monetario internazionale, ponendo fine così al periodo eccezionale di sviluppo capitalistico che era iniziato nel dopoguerra.

 

La lunga fase di crisi che si aprì ha trasformato radicalmente i cicli e i processi produttivi (anche per vanificare gli strumenti di controllo e di intervento che avevano dato forza ai movimenti di contestazione della fine degli anni ‘60), l’organizzazione e la natura stessa della produzione.

 

Non è qui il caso di addentrarsi nel dibattito sulle trasformazioni produttive ed economiche innescate negli ultimi tre decenni e tuttora in atto (“società post-industriale”, “post-fordismo”, ecc.). Ci interessa piuttosto cogliere alcuni aspetti che hanno una connessione più diretta con gli sviluppi tecnico-scientifici, anche se si tratta di processi che stiamo tuttora vivendo e per i quali non è possibile il distacco necessario per un’analisi obiettiva e completa.

 

Il sistema economico è passato dalla rigidità che caratterizzava la fase precedente ad una crescente flessibilità, tanto tecnologica e produttiva, quanto del mercato del lavoro. Si è chiusa la fase di piena occupazione ed alti salari, fondata sulla produzione standardizzata di massa e a bassi prezzi: anche se non sono certo stati abbandonati i metodi dell’obsolescenza programmata delle tecniche e dei modelli con l’introduzione di nuovi prodotti, si è passati da una crescita estensiva ad uno sviluppo intensivo, compatibile con la saturazione dei mercati, basato sulla creazione di nuovi settori industriali ed una profonda trasformazione delle imprese, del mercato e dei loro rapporti. I nuovi settori trainanti si basano in larga misura su tecnologie leggere: microelettronica, software e computer, telecomunicazioni, macchine utensili e robot industriali, biotecnologie, nuovi materiali, aviazione civile, oltre naturalmente all’industria militare.

 

Il crollo del Blocco Socialista aveva almeno sollevato la speranza che si aprisse una fase di disarmo nucleare, di distensione e di pace: l’ultimo decennio del secolo ha invece duramente smentito queste speranze ed ha portato ad un mondo unipolare, ad un imbarbarimento delle relazioni internazionali, a politiche di neocolonialismo selvaggio, di interventismo militare, di sviluppo di armi sempre più micidiali (convenzionali e nucleari). Si è assistito ad una esasperazione dei meccanismi capitalistici: politiche neoliberistiche volte ad eliminare qualsiasi limitazione ai meccanismi sfrenati di mercato sono state imposte a livello globale con la forza della super-potenza imperiale, spudoratamente sostenuta dagli organismi internazionali, quali la Banca Mondiale, il Fondo Monetario Internazionale, l’Organizzazione Mondiale del Commercio.

 

24. Tutto questo ha richiesto un rilancio ed una ulteriore specializzazione dello sviluppo tecnico-scientifico: si è sviluppata una vera terza rivoluzione tecnico-scientifica, della quale non si vedono ancora chiaramente gli esiti finali.

 

Il rilancio della ricerca scientifica è stato sempre più vertiginoso, il proliferare delle branche e sottobranche specialistiche sempre più incalzante. Non sembra nemmeno pensabile oggi svolgere un’analisi degli sviluppi tecnico-scientifici che abbia qualche ambizione di sistematicità o di completezza. Sul piano delle concezioni scientifiche di base – quelle hard delle scienze fisiche – il livello di estrema formalizzazione raggiunto dalla meccanica quantistica si è dimostrato sufficiente a “reggere” l’impatto di questa proliferazione. Anche perché i super-specialismi che hanno accompagnato il processo hanno di necessità fortemente diminuito le possibilità di controllarlo effettivamente in qualsiasi modo: sembra esservi in qualche modo una sorta di deregulation anche nel processo di produzione della scienza. La maggiore rivista scientifica di fisica (Physical Review) pubblica ogni anno decine di migliaia di pagine di articoli, suddivisi in varie sezioni, mentre è aumentato vertiginosamente il numero di riviste su argomenti specializzati: oggigiorno uno scienziato deve selezionare drasticamente anche l’informazione scientifica che viene prodotta nel settore in cui lavora, per restringersi sempre più al ristrettissimo campo delle sue competenze più dirette.

 

Indubbiamente l’informazione ha costituito un nuovo asse portante di questo processo, anche se appare infondato parlare di “smaterializzazione” della produzione: sembra semmai che la “deindustrializzazione” dei paesi più avanzati abbia coinciso con il decentramento della produzione nei paesi sottosviluppati, corrispondente a forme di feroce neo-colonialismo. Ma indubbiamente lo strumento informatico è alla base della flessibilità produttiva, del decentramento e delle nuove forme di controllo, con cui si sono scalzate le grandi concentrazioni operaie e le loro tradizionali forme di lotta. Lo stesso strumento ha reso possibili le transazioni e le speculazioni finanziarie che ogni giorno muovono colossali somme di denaro. I progressi tecnici in questo settore sono stati strabilianti e stanno sconvolgendo le nostre forme di vita e di relazioni sociali.

 

La straordinaria moltiplicazione delle possibilità di comunicazione ha accentuato l’atomizzazione dei rapporti sociali: si può “dialogare” con i più sperduti angoli del mondo (beninteso, sviluppato e ... bianco: in Africa la stragrande maggioranza della popolazione è esclusa dalle meraviglie del benessere) senza sapere con chi si ha realmente a che fare. La realtà virtuale offre un rifugio dalle frustrazioni della realtà vera, ma indebolisce l’impegno per trasformare quest’ultima. Il web offre la possibilità di acquisire informazioni su tutto, di immettere in rete le proprie conoscenze e proposte, ma questa libertà assoluta si accompagna all’impossibilità crescente di discernere le cose serie e importanti, di controllare le fonti e la veridicità, e si presta ad operazioni incontrollate di manipolazione dell’informazione.

 

Non a caso Internet ebbe un’origine militare, e i progetti di cyber war (sperimentati recentemente nella guerra nel Kossovo) dischiudono scenari allarmanti, intrecciandosi strettamente con il controllo militare dello spazio attorno alla Terra, ormai intasato fino all’inverosimile di satelliti e “spazzatura” di ogni genere. Mentre Echelon costituisce una rete di controllo e spionaggio capillare estesa dagli Stati Uniti e dai suoi fedeli satelliti su tutto il mondo.

 

25. Non meno sconvolgente è il caso delle biotecnologie. Le conoscenze sulla struttura, le funzioni e i meccanismi fondamentali dell’organismo vivente avevano compiuto passi da gigante. In particolare, le interrelazioni tra il codice genetico, l’organismo e l’ambiente sono risultate enormemente più complesse di quanto fosse stato stabilito inizialmente con il “dogma centrale della biologia”.

 

Questo progresso vertiginoso delle conoscenze ha consentito di mettere a punto all’inizio degli anni ‘70 negli USA complesse metodiche e tecniche di manipolazione mirata del materiale genetico (ingegneria genetica), per dare vita a nuove combinazioni molecolari, fino ad ottenere un intero organismo modificato geneticamente (organismi transgenici). Queste tecniche, sempre più sofisticate, sono state estesamente utilizzate dalle grandi imprese multinazionali, anche ai fini di uno scandaloso sfruttamento più intensivo dei paesi sottosviluppati.

 

Si può dire che la biologia si trova di fronte ad una contraddizione profonda. Da un lato, negli ultimi decenni, essa ha pienamente superato la rigida interpretazione del “dogma centrale della biologia molecolare”, acquisendo una piena consapevolezza della complessità del vivente: è ormai chiaro, in primo luogo che qualsiasi intervento umano su un elemento del sistema vivente, ai diversi livelli di organizzazione, è destinato a ripercuotersi, almeno in parte in modo imprevedibile, sugli altri elementi connessi dello stesso sistema; in secondo luogo, che nel funzionamento del sistema vivente è insito un disordine, una variabilità, che è una condizione necessaria per il suo adattamento ed equilibrio, e che non può venire forzato imponendo al sistema comportamenti rigidi, che impediscano l’utilizzazione piena della sua possibilità di cambiamento, delle sue fonti di libertà. D’altro lato, però, i biologi intensificano il loro impegno spregiudicato con le multinazionali del settore biotecnologico ed agroalimentare per intervenire in modo sempre più invasivo sugli organismi viventi, modificando direttamente il loro codice genetico per produrre varietà funzionali alle strategie di dominio monopolistico globale e di profitto del settore: nel caso degli organismi geneticamente modificati (o.g.m.) essi avallano spudoratamente la tesi secondo cui tali modificazioni sono completamente controllate e questi organismi non costituiscono alcun pericolo per l’organismo umano e per l’ambiente. Altre volte le manipolazioni della materia vivente vengono giustificate sulla base di grandi promesse di guarigione di infermità, o di preparazione di nuovi farmaci: ma non si vedono ancora all’orizzonte chiare discriminanti tra le possibili applicazioni utili e ragionevoli e quelle invece sconsiderate, o chiari limiti che possano fornire garanzie sufficienti, sulla base dei criteri accennati.

 

26. Le acquisizioni più avanzate della biologia si sono realizzate negli stessi anni in cui si è assistito all’esplodere del problema ambientale. A questi sviluppi si è accompagnata una rivoluzione concettuale nelle concezioni scientifiche, la cui concomitanza e consonanza non può essere casuale.

Fino agli anni ‘60 le scienze esatte avevano considerato il mondo come lineare; tutti i modelli fondamentali elaborati dalla fisica (la scienza naturale esatta per eccellenza, fonte ed ispiratrice di modelli per tutte le discipline) erano di questo tipo: il risultato dell’azione di due fattori è in sostanza la somma dei risultati di ciascuno dei due fattori separatamente; in particolare, l’influenza di una fattore perturbatore piccolo non modifica in modo sostanziale il comportamento del sistema (sistemi non-lineari erano ovviamente ben noti e studiati, ma sembravano costituire l’eccezione e non certo la regola nel comportamento della natura). Ma a partire dagli anni ‘60 hanno cominciato a moltiplicarsi gli esempi, legati a fenomeni e processi molto comuni, di sistemi aventi comportamenti chiaramente e fortemente non-lineari. Uno dei primi è stato proprio un modello super-semplificato dell’atmosfera terrestre, per il quale l’americano Lorenz trovò comportamenti incontrollabili e in apparenza caotici (attrattori strani): da allora si sa che l’incertezza e l’imprevedibilità delle previsioni meteorologiche non sono dovute ai limiti dei modelli utilizzati, ma al fatto che l’impossibilità di conoscere con assoluta precisione lo stato dell’atmosfera rende intrinsecamente impossibile fare predizioni certe sul suo comportamento futuro. In un sistema non-lineare la presenza anche di un piccolo effetto di perturbazione può essere in grado di indurre nel sistema conseguenze drammatiche ed imprevedibili: è opportuno sottolineare che si tratta di sistemi “deterministici” (il cui comportamento può cioè essere predetto con certezza se si conosce esattamente il loro stato), per i quali però lo stato ad un dato istante non può essere determinato con esattezza. Un modo efficace e pittoresco (anche se un po’ paradossale) di esprimere questa proprietà (detta anche “caos deterministico”) è il cosiddetto “effetto farfalla”: il batter d’ali di una farfalla ai tropici potrebbe provocare tra qualche giorno una tempesta su di noi.

 

Si è così sviluppata quella che si chiama ormai la Scienza del caos” (o dei sistemi complessi), anche se in realtà assai composita al suo interno. Si è ormai coscienti che la non-linearità non costituisce affatto l’eccezione, ma la regola nei comportamenti naturali. Il “paradigma” della fisica newtoniana deve essere radicalmente riveduto (anche se domina tuttora indisturbato nei manuali scientifici): poichè non è mai possibile determinare con precisione assoluta lo stato di nessun sistema, ci si devono aspettare sempre comportamenti caotici imprevedibili; oggi si sa che anche l’”orologio cosmico” per antonomasia, il sistema solare, presenta comportamenti caotici.

 

È evidente la rilevanza di questa nuova concezione per quanto concerne lo studio e l’interpretazione dei fenomeni biologici e degli ecosistemi. Essa si è anzi rivelata essere una proprietà positiva, benefica: come si è già accennato per i sistemi biologici, la variabilità propria di un sistema non-lineare costituisce una fattore essenziale per il suo adattamento.

 

Di fronte a questa nuova concezione sembra tuttavia che un po’ tutta la comunità scientifica sia tutt’ora pervasa da una profonda contraddizione, al pari di quanto già abbiamo rilevato per i biologi. Anche tra i fisici, ad esempio, il nuovo paradigma è accettato da una nuova generazione, ma la maggioranza dei fisici legati all’ideale riduzionistico della fisica delle particelle elementari (e probabilmente agli interessi concreti ed ai meccanismi di potere che ruotano attorno ad essa) sembra non riuscire neppure a capire la nuova impostazione, le sue basi e le sue implicazioni. Di fronte a questa contrapposizione è però difficile sfuggire all’impressione che gli stessi “scienziati del caos” non riescano a sottrarsi alla tendenza alla specializzazione ed alla frammentazione. Lo studio dei sistemi complessi si è suddiviso anch’esso in sezioni molto specialistiche, che si sono concentrate su modelli o approcci molto specifici: questo processo ha indubbiamente facilitato l’approfondimento degli studi rigorosi, ma rende più difficile la costituzione di un quadro unitario dei nuovi sistemi e delle nuove proprietà.

 

27. È naturalmente impossibile cercare di prevedere quali sviluppi ci riserverà il secolo che si è appena aperto. Indubbiamente i cambiamenti che si prospettano saranno radicali, ed è probabile che sconvolgeranno l’assetto del Pianeta. Il divario tra paesi ricchi e paesi poveri (più in generale tra ricchi e poveri, dovunque) sembra aumentare spietatamente. La crisi ambientale sembra destinata ad aggravarsi, e la “presa del potere” di Bush nel centro dell’Impero non fanno certamente ben sperare. Lo scempio e lo spreco delle risorse del Pianeta non potrà seguitare all’infinito, senza che questo si ribelli, oltrepassi un punto di non ritorno, forse molto prima che le risorse si esauriscano fisicamente. A meno che questo non accada ancor prima con una escalation militare che sfugga di mano. La scienza e la tecnologia mostrano sempre più spudoratamente la loro complicità col potere: il loro impegno spregiudicato per trasformare qualsiasi cosa in profitto oltrepassa di gran lunga l’impegno (che pure esiste) per la soluzione dei problemi ambientali, del problema della fame di un quarto dell’umanità, per debellare malattie come la malaria (la quale ha il grande... “pregio” di mietere vittime tra gli africani); spesso, anzi, gli interventi in questo senso si trasformano in nuove fonti di profitto (come il business del “disinquinamento”).

 

Ma forse tutti questi aspetti sono legati più strettamente di quanto di solito si sia soliti pensare. Forse gli Stati Uniti si sono ormai resi conto che le risorse e le capacità dell’ambiente naturale sono limitate, che su questo Pianeta nel futuro non ci sarà posto per tutti (a meno, ovviamente, che i più ricchi rinuncino ai loro privilegi: l’ultima cosa che saranno disposti a fare), e che quindi bisogna conquistare e difendere all’arma bianca (magari in nome dei diritti umani) fino all’ultima goccia di petrolio. Questo probabilmente sta alla base dell’imbarbarimento dei rapporti internazionali, delle brutali politiche di saccheggio delle risorse, fino all’interventismo militare diretto per il controllo delle regioni strategiche e dei corridoi di comunicazione, che hanno tristemente contrassegnato l’ultimo decennio del secolo che si è chiuso.

 

---o0o---

 

La ricostruzione che abbiamo presentato non ha solo il grande limite di un estremo schematismo, almeno in parte inevitabile a causa dei limiti di spazio. È una storia scritta da un fisico, anche se animato da vasti interessi interdisciplinari e culturali.

 

Ma è anche una storia della scienza e del pensiero “occidentali”: è vero che la grande originalità ed i grandi contributi scientifici di altre civiltà (cinese, indiana, araba, maya, ecc.) si sono andati esaurendo nell’età moderna, e che la scienza “occidentale” - la sua struttura logica e metodologica, i suoi campi di indagine, la sua struttura organizzativa - ha ormai invaso (colonizzato?) l’intero pianeta; tuttavia sarebbe estremamente importante ricostruire, recuperare, valorizzare saperi antichi ma tuttora fecondi (bene lo sanno le multinazionali, le quali praticano la “biopirateria”, brevettando sostanze naturali e conoscenze popolari), aspetto non meno prezioso della biodiversità (in questo caso umana) del Pianeta, in gravissimo pericolo di estinzione, di omologazione, di appiattimento unidimensionale.

 

È anche una storia basata quasi unicamente sulla scienza e la cultura prodotte da soggetti di genere maschile: è vero che tali soggetti hanno di fatto monopolizzato l’elaborazione in questi campi, così come la vita economica e politica; ma anche in questo caso bisognerebbe ricostruire (molte studiose hanno incominciato a farlo) le grandi difficoltà che le donne hanno incontrato, le discriminazioni a cui sono state soggette.

 

Ringraziamenti

Il primo ringraziamento va all’amico Luigi Cortesi, per avermi stimolato a cimentarmi in questo impegnativo compito. Per molte delle tesi qui presentate è stata fondamentale la mia collaborazione con Arcangelo Rossi negli anni ’70 e ’80. Ma ritengo doveroso ed importante ricordare qui che molte di queste idee erano maturate nel lavoro e nella riflessione con il “Collettivo Politico degli Studenti di Fisica” dell’Università di Firenze nei primi anni ’70; la critica radicale che il movimento studentesco propose della Scienza fu tutt’altro che uno “slogan”: il fermento, intellettuale e pratico, di quegli anni costituì lo stimolo fondamentale per rompere vecchi schemi e riflettere in modo originale sulla realtà. Le chiavi di lettura del Novecento alla base della presente analisi furono anticipate in una nota interna dell’Istituto di Fisica dell’Università di Lecce del gennaio 1977 di A. Baracca, G. Battimelli, S. Craparo, F. Marchetti, A. Rossi, e A Russo: “Radici Strutturali dei Principali Sviluppi Culturali e Scientifici del900: un Contributo al Dibattito”.

 

Un ringraziamento a Mauro Cristaldi per la discussione di alcuni aspetti delle Scienze Biologiche ed i suoi suggerimenti dopo la lettura del manoscritto, a Hisao Fujita Yashima per uno scambio di idee sulla scienza giapponese, e a Leone Montagnini per avermi chiarito e approfondito alcune intuizioni sui nessi tra Fisica e Cibernetica.

 

               

 

Inserito: 18 novembre 2009

Scienza e Democrazia/Science and Democracy

www.dipmat.unipg.it/~mamone/sci-dem