Angelo Baracca
Il
secolo tecnologico:
scienza, tecnologia e società nel Novecento
L’ideologia della superiorità, del potere
illimitato e dell’assoluta oggettività della scienza non è sempre esistita nel
mondo moderno, e comunque non ha mai avuto la forza
che ha assunto nel corso del XX° secolo, che ha
visto di fatto il trionfo della scienza e della tecnica su tutti i piani, e nel
quale gli scienziati sono divenuti i depositari del sapere, i nuovi “sacerdoti”
non tanto della conoscenza, quanto dell’ideale prometeico
di controllare e modificare la natura. Questa ideologia ha assunto la forza del
mito – il mito del progresso e dello sviluppo – ed ha
anestetizzato le coscienze, occultando naturalmente i nessi sempre più stretti
tra gli sviluppi della scienza, gli interessi economici, gli orientamenti
sociali.
Gli scienziati sono uomini come gli altri
e sarebbe semplicemente inconcepibile che nel
rapportarsi all'oggetto del loro studio non lo facessero con l'intenzionalità e
lo spirito che deriva loro dal fatto di vivere ed operare in una data società,
condividendone gli obiettivi e le inquietudini. Ma il potere che deriva loro
dal loro sapere non fa di essi cittadini come gli
altri: essi svolgono un ruolo particolarmente efficace nel prefigurare,
orientare, rendere operanti ed efficaci le scelte concrete, le soluzioni ai
problemi più sentiti del momento; siano esse soluzioni tecniche, di
organizzazione del lavoro, di cicli produttivi, di concorrenza commerciale,
ecc. Ne deriva il particolare ruolo di complicità che la “comunità scientifica”
ha sempre svolto nei confronti del potere, e che è ripagato dalla posizione
privilegiata che essa ricopre: complicità a cui l'ideologia dell'oggettività
della scienza e della distinzione artificiosa tra conoscenza pura e suo uso
fornisce una massiccia copertura e giustificazione.
La scienza non è neutra perché non
esiste, e non è mai esistita, l'osservazione pura e
disinteressata della natura; la natura stessa è sempre data all'uomo solo
attraverso il filtro delle sue intenzioni e delle sue scelte. É in questo modo
che la conoscenza scientifica, teorica e pratica, il rapporto
storicamente determinato dell’uomo con la natura, come tutta
la cultura, portano il marchio dei rapporti sociali
nel cui ambito si sono sviluppate (Marx sosteneva che le forze produttive sono
plasmate dai rapporti di produzione: una concezione purtroppo abbandonata dalla
parte preponderante del "marxismo" successivo).
La scienza moderna è un prodotto della
società capitalistica occidentale: essa ha rovesciato il presupposto che è
stato alla base del sapere di grandi civiltà, e cioè
il rispetto dei meccanismi e degli equilibri della natura, adottando invece un
atteggiamento di controllo ed intervento sulla natura per modificarne e
sfruttarne i processi e le risorse a fini di profitto. Le gravi conseguenze di un
tale atteggiamento – a cui la scienza fornisce il
pretesto e il supporto delle sue procedure rigorose – stanno venendo al pettine
dagli ultimi decenni del secolo che si è chiuso, con la drammaticità della
crisi ambientale, con gli scandalosi problemi della povertà, della fame e delle
malattie, con gli effetti sempre più micidiali delle guerre scatenate per il
controllo delle risorse del Pianeta. Ma
l'atteggiamento generale degli scienziati non sembra cambiare, con poche
eccezioni.
L’ideologia che supporta il “mito”
della scienza viene spesso giustificata con argomenti
apparentemente inconfutabili, per la loro riconosciuta “ovvietà”: la sconfitta
di micidiali malattie (in prima fila, oggi, la promessa di salvarci dall’Aids),
le meraviglie delle tecnologie dell’informazione e della comunicazione, e così
via. Argomenti quasi scontati se ci si appiattisce su questa stessa ideologia,
in un tautologico circolo vizioso: pur di rimuovere,
cioè, inezie quali l’imperversare della malaria (“naturalmente” in Africa), la
probabile origine dell’Aids proprio da quei laboratori tecnologicamente
avanzati (se non addirittura una sua “invenzione” transgenica,
come sostengono autorevoli specialisti e Premi Nobel, emarginati poi della
“corporazione” scientifica), o la falcidia di vite umane in conflitti armati in
cui vengono sperimentate quelle stesse tecniche raffinate, poi così benefiche
per le nostre vite; mentre vengono subito rimosse sconvolgenti denunce, quali
lo spaventoso ed inarrestabile aumento di turbe psichiche o di affezioni
allergiche nei bambini (per non parlare ovviamente dei milioni di essi - che
non fanno più neppure notizia - che muoiono di fame o malattie, o sono
abbandonati nelle strade, o uccisi da squadroni della morte), il dilagare di
affezioni legate alle condizioni di stress della vita moderna e di inquinamento
per cause belliche, industriali, agricole, ecc. Tutte circostanze considerate
l’inevitabile prezzo da pagare per il progresso. Mentre è ugualmente rimosso
l’immanente incubo nucleare, e i drammatici problemi ambientali diventano
pretesto per raffinati studi e dotte discussioni che non alterano le scelte
economiche e politiche, e garantiscono anzi ulteriori
profitti.
Non è stata ancora scritta, ma sarebbe
estremamente illuminante, una storia dell’umanità che
analizzi il contributo determinante del progresso tecnico-scientifico nello
sgominare i movimenti di contestazione sociale, espropriandoli degli strumenti
conoscenza e controllo dei meccanismi produttivi e sociali che avevano
acquisito, rivoluzionando le basi tecniche della produzione, e consentendo così
al capitalismo di uscire rafforzato dalle sue ricorrenti crisi storiche.
Su questa base cercheremo di mettere a
fuoco, in modo problematico, le principali svolte
scientifiche del secolo che si è chiuso, insieme alle fasi di sviluppo
economico e sociale e alle concomitanti ristrutturazioni dei loro fondamenti
materiali, della loro consapevolezza ideologica (o falsa coscienza) e delle
loro concezioni di fondo.
È superfluo, ma doveroso,
sottolineare l’inevitabile schematismo dell’analisi che segue, la quale
richiederebbe ben altro spazio, oltre che l’approfondimento di aspetti che
devono ancora essere oggetto di ulteriore indagine: quelle che seguono sono in
parte indicazioni di lavoro, analogie che servono per individuare i tratti
comuni di correnti scientifiche e culturali proprie di un ambiente in una
determinata epoca storica. Non credo però che si tratti di analogie
ingiustificate, in quanto esse sono riferite sempre alla situazione e agli
sviluppi strutturali. È importante tenere conto che il cammino della scienza,
come quello della cultura o dell’arte, spesso non è lineare e omogeneo:
ricostruire storicamente una razionalità di questi sviluppi a grandi linee è
un’operazione che ha senso, anche se un’analisi più approfondita e dettagliata
dovrà tenere conto degli sfasamenti, delle anticipazioni e dei ritardi, di alternative presenti o latenti, dell’influenza di forti
personalità individuali che danno sempre un’impronta originale e
inconfondibile, anche se la storia non può ridursi ad esse (Einstein
non è la fisica del
nuovo secolo, come Picasso non è la pittura: anche se la loro influenza è
stata determinate).
Per di più, sebbene il ritmo dello sviluppo scientifico
sia aumentato vertiginosamente negli ultimi decenni, lo spazio che qui ad essi si è dedicato è proporzionalmente minore, in parte per
la mancanza di una sufficiente prospettiva storica, in parte per la complessità
stessa di tali sviluppi: si è preferito concentrare l’analisi sui cambiamenti
metodologici e pratici di fondo, sulla ristrutturazione dei paradigmi; in
particolare sul processo di formalizzazione della scienza, che al moltiplicarsi
degli sviluppi specialistici ha fornito la base necessaria, asettica e
flessibile, svincolata dai significati e dai contenuti specifici. Questa, mi
pare, è la premessa necessaria per cercare di cogliere anche la complessità
degli sviluppi attuali. Anche se l’aggravarsi dei problemi globali
e la concomitante comparsa della “scienza del caos”, parallela allo sviluppo
dell’intervento scientifico sul vivente, testimoniano l’acuirsi delle
contraddizioni.
La transizione
tra Ottocento e Novecento
1. Il nuovo secolo si aprì con una
radicale rivoluzione delle concezioni della Fisica (teorie dei quanti, teoria
della relatività, termodinamica statistica), che sovvertì profondamente il modo
di concepire la Natura e di rapportarsi ad essa: quali
furono la vera natura di questa rivoluzione scientifica, le motivazioni che la
sottendevano? La risposta a questa domanda ne presuppone un’altra: che funzione
svolgeva il meccanicismo che alla fine
dell’Ottocento permeava tanto la filosofia e la cultura, come l’impostazione
pratica ed ideologica della scienza?
La prima fase dell’industrializzazione
– fin verso la metà dell’Ottocento - si era basata sull’inventiva che
caratterizzava lo spirito imprenditoriale della classe borghese: l’elaborazione
scientifica aveva mantenuto un ruolo subalterno
all’innovazione tecnica, e l’atteggiamento empirista e fenomenista
fondato sull’oggettività dei soli dati di esperienza ed il rifiuto di ipotesi e
modelli, teorizzato dalla prima filosofia positivista, aveva fornito la
necessaria base ideologica del nuovo ordine sociale e culturale, rispetto alle
speculazioni e all’arbitrarietà che avevano invece contrassegnato quello
precedente. Alla scienza si richiedeva, in questo contesto,
di fornire spiegazioni delle innovazioni tecniche, al fine di perfezionarle ed
estenderne l’applicazione.
Ma la nuova fase che si era aperta
dopo la metà del secolo, con la comparsa di nuovi attori - in primo luogo la Germania - apriva prospettive diverse e poneva esigenze
inedite. I paesi in cui decollava la rivoluzione industriale
si trovarono a competere con la poderosa industria britannica, che vantava un
secolo di vantaggio: la via maestra che si presentò fu quella di rinnovare
profondamente le basi tecnologiche dello sviluppo. Non può considerarsi una
coincidenza, o un’astuzia della storia il fatto che la
comunità scientifica tedesca e mittel-europea abbia costituito l’élite
scientifica mondiale dagli ultimi decenni del secolo XIX ai primi decenni del
secolo XX: la comunità scientifica tedesca si fece materialmente carico del
compito storico e di fatto seppe sussumerlo
nell’impostazione del proprio lavoro, fornendo effettivamente gli strumenti
adeguati. La prima esigenza per realizzare questo obiettivo
consisteva nel raggiungere un livello di elaborazione scientifica che non
lasciasse l’innovazione alla genialità dell’inventore, ma che fornisse una base
più sicura per guidare la scoperta di nuovi campi e processi. Di fatto, il
presupposto ideologico empirista della prima metà del secolo venne quasi
repentinamente capovolto (1856-59, Clausius, Maxwell: uso ed accettazione di modelli cinetici dei gas e
di modelli di fluidi in elettromagnetismo; 1859, accettazione del modello
atomico molecolare in chimica e suo uso intensivo per elaborare modelli della
struttura molecolare e progettare nuove molecole; ricorso dichiarato a
procedimenti ipotetici da parte di Darwin, 1859): i modelli vennero ora esplicitamente accettati come strumenti ipotetico-deduttivi, “sonde” per esplorare ambiti
ignoti, proprio perché – essendo basati su entità non osservabili e trattati in
termini matematici rigorosi – sono in grado di andare al di là del quadro empirico
e di predire proprietà o processi nuovi. Il successo di
questa impostazione è provata, ad esempio, dagli innumerevoli processi e
prodotti innovativi realizzati da uno dei settori tecnologicamente più
avanzati, l’industria chimica tedesca, in stretta collaborazione con i
Politecnici e le Università, dove venivano intanto poste le basi della moderna
chimica-fisica; o dalla scoperta di Hertz nel 1873 delle onde
elettromagnetiche, predette dai modelli di Maxwell
del campo elettromagnetico.
Questi sviluppi, se da un lato
fornirono la base tecnologica della Seconda Rivoluzione Industriale, sul piano
scientifico condussero alla nascita di nuove branche specialistiche basate su modelli specifici. Si rendevano pertanto necessari nuovi
criteri metodologici: il riferimento diretto ai dati sperimentali, che aveva
costituito la base della scienza precedente, non poteva più fornire infatti la base comune. Fu proprio in questo senso che il meccanicismo fornì il nuovo contesto unificante atto a
ristabilire un controllo sulla dinamica diversificata dello sviluppo
scientifico, sul proliferare delle branche e delle assunzioni modellistiche non
direttamente osservabili e molto specifiche, la cui efficacia predittiva
risiedeva proprio nella loro libertà di principio.
Questa ristrutturazione del rapporto
con la natura investì tutte le espressioni culturali. La proposta degli
espressionisti di cogliere direttamente le sfumature, coloristiche o sonore,
della realtà sensibile entrò in crisi con l’irruzione degli elementi più
profondi che dissolvono quell’immediatezza.
La psicologia scientifica, che nacque in questi decenni
adottando metodi fisici di misura delle relazioni tra stimoli e sensazioni
(psico-fisica), ma anche l’impianto riduzionistico
della psicologia associazionista, lasciarono il posto
all’indagine di meccanismi psichici specifici ad un tempo più generali e più
profondi.
2. La crisi della concezione del mondo
ottocentesca maturava rapidamente su tutti i terreni sotto la pressione
incontenibile degli eventi: crollava la convinzione dell’autoregolazione del
mercato, si avviarono programmi di ricerca di nuovi linguaggi e di nuovi modelli concettuali.
In campo scientifico la nuova base
metodologica era destinata ad essere messa in crisi dallo stesso processo che
si era innescato, il quale condusse a travalicare ben oltre il prevedibile il
quadro dei fenomeni naturali, mettendo a dura prova la capacità interpretativa
del meccanicismo. Da un lato, alle soglie del nuovo secolo, questa stessa dinamica scientifica, le nuove possibilità tecniche,
dischiusero ambiti inattesi di fenomeni, difficili da ricondurre a questo
quadro interpretativo. Molte scoperte fondamentali furono “casuali” (la
scoperta della radioattività, per aver abbandonato un minerale in prossimità di
una lastra fotografica; la scoperta dei “raggi catodici” per la fluorescenza
osservata in un tubo a vuoto e conseguentemente la scoperta dell’elettrone:
ecc.): ma questa apparente “casualità” era in realtà
il prodotto della nuova dinamica e della nuova mentalità.
D’altro lato, però, era quello stesso
tentativo di mantenere un controllo sul proliferare dei modelli che entrava in conflitto con la nuova prassi e con le esigenze
concrete che la sottendevano: infatti, se i modelli erano lo strumento per
predire fatti e proprietà nuovi, che senso aveva limitarne l’ambito con il
requisito della loro base meccanica? Ben inteso, questo processo innovativo si
svolgeva in modo tutt’altro che lineare, e non era un
progetto esplicito e consapevole: qualsiasi trasformazione non si impone repentinamente, ed ha i suoi alfieri e i suoi
oppositori; non diversamente, la nuova prassi scientifica metteva in crisi
mentalità consolidate, e faceva scattare la reazione di coloro che a quelle
rimanevano legate. Furono in realtà i chimici ad
anticipare, alle fine dell’Ottocento, la rivoluzione
metodologica della scienza. In Germania la chimica accademica aveva rapporti di
collaborazione diretta con la grande industria chimica, che costituiva uno dei
settori più sviluppati tecnologicamente, il fronte avanzato della seconda
rivoluzione industriale. Sospinti da esigenze e committenze concrete e
pressanti, i chimici si resero implicitamente conto dell’artificiosità, ancor
prima della difficoltà, di ricondurre processi complessi a meccanismi
meccanici: le reazioni chimiche sono troppo difficili da trattare in base alle
collisioni tra le molecole, mentre l’approccio della termodinamica, basato su grandezze medie rispetto alle proprietà molecolari e su
funzioni di stato che non dipendono dai dettagli dei processi, fornisce una
base molto più efficace e generale.
La maturazione della riflessione dei
fisici fu invece più lenta e tormentata, anche se più profonda,
per il loro atteggiamento meno pragmatico e la loro attenzione ai processi
fondamentali: gli attacchi, molto aspri, al meccanicismo e alla “fisica dei
modelli” si fondarono su difficoltà reali (i problemi dell’irreversibilità
termodinamica e dell’etere elettromagnetico), ma si ispirarono ad un impossibile ritorno ad un’impostazione fenomenistica (emblematiche le polemiche con Boltzmann, che fu tra i fattori della depressione che nel
1906 lo portò al suicidio), a cui l’empirismo critico di Mach cercò di fornire una base filosofica che nobilitasse il
vecchio positivismo.
Se dunque il quadro
dei fenomeni fisici palesò una complessità inaspettata (raggi catodici; raggi
X, Roentgen, 1895; radioattività, Becquerel, 1896;
scoperta dell’elettrone, Thomson, 1897; effetto
termoelettronico; effetto fotoelettrico; spettri atomici; raggi cosmici; ecc.),
fu l’impostazione riduzionista della scienza
ottocentesca che rivelò il proprio carattere artificioso e limitativo, entrando
in conflitto con la nuova mentalità.
3. Le teorie rivoluzionarie della Fisica
all’inizio del ‘900 costituirono in primo luogo il
rifiuto e il superamento dei limiti del meccanicismo e del riduzionismo.
I famosi contributi di Planck sul campo di radiazione del 1900 furono a mio giudizio fondamentali non tanto per l’introduzione di
una suddivisione dell’energia in “quanti” discreti - procedimento che egli
effettuò in modo pragmatico, come discretizzazione di
un fenomeno continuo, senza attribuirgli un significato fondamentale:
concettualmente non diverso dall’approccio finitistico
di Boltzmann - quanto per il procedimento
spregiudicato e svincolato da qualsiasi canone meccanicistico: la memoria sul
“quanto” (la sola che viene ricordata oggi) era stata preceduta di qualche
settimana da una prima memoria in cui Planck aveva
già derivato lo spettro del campo sulla base di un procedimento termodinamico
anziché meccanico. Come egli scriverà più tardi:
“Poiché il creatore di un’ipotesi ha a priori piena libertà quanto ai
modi di formularla, egli ha facoltà di scegliere come vuole i concetti e gli
enunciati, purché essi non contengano contraddizioni logiche.”
“La misura per la valutazione di un’ipotesi fisica non risiede nella
sua intuibilità, ma nella sua capacità di prestazioni.”
La termodinamica, anziché la meccanica, venne scelta come base
concettuale e metodologica da tutti i fondatori delle idee quantistiche (Planck, Einstein, Nernst), e contrassegnò la convergenza della nuova
generazione dei fisici con l’impostazione metodologica che i chimici avevano
anticipato.
Di fatto la proposta di Planck non venne recepita dalla
comunità scientifica per almeno un lustro. La vera introduzione dell’ipotesi
del “quanto di luce” (molto più tardi chiamato fotone) fu dovuta ad una delle tre fondamentali
memorie di Einstein del 1905, sulla base di un
ragionamento di termodinamica statistica che testimoniava emblematicamente il
capovolgimento dell’atteggiamento meccanicistico tradizionale: esso non si
basava neppure su nuove indicazioni sperimentali, ma le anticipava in base
all’esigenza di ristabilire la “simmetria” delle concezioni dei fisici, i quali
interpretavano la struttura dei corpi materiali in termini discreti (atomici),
e il campo in termini di continuo spaziale: la distorsione ideologica ufficiale
attribuisce l’ipotesi di Einstein all’interpretazione
della soglia di frequenza nell’effetto fotoelettrico, mentre invece questa fu
predetta proprio da Einstein, e verificata solo dieci
anni dopo da Millikan, il quale invece cercava di
falsificarla.
La convergenza con la metodologia che
i chimici avevano inaugurato si realizzò concretamente nel 1906, quando W. Nernst – un elettrochimico che
studiava gli equilibri delle reazioni chimiche – stabilì il terzo principio
della termodinamica: egli si rese conto che la conseguenza
fisica diretta del nuovo principio (l’annullarsi di tutti i calori specifici
alla temperatura dello zero assoluto) coincideva con una previsione (anch’essa
puramente teorica) fatta da Einstein. Nernst effettuò così la prima
verifica sperimentale di una conseguenza delle nuove concezioni quantiche, e si
convertì nel più convinto sostenitore di queste: fu l’organizzatore del Primo
Congresso Solvay del 1911, e successivamente
collaborò attivamente con Einstein.
Anche l’interpretazione microscopica
dei processi macroscopici aveva intanto capovolto la
filosofia meccanicistica della prima teoria cinetica (anche se dal 1877 Boltzmann ne aveva sottolineato il fondamento statistico)
con la termodinamica statistica, elaborata da Gibbs (1902) ed Einstein
(1903-4), in cui la complessa definizione, formale e astratta, della
probabilità di un processo macroscopico non viene costruita dalle interazioni
tra i costituenti microscopici, ma viene stabilita in base alla connessione
diretta con la funzione termodinamica caratteristica del processo.
4. Le nuove concezioni fisiche erano
lungi dal costituire una nuova visione organica della natura; tanto meno furono
accettate dalla comunità scientifica nel suo complesso. Come poteva un fisico
formato dalla razionalità della vecchia scuola riconoscere procedure tanto
eterodosse e pragmatiche, apparentemente prive di ogni
logica (tradizionale)? Come riconosce Planck nella
sua Autobiografia
Scientifica:
“Una nuova verità scientifica non trionfa perché i suoi oppositori si
convincono e vedono la luce, ma piuttosto perché alla fine muoiono, e nasce una
nuova generazione a cui i nuovi concetti diventano familiari.”
La rottura con la metodologia
meccanicistica, che si stava affermando nella chimica e nella fisica,
rispondeva alla crisi della visione del mondo e della struttura economico
sociale ottocentesche: ma la stabilità era lontana, anzi si addensavano le nubi
di un terribile conflitto bellico, al quale sarebbe seguita una fase di endemica instabilità, che solo nel secondo dopoguerra
avrebbe trovato una soluzione (peraltro fondata su un artificioso equilibrio di
potenze distruttive).
La messa in discussione dei canoni
tradizionali produceva una profonda ristrutturazione del quadro culturale. La
critica del tempo e dello spazio assoluti sviluppata da Einstein
si accompagnava al superamento dell’eurocentrismo,
alla relativizzazione dell’uomo e della società nel
tempo, operata dallo storicismo, e nello spazio, acquisita dagli interessi
antropologici ed etnologici. La rivoluzione freudiana dell'introduzione dell'inconscio come movente dei comportamenti, decisamente
ribelle alla razionalità e ai suoi precetti, si accompagnava in ogni campo alla
ricerca degli elementi profondi della realtà, lontani dall'apparenza
fenomenica. Il superamento della prospettiva e dell'armonia classiche, che gli impressionisti avevano cercato nell'immediatezza del colore puro o nella qualità
coloristica degli strumenti musicali, aveva aperto una ricerca che - attraverso
le innovazioni formali ed espressive di Cezanne, di Van Gogh e dei Fauves, o lo sviluppo wagneriano
di tutte le risorse della gamma cromatica - sfociava nella scomposizione
dell'oggetto (cubismo, 1905-06; anche in dichiarata
consonanza con le nuove concezioni scientifiche, come nel futurismo, 1909), nel superamento della tonalità e nella liberazione della
dissonanza, o nell’audacia delle armonie politonali di Stravinsky
(per non parlare della diffusione del jazz). Contro le tesi obiettivistico-naturaliste
del positivismo, Husserl rivendicava il ruolo del
soggetto nella conoscenza e l’esigenza di risalire alle essenze che danno
significato all’esperienza empirica.
Il più lento avanzamento delle
conoscenze sul vivente non consentivano ancora alla biologia di compiere il grande salto qualitativo: la rivoluzione darwiniana richiedeva infatti l’integrazione della genetica
e la scoperta dei meccanismi sub-cellulari per tradursi in una concezione
scientifica generale della struttura e dell’evoluzione del vivente. Solo ai
primi del ‘900 venne confutata l’ereditarietà dei
caratteri acquisiti, e videro la luce da un lato la teoria mutazionista (de Vries) e dall’altra la genetica e la teoria
cromosomica (Morgan), ma
esse rimasero contrastanti fino agli anni ‘20 (la maggior parte dei biologi
continentali muovevano infatti alla genetica una critica di fissismo, e Morgan non pensava che una mutazione potesse produrre nuove
specie). Anche la pioggia di scoperte sugli enzimi,
gli ormoni, l’istologia del sistema nervoso, la clorofilla, e molte altre,
rimasero a lungo scollegate tra loro.
5. La nuova prassi scientifica,
svincolata dai canoni tradizionali, introduceva una rottura rispetto alla riflessione
epistemologica, che avrebbe assunto poi la dimensione
di una radicale separazione tra le due attività. Planck,
ad esempio, nella sua riflessione epistemologica a posteriori perseguiva un
ideale kantiano di ricerca di una verità assoluta, che contrastava singolarmente
con il “possibilismo” della sua effettiva prassi scientifica. In effetti,
finché la scienza aveva mantenuto una sostanziale unità di
fondo, basata sull’aderenza ad una metodologia “naturale” (fosse il
meccanicismo boltzmanniano, come il fenomenismo machiano), in quanto riflesso di una collocazione
strutturale riferita alla base meccanica della prima fase
dell’industrializzazione, era sussistita anche una fondamentale coerenza tra la
concreta prassi scientifica e la riflessione epistemologica su di essa: essendo
la conoscenza scientifica concepita come generalizzazione induttiva diretta, la
sua logica di fondo veniva identificata tout court con la prassi effettiva degli scienziati.
La ristrutturazione produttiva e
sociale cambiava radicalmente la situazione. La crisi delle certezze precedenti
e dei tradizionali modelli di sviluppo del sapere scientifico, la sostanziale ”arbitrarietà” delle nuove procedure, richiedevano,
oltre che nuove concezioni scientifiche, nuove strategie epistemologiche che recuperassero la validità e l’oggettività della conoscenza
scientifica; che salvaguardassero ed immunizzassero, per così dire, la
razionalità scientifica rispetto ai profondi cambiamenti che ne mettevano in
discussione l’immagine ingenua precedente. In altre parole, le connessioni, in
realtà sempre più strette, con la realtà produttiva e ideologica, dovevano venire occultate se si voleva mantenere e ribadire la
funzione, l’efficacia, la specificità del sapere scientifico: in tale contesto
si veniva configurando, ed imponendo rapidamente, l’ideologia della scienza
come ricerca pura e disinteressata della verità, indagine delle leggi oggettive
della natura, conoscenza asettica, svincolata dal suo “uso”.
6. Il programma perseguito
(sia pure in forme diverse) da Einstein, Schroedinger, de Broglie di
stabilire una concezione realistica, in termini spazio-temporali, dei processi
fisici, era destinato ad essere travolto dagli eventi, indipendentemente dai
suoi progressi e dalla sua effettiva praticabilità.
Qualcosa di simile doveva accadere per
i tentativi in campo artistico di ristrutturare semplicemente l'oggetto,
creando nuovi sistemi di regole (come avvenne ad esempio per la dodecafonia). Gli sviluppi economici, sociali e culturali modificavano continuamente
il contesto generale e tali tentativi si mostravano
rapidamente insufficienti.
Le trasformazioni che si profilavano,
anche a livello produttivo (taylorismo, fordismo), richiedevano in particolare un supporto scientifico sempre più
flessibile, formale, dotato di una logica al suo interno, e non in diretto
rapporto con una specificità empirica. Nel conflitto mondiale si registrò un
grande sforzo scientifico e tecnologico, che preparò le basi per la successiva
trasformazione tanto dell’organizzazione della ricerca scientifica, quanto
della struttura economica e sociale (il diretto coinvolgimento del premio Nobel
per la chimica Fritz Haber
nella realizzazione degli aggressivi chimici inaugurò
le forme istituzionali di collaborazione degli scienziati nelle ricerche
militari). L’invenzione delle valvole termoioniche (diodo, Fleming 1904; triodo, de Forest 1906) aveva aperto il campo dell’elettronica, destinato a fornire una base flessibile e nuovi strumenti di
controllo che nei decenni a venire avrebbero rivoluzionato tanto i processi
produttivi, quanto la vita sociale.
Nella fisica, fin dal lavoro sul modello dell’atomo d’idrogeno del 1913, elaborato
per interpretare gli spettri atomici discreti in termini di livelli energetici
permessi dell’elettrone, Bohr dichiarava senza mezzi
termini:
“È chiaro che non sto in alcun modo cercando di dare ciò che
comunemente si suole definire una spiegazione: nulla è
infatti stato detto sul come e perché la radiazione viene emessa”;
E più tardi Heisenberg
ribadiva:
“La propagazione, l’assorbimento e l’emissione della luce sono fatti
sperimentali che devono venir posti alla base di qualsiasi tentativo di
chiarimento, e non spiegati.”
Questa nuova scelta avrebbe poi
condotto a posizioni sempre più pragmatiche, alla base di una concezione fisica
– la “Meccanica Quantistica Ortodossa”, o di Copenhagen
– il cui
significato diviene puramente formale: nell’interpretazione probabilistica
proposta da Max Born nel 1926, l’equazione
fondamentale della teoria (l’equazione di Schroedinger:
anche se il suo autore l’aveva formulata al fine di ricondurre anche il
comportamento ondulatorio della materia ad un’interpretazione causale e
realistica, in termini di continuo spazio-temporale) concerne l’ampiezza di
probabilità, una funzione costituita addirittura da
“numeri immaginari”, che ha solo una connessione indiretta con i valori
sperimentali, costituiti naturalmente da numeri “reali”, e che vengono espressi
dal “modulo al quadrato” di tale ampiezza, o da valori di aspettazione espressi
tramite essa. La “Scuola di Copenhagen” dichiara
apertamente che non è neppure lecito fare modelli dei processi atomici secondo
le rappresentazioni della nostra conoscenza del mondo macroscopico,
poiché le “entità” fondamentali a questo livello si possono descrivere
correttamente solo attraverso il formalismo matematico. Come scrive Dirac:
“La tradizione classica considerava l’universo come un’associazione di entità osservabili in movimento secondo leggi definite di
forze, in modo da formarsi un modello mentale nello spazio e nel tempo. […] Le leggi fondamentali [della meccanica quantistica] governano un
substrato del quale non possiamo formarci un modello mentale senza introdurre
inesattezze.”
Queste scelte pragmatiche provocarono
reazioni irritate di Einstein,
come quando nel 1924 scriveva a Born in tono
chiaramente sarcastico:
“L’idea che un elettrone esposto a una
radiazione possa scegliere liberamente l’istante e la direzione in cui spiccare
il salto è per me intollerabile. Se così fosse,
preferirei fare il ciabattino, o magari il biscazziere, anziché il fisico.”;
mentre Schroedinger dal canto suo affermava:
“Il punto di vista di Bohr, secondo il quale
una descrizione spazio-temporale è impossibile, lo rifiuto
radicalmente.”,
e quasi di rimando Heisenberg scriveva a Pauli:
“Quanto più soppeso
la parte fisica della teoria di Schroedinger, tanto
più orribile mi sembra.”
Dalla Repubblica
di Weimar al New Deal
7. La tormentata vicenda della
Repubblica di Weimar rimane per tutti gli anni ’20 il
riferimento fondamentale per comprendere gli sviluppi scientifici e culturali
che stiamo discutendo, anche se la prima guerra mondiale aveva portato alla
ribalta della scena mondiale gli Stati Uniti, che si delineavano
come nuovo gigante economico e tecnologico.
La Repubblica di Weimar
costituì su tutti i piani un vero crogiolo di
esperienze, spesso innovative, talvolta in contraddizione tra loro, alle quali
le irrisolte contraddizioni impedirono di coagulare in un sistema stabile.
Le inquietudini e l’instabilità del
dopoguerra, l’umiliazione per la sconfitta, la frustrazione per le condizioni
di pace, il trauma prodotto dalla Rivoluzione d’Ottobre, alimentarono un clima
culturale fortemente irrazionalistico. Nel 1927 Sommerfeld scriveva:
“La fede in un ordine mondiale razionale cadde per il modo in cui
terminò la guerra e si impose la pace; per questo
ognuno cerca la salvezza in un ordine irrazionale.”
È stata documentata l’influenza
diretta della filosofia irrazionalista (Kierkegaard)
ed anti-determinista nella formazione di Bohr e di Heisenberg; della psicoanalisi junghiana
nel pensiero di Pauli.
In un illuminato discorso
all’Accademia Prussiana delle Scienze, nel 1932, Schroedinger
discuteva i tratti comuni tra gli sviluppi scientifici e le più diverse manifestazioni
culturali e sociali, quali il “nuovo funzionalismo” nell’arte, la diffusione
della statistica nell’amministrazione pubblica, la ricerca di mezzi appropriati
per manovrare grandi masse, tanto a livello umano quanto nella produzione industrale.
Gli sviluppi della psicoanalisi e le
espressioni culturali ed artistiche riflettevano ad un tempo il fermento, il
travaglio e la profonda crisi morale e spirituale; in una parola, la crisi
della società europea. L'espressionismo rivendicava il
carattere soggettivo dell'opera d'arte, l'espressione della tormentata realtà
interiore, il ritorno all'istinto, il rifiuto di ogni
convenzione formale, ricorrendo alla violenza dell'immagine, ad un clima di
esasperata irrealtà tanto nella pittura come nel cinema, o alla
ristrutturazione dei principi dell'organizzazione tonale nella musica. La
ricerca del senso occulto degli eventi o dei segni, con diverse modalità, ispirava tanto la letteratura (Proust,
Joyce, Kafka), quanto le
arti figurative (Klee, Kandinsky,
Mondrian). Il surrealismo dischiudeva la natura a-logica, inquietante e sinistra dei rapporti
tra le cose al di là della loro percezione
spazio-temporale. Brecht sviluppava la sua tagliente
critica sociale e morale. Heidegger (Essere e Tempo, 1927) insisteva sulla finitezza dell’uomo, richiamandosi
all’autenticità dell’essere.
L’ambiente di Vienna, dopo il crollo
dell’Impero Absburgico, non fu meno stimolante, inquieto e creativo di quello tedesco: la “Kakania” di Musil, già patria di Mahler, Boltzmann, Mach, Klimt; e ora di Freud, Kokoschka, Schönberg, Wittgenstein, Hoffmannsthal, Schnitzler, Kraus, Loos, degli “austromarxisti”.
Ma l’inquietudine ed i fermenti superavano i limiti del continente. I
migliori scrittori americani, delusi dalla guerra e dal materialismo
dell’America post-bellica, scelsero l’esilio europeo per descrivere con
distacco gli eccessi del loro paese, o il “sogno americano”. Il senso
dell’ambiguità del reale e della precarietà dei valori ispirò la produzione
letteraria inglese (Virginia Woolf, Eliot).
Ma i fattori strutturali rimangono il riferimento essenziale per
comprendere tanto le espressioni scientifiche e culturali, quanto il tragico
esito dell’esperienza di Weimar. Si moltiplicarono
esperienze e proposte che anticiparono soluzioni successive, ma né la fase di “razionalizzazione”, né i progetti lungimiranti di Rathenau (si pensi anche all’esperienza del Bauhaus) risolsero le contraddizioni e
poterono arrestare la deriva.
La scienza costituì uno dei cardini
dell’orgoglio germanico umiliato.
8. La crescita disordinata e
incontrollabile, la permanente instabilità economica e sociale, l’approfondirsi
della crisi richiedevano l’acquisizione di strumenti di controllo flessibili,
non rigidamente deterministici, che consentissero di stabilire correlazioni tra dati,
indipendentemente dalla loro natura e dal loro significato.
La meccanica quantistica ha fornito un
atteggiamento concettuale ed una base fisica spogliati di riferimenti
specifici, ridotti ad una struttura matematico-formale, dotati quindi di estrema adattabilità, proprio in quanto essa si limita programmaticamente a correlare
risultati di osservazioni sul sistema che si studia, puri dati sperimentali:
nelle parole di Bohr
“L’oggetto della nostra descrizione della natura non è tanto discernere
l’essenza reale dei fenomeni, quanto cercare e trovare, tanto lontano quanto è
possibile, relazioni tra gli aspetti variabili della
nostra esperienza.”
Non stupisce quindi che questa teoria
fisica abbia costituito ad un tempo la base per gli sviluppi successivi, ed il
modello di pensiero e di schematizzazione della
scienza, che si è riflesso in molti ambiti culturali. Estremamente
significativo, ad esempio, è il ruolo fondamentale che von
Neumann (al quale si deve la formalizzazione
matematica della teoria) svolgerà negli USA nello sviluppo tanto della “teoria
dei giochi”, come delle capacità logiche degli elaboratori elettronici, e nella
loro realizzazione pratica per compiti militari.
L’operazionismo di Bridgman (1927) forniva il corrispettivo
e il supporto epistemologico alla “filosofia delle osservabili” della meccanica
quantistica. Si potrebbe tracciare un parallelo anche con l’impostazione della psicologia comportamentista, che assumeva come unico oggetto il comportamento osservabile e
misurabile (un atteggiamento che avrebbe avuto poi pesanti implicazioni
sociali), e con i primi sviluppi dell’antropologia (Boas).
9. Un percorso non diverso da quello che
abbiamo discusso per
Ma proprio alla fine di quei fatidici
anni ’30 il “Teorema di Goedel” (1931) provò che la non-contraddittorietà di un sistema formale è indimostrabile all’interno di esso, segnando così il
fallimento del programma e del formalismo hilbertiani.
La logica formale si riduceva ad
un’esigenza di rigore che, non avendo più pretese fondamentaliste,
fosse generalizzabile indipendentemente dai significati specifici: il neopositivismo
logico - riprendendo la polemica antipsicologica della fenomenologia husserliana, il Tractatus logico-philosophicus di Wittgenstein, e l’esigenza di una rifondazione su basi
esclusivamente logiche ed empiriche dell’intera conoscenza umana – privilegiava così l’analisi logica del linguaggio
scientifico.
10. Il Grande Crollo del 1929 poneva fine di fatto all’esperienza di Weimar.
Ma senza di essa non si capirebbe la storia
successiva: molte delle esperienze e delle proposte che vi si erano prefigurate
si sarebbero sviluppate posteriormente, tanto nel totalitarismo nazista (si
sono riconosciute oggi tendenze “moderne” del nazismo e del fascismo, come l’intervento
dello Stato nell’economia), quanto negli Stati Uniti. L’élite intellettuale e
scientifica tedesca che fuggiva dagli orrori del nazismo, e spesso non era meno
disgustata dallo stalinismo, trovò negli USA una situazione non meno
contraddittoria: la “società di massa” generò negli intellettuali un senso di
repulsione e stimolò le loro analisi critiche, ma al tempo stesso è innegabile
che là essi trovarono di fatto il clima e gli stimoli
adeguati per realizzare quegli sviluppi innovativi che in Germania erano
rimasti latenti o incompleti.
La crisi e la depressione che ne seguì
costituirono in qualche modo un’esperienza limite: bisognava porre fine alla
ricorrente vocazione auto-distruttiva del capitalismo. La soluzione venne prospettata dal New Deal di Roosevelt, anche se si sarebbe pienamente sviluppata solo
con il balzo imposto dal secondo conflitto mondiale. Si andarono comunque modificando in modo permanente i rapporti tra Stato
ed economia (si potrebbe riflettere sull’influenza dell’esperienza, per quanto
molto diversa, della pianificazione in URSS; ma una scelta simile avveniva in
Germania ed in Italia). Keynes (1936) introdusse la
nozione di “domanda effettiva”, dalla quale dipendono
il reddito nazionale e l’occupazione, e teorizzò il ruolo della spesa pubblica
per assicurare la piena occupazione delle risorse disponibili. L’innovazione
tecnico-scientifica assurse ad un livello di importanza
senza precedenti, venendo esplicitamente chiamata ad alimentare una nuova
dinamica di crescita in cui l’innovazione
e la creazione di nuove branche divenisse tanto rapida e incalzante da
alimentare un ritmo di consumi che impedisse di fatto il verificarsi di crisi
di sovrapproduzione. Ma chi avrebbe consumato questi
beni sempre nuovi? Il capitalismo compì un vero salto mortale, cercando di
trasformare la stessa classe operaia da tradizionale contraddizione in motore
dello sviluppo senza sosta, inaugurando un periodo di alti
salari e piena occupazione: la scienza doveva svolgere anche l’indispensabile
funzione di organizzare il consenso su questa ideologia di sviluppo e dei
vantaggi per tutti.
Si conferma qui concretamente la
profonda omogeneità tra gli atteggiamenti, le finalità, il ruolo assunti dalla
“comunità” scientifica e le strategie perseguite e messe in atto dalle classi
che detengono il potere economico, nella convergenza dell’evoluzione
metodologica e pratica della scienza - cioè tanto
della sua impostazione quanto dei suoi risultati – con le strategie di
soluzione della crisi e di ristabilimento degli equilibri economici e sociali:
non si tratta di una “committenza” diretta, né di una scelta esplicita, e
neppure di una convergenza a posteriori, ma della sussunzione
degli stessi obiettivi da parte di strati sociali che convergono sulle scelte
di fondo, in primo luogo sociali ed economiche.
La meccanica quantistica, come tante
proposte maturate negli anni ’20, aveva addirittura anticipato il necessario
cambiamento radicale della prassi scientifica: di fronte alle difficoltà delle
concezioni realistiche, alla loro continua messa in discussione - in una
parola, alla loro scarsa produttività, scientifica e applicativa - la scelta
esplicita della meccanica quantistica non era ormai più quella di fornire rappresentazioni generali del mondo, ma niente di
più (e niente di meno!) che un quadro di riferimento generale, formale,
flessibile, asettico, che non limitasse, bensì stimolasse, gli sviluppi più
diversi e liberi, l’applicazione a qualsiasi campo o problema. Si chiudeva in
qualche modo un ciclo: i dati di esperienza rimanevano
il riferimento centrale dell’elaborazione scientifica, ma mentre agli inizi
essi costituivano l’immagine concreta che la rappresentazione scientifica
doveva riflettere, ora essi si
riducevano all’oggetto accessorio e mutevole di un formalismo astratto e
polivalente, la cui struttura logica prescinde dalla loro natura specifica. I
paradossi logici che Schroedinger, e soprattutto Einstein (“paradosso di Einstein, Podolsky e Rosen”), denunciarono tenacemente nel corso degli anni ‘30
ricevettero dal “gran sacerdote” del nuovo corso, Niels
Bohr, risposte che si limitavano in sostanza a
ribadire la struttura logica della meccanica quantistica. L’evoluzione
successiva della scienza non avrebbe più messo in discussione il quadro formale
di riferimento, reso ormai asettico, ma avrebbe sviluppato e stimolato in modo
quanto mai libero e spregiudicato sviluppi ed interventi sempre più
approfonditi e specialistici, forme di puro potere dell’uomo sulla natura, tanto sulle sue manifestazioni naturali, quanto
(e soprattutto) su quelle che il nuovo potere della scienza riusciva a
“scatenare”. La “conoscenza” delle meraviglie della natura rimaneva la
copertura, da decantare nella divulgazione, condotta in termini celebrativi,
tali da occultare le vere motivazioni e implicazioni dell’impresa scientifica:
il consenso sociale veniva organizzato attorno al
mondo creato dalla tecnica, che diveniva più che mai una seconda
natura, se non più vera, per lo meno apparentemente più
fruibile per il consumatore, in quanto non più grezza, ostica o addirittura
ostile come la Natura, ma già piegata all’utilizzazione umana, e garantita dal
potere conoscitivo e pratico della scienza.
11. Come in altre occasioni, gli ambienti
scientifici più avanzati - questa volta negli Stati Uniti - anticiparono i
tempi, in piena consonanza con i settori produttivi più dinamici e
lungimiranti: lo sviluppo di branche scientifiche specializzate iniziò infatti nei primissimi anni ‘30, nel pieno della
depressione, con il preciso intento di aprire settori nuovi, che superassero la
morsa della recessione.
Lo studio del nucleo
dell’atomo prese slancio nel 1931-32, con una scelta iniziale
precisa, che ne prefigurava gli sviluppi e le applicazioni successive. Da Berkeley E. O. Lawrence lanciò
sulla stampa e nelle Esposizioni Universali il battage sull’enorme energia contenuta nel nucleo dell’atomo, e proprio nella
fase più dura della recessione e di tagli drastici dei
finanziamenti alla ricerca riuscì a raccogliere dalle compagnie elettriche
notevoli finanziamenti per le sue ricerche sulla generazione di alti voltaggi e
per lo sviluppo della nuova branca: in realtà egli realizzò (e brevettò) una
macchina, il ciclotrone, per accelerare particelle cariche ad
energie sempre più elevate su traiettorie a spirale e con voltaggi abbastanza
modesti; la sua smania di costruire acceleratori di energia sempre più alta gli
fece mancare alcune scoperte fondamentali (la disintegrazione artificiale dei
nuclei e la radioattività artificiale), a cui arrivarono i britannici Cockroft e Walton nel laboratorio
di Rutherford con un acceleratore molto meno potente.
Il “re dei corn-flakes”, Kellogg, finanziò la realizzazione a Pasadena di un analogo
laboratorio di fisica nucleare che porta il suo nome.
Nei nuovi laboratori si svilupparono nuove forme di
ricerca d’équipe (aumentò il numero di lavori scientifici firmati da 3, 4, o
più autori), che sarebbero poi risultate fondamentali negli sviluppi
successivi.
La ricerca, in questo come in altri
campi, fu inoltre finanziata da grandi Philantropic Foundations, nelle quali i magnati dell’industria
(Carnegie, Rockefeller,
ecc.) ponevano denaro che era così sottratto alla tassazione.
Lo sviluppo della fisica dello
stato solido ricevette contributi determinanti
nei laboratori di ricerca scientifica della Bell Telephone, finalizzati alla ricerca di base, svincolata da
interessi applicativi, nella convinzione che in tal modo le applicazioni ne
avrebbero giovato. Già nel 1930 il Dipartimento della Bell
sulle valvole termoioniche contava circa 200 scienziati e collaboratori (nel
1927 Davisson e Germer vi
eseguirono l’esperimento di fisica fondamentale che provò la natura ondulatoria
degli elettroni), era visitato dai maggiori fisici
dell’epoca, i quali tenevano conferenze, creando un clima simile agli ambienti
universitari. Fu soprattutto qui che negli anni ‘30 si svilupparono le ricerche
sui solidi, che coprirono un campo vastissimo: dai tubi a vuoto e
dall’emissione termoionica, alla conduzione, ai cristalli, ai dielettrici, ai
materiali magnetici, agli amplificatori e ai semiconduttori e ai dispositivi
elettronici a stato solido. Venne formulata la moderna
teoria
della bande dei solidi.
L’elettronica, grazie anche a questi studi, progredì rapidamente, proponendosi come
tecnica polivalente tanto nei più diversi settori scientifici, quanto negli
sviluppi tecnici e produttivi (servomeccanismi).
Il governo USA mobilitò
gli scienziati delle università e delle industrie per sviluppare le capacità di
calcolo automatico, necessarie per scopi militari (nel 1936 il matematico
inglese Alan Turing
pubblicò un articolo fondamentale). Tra il 1939 e il 1944 l’IBM realizzò il Mark I, macchina ancora
elettromeccanica con ingranaggi contatori formati da ruote, che usava 3000 relè
e moltiplicava due numeri di 23 cifre in 4,5 secondi (le tavole di tiro
dell’artiglieria furono calcolate con un calcolatore analogico ed il ricorso ad
un centinaio di donne che eseguivano manualmente i calcoli relativi alle
operazioni della macchina, e richiedevano mezz’ora contro una settimana del
calcolo manuale).
Si dispiegava in tutta la sua potenza la vocazione prometeica
originaria della scienza moderna occidentale, complice del potere, mirata non
tanto a svelare i segreti della natura, ma a controllarla, trasformarla, sfruttarla a fini di profitto, piegarla agli interessi economici forti,
utilizzarla per perpetuare e rafforzare il dominio capitalistico: il
capitalismo chiamava nel momento di estrema crisi, e la scienza fedelmente rispondeva;
un atteggiamento che avrebbe svelato di lì a poco i danni esiziali apportati
alla natura, ai suoi equilibri, ai suoi cicli (peraltro largamente prevedibili
se si fosse adottato un atteggiamento diverso), ma che non per questo ha
cessato di operare nei modi più spregiudicati.
La messa a punto di tecniche e concetti
specifici e specializzati consentì anche alla biologia di compiere i passi decisivi, con l’integrazione con la fisica (raggi
X, microscopio elettronico, microscopio ottico a contrasto di fase, ecc.) e la
chimica (struttura delle proteine, ciclo dell’urea, teoria chimica della
trasmissione sinaptica, ecc.), mentre la nascita
della genetica di popolazione (Haldane, Fisher, Wright, 1920-30) e la
conferma del carattere genetico della variabilità che Darwin aveva osservato
nelle popolazioni naturali (L’Héritier e Teissier, 1937) aprirono la strada alla teoria
sintetica dell’evoluzione negli anni ‘40.
Anche la Terra su cui viviamo
si era trasformata in un “organismo” vivo, in continuo divenire secondo la
teoria della deriva dei continenti, enunciata da Wegener nel 1915. Mentre
l’universo che ci circonda aveva incominciato ad allargarsi a dismisura e ad
animarsi da quando Hubble, negli anni ‘20, aveva
dimostrato che le galassie sono esterne alla Via Lattea, e nel 1929 aveva
fornito le prime prove della continua espansione dell’universo.
12. Gli ambienti intellettuali accusarono
lo shock del crollo di un mondo che pure dava da tempo segnali di profonda
crisi, l’incertezza delle prospettive, l’avvento di regimi totalitari. La
produzione culturale ed artistica degli anni ’30 e ’40 per un verso recepì a suo modo il dissolversi dell’immediatezza empirica
dietro una realtà ultima che la scienza più avanzata sottraeva ad ogni rappresentazione
spazio-temporale, per un altro accentuò il proprio malessere di fronte al fatto
che il maggior potere dell’uomo sulle cose non sembrava sufficiente a
confermare la sua centralità, o a definire il suo ruolo: la messa tra parentesi
della realtà fisica immediata sembrava quasi mascherare l’incapacità di dare
risposte alle domande esistenziali, rese più inquietanti dall’addensarsi di
fosche nubi, che sfociarono in un terribile conflitto e nell’incubo della
distruzione atomica, realizzata dalla liberazione di forze naturali che
sembravano sfuggire al controllo dell’“apprendista stregone”.
La critica sviluppata dalla fenomenologia ai limiti della conoscenza scientifica (Jaspers,
Filosofia, 1932; Husserl, La Crisi delle
Scienze Europee, 1936) trapassò nel richiamo dell’esistenzialismo all’autenticità ed alla consapevolezza dell’essere e della sua
trascendenza.
La Scuola di Francoforte trasferì la ricerca impostata nel 1924 nel clima di Weimar all’esilio americano, sviluppando la teoria critica
della società.
Iniziava la produzione letteraria di Beckett, descrivendo la solitudine nichilista
dell’individuo.
13. L’Italia. La scienza
italiana, dopo Alessandro Volta, aveva attraversato una lunga fase di
mediocrità, che rifletteva l’arretratezza del paese. La borghesia che realizzò
l’unità nazionale non era portatrice di un progetto
sociale ed economico molto avanzato.
Tra ‘800 e ‘900 i soli contributi
scientifici di un certo rilievo vennero, con poche eccezioni (Righi), dai
matematici, ma in settori piuttosto astratti (Peano, Levi-Civita, Ricci-Curbastro),
anche di fisica-matematica, trascurando però la matematica applicata (anche qui
con una notevole singolarità, Vito Volterra: equazioni integro-differenziali
applicate alla dinamica di popolazioni); oppure
direttamente in campo tecnico (Galileo Ferraris; Marconi, il quale però trovò successo il Inghilterra), nel
settore elettrico, che conobbe un notevole sviluppo (anche questo, tuttavia,
soprattutto in campo impiantistico, rimanendo invece arretrato e dipendente
dall’estero nel settore vitale delle
macchine elettriche). L’accelerazione dell’economia italiana ai primi del
secolo si basò sul basso costo del lavoro e sul rialzo dei prezzi
internazionali. I pochi fisici italiani rimasero legati alle concezioni
classiche (poche voci isolate si registrarono sulla teoria della relatività, ma
per criticarla), e la chimica rimase in una situazione di arretratezza.
La prima guerra mondiale precipitò il
paese in una crisi che mise drammaticamente a nudo il
ritardo tecnologico e produttivo. Nel clima di aspirazioni
e di frustrazione che ne seguì si sviluppò un interesse per le scienze
applicate, di cui il fascismo fece la sua bandiera, più ideologica o
utilitaristica che basata su un progetto culturale. La filosofia idealistica di
Croce e Gentile condusse anzi a risultati di segno opposto, in particolare in
biologia, dove prevalse una corrente antimaterialistica ed antipositivistica.
Alcuni sviluppi interessanti si ebbero nella chimica applicata.
Nella fisica svilupparono un’opera
lungimirante due esponenti del regime, Garbasso e
soprattutto Corbino (Ministro della Pubblica
Istruzione, 1921), il quale intuì le potenzialità della nuova fisica del nucleo
atomico (nel 1929 anch’egli la indicava come una prospettiva per uscire dalla
crisi economica) e l’importanza dell’organizzazione scientifica: grazie ad essi si svilupparono contatti internazionali e si formò una
generazione di giovani fisici, Persico, Rossi, Occhialini, Pontecorvo,
Segre, Amaldi, ma
soprattutto Fermi, che dal 1922 mostrò la padronanza della meccanica
quantistica ed un’eccezionale flessibilità come teorico e sperimentale. Sotto
la sua guida i “ragazzi di Via Panisperna” svilupparono un’esperienza avanzata e anticipatrice di
ricerca d’équipe, tanto più rimarchevole a fronte della penuria delle strutture
e dei mezzi: finché le leggi razziali dispersero il
gruppo, e quasi tutti i giovani si rifugiarono all’estero (anche Fermi, aiutato
da Bohr, approfittando della consegna del Premio
Nobel).
Dalla “Big Science” all’incubo nucleare
14. Solo la seconda guerra mondiale diede
all’economia americana l’impulso decisivo per la ripresa: entro il primo anno
dall’entrata in guerra, la spesa pubblica statunitense triplicò; il tasso di
disoccupazione dimezzò entro il 1942, e dimezzò
ulteriormente nel 1943.
Il balzo scientifico-tecnico indotto dal
conflitto raggiunse proporzioni colossali ed innescò meccanismi nuovi e forme
organizzative che avrebbero profondamente segnato gli sviluppi successivi della
ricerca scientifica. Ma la famosa lettera di Einstein al Presidente Roosvelt
ed il timore della minaccia nazista non sarebbero bastati se non fossero già
state create nel decennio precedente le condizioni per un’esperienza di quelle
dimensioni. Il “Progetto Manhattan” dispose di un finanziamento senza precedenti e raccolse
migliaia di scienziati e tecnici di discipline diverse a lavorare su un
progetto comune, diretto dai militari e coperto da segreto. D’altra parte, la realizzazione della bomba atomica cambiò radicalmente il
mondo, le relazioni tra le potenze, i meccanismi economici, le inquietudini
degli intellettuali e degli artisti, la mentalità e gli atteggiamenti della
gente comune. A partire da allora la collaborazione, diretta o indiretta, degli
scienziati con i militari divenne prassi comune.
La certezza di Hitler
di piegare in poche settimane la Gran Bretagna fu spezzata da un nuovo
strumento elettronico che i britannici avevano appena realizzato, il radar, e che i progressi vertiginosi dell’elettronica, aumentando il valore
della frequenza (magnetron), resero ancor più efficace.
Ma i militari promossero molti altri
settori. Decisivi furono gli sviluppi degli elaboratori elettronici, destinati
anch’essi a rivoluzionare la società del futuro. Un Memorandum del 1940 di Norbert Wiener
al NDRC (National Defense Research Committee) proponeva il
passaggio dai calcolatori analogici a quelli digitali e l’uso di valvole
termoioniche. Lavorando tra il 1940 e il 1943 al Radiation
Laboratory del MIT su un progetto per una centrale
automatica di tiro, Wiener inventò il feedback (retroazione) e scoprì le analogie con il comportamento animale che
avrebbero poi dato vita alla neurofisiologia. von Neumann, allora impegnato quale esperto di calcolo e di
esplosioni a Los Alamos, concepì il progetto di un elaboratore elettronico
moderno. Nel gennaio del 1945 von Neumann
e Wiener promossero un convegno interdisciplinare a
porte chiuse che costituì di fatto l’atto di nascita
della cibernetica (N. Wiener, Cybernetics, or Control and Communication
in the Animal and the Machine, 1948). È opportuno osservare come il controllo, l’organizzazione e la
comunicazione di dati sia una scelta di metodo e di logica
che accomuna la cibernetica e la meccanica quantistica, al di
là del contenuto e del formalismo specifici delle due teorie.
15. Poche furono le reazioni provocate
negli scienziati dall’esplosione delle bombe atomiche su Hiroshima e Nagasaki
(agosto 1945). Un solo fisico abbandonò il “Progetto Manhattan”,
Rotblat, premio Nobel per la Pace 1995. Agli inizi
Franco Rasetti, emigrato in Canada, aveva rifiutato
l’invito di Fermi ad unirsi al progetto: dopo Hiroshima egli abbandonò
totalmente la fisica e si dedicò alla paleontologia, la geologia e la botanica.
Wiener inviò una lettera di dimissioni dal MIT, che però
non ebbe seguito; prese però posizione pubblicamente nel 1946, e si dedicò a
ricerche di confine tra matematica, neurofisiologia e
ingegneria; a differenza, ad esempio, di von Neumann, il quale continuò ad essere coinvolto nei progetti
di difesa nazionale.
16. Il trentennio che ha seguito la
conclusione del conflitto ha costituito una fase
eccezionale di sviluppo del capitalismo (quella che Hobsbawm
chiama “l’età dell’oro”). Si inaugurò una “economia
mista”, caratterizzata da un forte intervento degli stati nel pianificare la
modernizzazione economica e accrescere enormemente la domanda: è stata una fase
di rigidità nella produzione e nei rapporti di lavoro, basata sull’offerta di
beni durevoli in quantità crescenti, e su un mercato di massa in cui beni di
lusso vennero ad essere considerati come prodotti necessari. Questo meccanismo
è stato garantito da un patto tra capitale e lavoro, con il riconoscimento dei
sindacati; da politiche di piena occupazione, in cui salari e profitti sono
cresciuti insieme; e da un impegno in direzione dello stato assistenziale
e della sicurezza sociale.
Lo sviluppo scientifico e tecnologico è
divenuto un meccanismo fondamentale, per garantire la continua innovazione dei
prodotti. La civiltà di massa ha trasformato radicalmente i modi e i ritmi di
vita, l’organizzazione delle città, i rapporti sociali e la mentalità
collettiva.
Le espressioni artistiche e culturali
hanno riflesso l’avvento della società di massa in modi diversi. Da un lato, l’astrattismo e l’arte informale hanno espresso una forte carica irrazionalistica, rifiutando la forma e
rinunciando ad una rappresentazione del mondo esterno, producendo di questo una
figura alterata irriconoscibile ed esplorando le potenzialità espressive della
materia, o elaborando suoni e rumori (musica concreta). D’altro lato si sono sviluppate forme artistiche che hanno
utilizzato direttamente quanto la società di massa offriva: la pop art ha sottratto l’espressione artistica all’esperienza soggettiva per
ricondurla alla sfera dell’uomo comune massificato, alle ossessive suggestioni
della pubblicità e dei mass media, manipolando
immagini ed oggetti offerti dalla tecnica; mentre il progresso tecnico ha aperto
alla musica elettronica un universo sonoro inesplorato ed ha
offerto la possibilità di intervenire direttamente sulla materia sonora senza
il tramite dell’esecuzione (fino alla computer music, che converte i segnali elettrici prodotti da un computer secondo un
apposito programma).
17. Il “Progetto Manhattan”
inaugurò la nuova scala di organizzazione della
ricerca scientifica nota come Big Science e ne divenne il prototipo. Dopo la fine del conflitto - mentre le
ricerche sullo sviluppo delle armi nucleari procedeva
negli USA in grandi laboratori di ricerca militare e in URSS in vere città
segrete – la ricerca fondamentale in fisica procedette verso la ricerca della “particelle
elementari”, i presunti costituenti fondamentali della materia:
la strada che fu seguita fu quella di generare fasci di particelle cariche di
energie sempre più alte, per mezzo di macchine acceleratrici
sempre più gigantesche (sincrotroni, colliders, supercolliders: derivati idealmente dal principio introdotto da Lawrence
nel ciclotrone), in grandi laboratori, a volte internazionali, nei quali lavorano
centinaia o migliaia di fisici e di tecnici.
C’è da chiedersi se la strada della Big Science fosse
davvero la scelta obbligata, ossia richiesta dal tema stesso di indagine. In
questi esperimenti si creano condizioni artificiali, estremamente
lontane dalle condizioni comuni (tanto che si pretende di riprodurre le
condizioni esistenti nelle fasi iniziali del Big Bang, la grande “esplosione” che si vuole abbia dato vita all’intero
universo). Se lo studio della struttura dell’atomo agli inizi del secolo avesse imboccato una strada con analoghe caratteristiche,
anziché concentrarsi sull’atomo più semplice, c’è da chiedersi se sarebbe
giunto ai risultati che conosciamo, o se invece ci avrebbe fornito un quadro
diverso. Uno dei fisici nucleari che negli anni ‘30 aveva condotto gli
esperimenti più accurati, rimasti fondamentali, sulle forze nucleari – M. Tuve, alla Carnegie Institution di Washington – aveva rifiutato di unirsi al
“Progetto Manhattan” (ma diresse un progetto militare molto più piccolo, per
realizzare una spoletta di prossimità che giocò un ruolo decisivo nelle battaglie
delle Ardenne e del Pacifico): dopo la guerra riprese
le ricerche nucleari, ma scelse di lavorare in piccoli gruppi, su problemi di
carattere fondamentale; finché abbandonò definitivamente la fisica nucleare
“quando si trasformò da uno sport in un business”.
18. Una storia singolare, il Giappone. A questo proposito è interessante registrare un interessante caso di
una scuola di fisica che sviluppò un’impostazione fortemente
nazionale, forse l’ultima prima che i processi di globalizzazione
della ricerca scientifica creassero una totale omologazione in tutti i paesi:
negli anni ’30 e ’40 la fisica nucleare giapponese elaborò concetti avanzati e
talvolta precorritori, ma sostanzialmente alternativi rispetto a quelli della
fisica occidentale di quegli anni, e senza adottare le forme organizzative di
questa.
Dopo una lunghissima fase storica di isolamento, alla fine dell’Ottocento si era incominciato
a sentire in Giappone (dopo la sconfitta della Cina nella “Guerra dell’Oppio”)
la necessità di aprirsi alla tecnologia ed alla scienza occidentali, ma questa
apertura si era sviluppata in un contesto in cui la tradizione culturale era
rimasta fortissima.
I fisici giapponesi avevano acquisito la
meccanica quantistica alla fine degli anni ’20 (Nishina)
ed avevano orientato i loro interessi verso la fisica
nucleare. Dal 1933 vennero realizzati anche in
Giappone i nuovi acceleratori di particelle, ma non si svilupparono né
interessi applicativi, né forme di ricerca d’équipe, e tantomeno
di Big
Science dopo la guerra. Si
sviluppò invece un tentativo di elaborare una concezione scientifica unitaria,
fondamentale, radicata nella tradizione filosofica giapponese e divergente
rispetto alle interpretazioni ed ai modelli elaborati in Occidente: il mesone di Yukawa (1936) non era nella sua
concezione solo la particella che media la forza nucleare, ma l’elemento
centrale di una concezione più complessa, che non fu percepita pienamente in
Occidente. Successivamente, e fino agli anni ‘50, in
una condizione di isolamento della fisica giapponese, Sakata
adeguò e sviluppò questa idea, nell’ambito di una concezione marxista,
introducendo tre costituenti fondamentali della materia ed anticipando in un
certo senso l’approccio unitario che si è poi imposto, con una filosofia e
moventi assai diversi, negli anni ‘80.
19. La fisica delle particelle elementari
ha costituito la branca della fisica egemone a livello mondiale nel dopoguerra,
quella che ha assorbito le quote più cospicue dei finanziamenti pubblici per la
ricerca in fisica in tutto il mondo. Forse gli Stati Uniti si aspettavano da
queste ricerche ricadute più concrete, soprattutto in campo militare. In ogni
caso la fisica delle particelle elementari ha svolto la funzione di
“colonizzare” la fisica degli altri paesi (quelli occidentali in modo diretto,
i paesi dell’Est in modo indiretto), inducendoli a concentrarsi nello sviluppo
di un campo dominato e controllato dagli USA, lontano da ricadute pratiche, in
cui le apparecchiature erano quasi esclusivamente americane, e in ogni caso le
applicazioni sarebbero venute in modo mediato, consentendo agli USA di
trasferire le conoscenze necessarie nell’area del segreto militare (vi sono
documenti ufficiali che testimoniano questo progetto).
Altri rami della fisica - come
l’elettronica, o la fisica dello stato solido - consentono applicazioni molto più dirette e necessitano di finanziamenti molto
minori. La fisica dello stato solido si è
sviluppata in Italia in modo estremamente lento, con
scarsissimi finanziamenti e tra innumerevoli difficoltà, e solo a partire dagli
anni ’70 ha raggiunto un livello decoroso. In questo campo i laboratori delle
grandi industrie statunitensi raccolsero rapidamente i frutti di quanto avevano
seminato nel decennio precedente: la realizzazione del
transistore da parte di Bardeen e Brattain
nei laboratori della Bell alla vigilia di Natale del
1947 giunse quasi inaspettata, tanto che l’azienda la tenne segreta e la
brevettò nel 1948. I dispositivi a stato solido rivoluzionavano l’elettronica,
e da allora le innovazioni si sono succedute a ritmo incalzante.
L’astrofisica compiva progressi sconvolgenti. Nel 1952 ci si avvide che le
valutazioni delle distanze intergalattiche erano state largamente
sottovalutate: le dimensioni dell’universo improvvisamente raddoppiarono, ed un
ulteriore raddoppio si ebbe nel 1958. Dagli anni ’20
il volume dell’universo è aumentato di un miliardo di miliardi
di volte!
In biologia, dopo la
formulazione negli anni ‘40 della “teoria sintetica” dell’evoluzione, si ebbe
l’esplosione delle ricerche di biologia molecolare, che sfociarono nel
primo quadro unitario dei processi biologici. Stabilito che la sintesi delle
proteine dipende dai geni (Beadle
e Tatum, 1941) e che il supporto di questi ultimi è
la molecola del DNA (Avery, MacLeod
e McCarthy, 1944; Hershey e
Marta Chase, 1952), da un lato Watson
e Crick dimostrarono la struttura a doppia elica del
DNA (1953) e dall’altro fu determinata la struttura tridimensionale delle
proteine (secondaria: Pauling,
1950-51; primaria: Sanger, 1954;
terziaria: Anfinsen, 1956-58). La struttura terziaria venne ricondotta alla sequenza lineare degli amminoacidi,
preparando così l’incontro tra biochimica e genetica. La base genetica della
sintesi delle proteine venne formulata in termini
della teoria dell’informazione (il flusso
unidirezionale di questa tra gli acidi nucleici e da questi alle proteine
eliminava definitivamente l’ereditarietà dei caratteri acquisiti), e divenne la
base per il “dogma centrale” della biologia (Crick,
1958), la cui interpretazione rigida introdusse un atteggiamento riduzionistico, unidirezionale nell’interpretazione dei
meccanismi dell’organismo vivente (schematicamente: DNA®RNA®sintesi delle proteine).
Venne chiarito il funzionamento della catena respiratoria e della
fotosintesi.
In queste ricerche si svilupparono
laboratori specializzati di grandi dimensioni e collaborazioni internazionali
che portarono a superare la chiusura delle scuole nazionali.
Sono stati lanciati grandi progetti
scientifici, quali il Progetto per il controllo
chimico della fertilità, le ricerche oceanografiche, l’Anno Geofisico
Internazionale. Ma è il caso di segnalare “campagne”
molto più riservate condotte da molti paesi su “cavie umane”, ovviamente
ignare, per sperimentare gli effetti delle radiazioni nucleari, o di nuove
sostanze o farmaci.
20. Nel 1955 gli Stati Uniti lanciavano
una grande campagna a livello mondiale. Le spese nella
ricerca militare per la realizzazione e il perfezionamento delle armi nucleari avevano raggiunto livelli enormi: come sempre, giungeva il
momento in cui cercare di trasferire le tecnologie militari al settore civile,
per farne una nuova fonte di profitto. La realizzazione delle bombe aveva reso
necessaria la realizzazione di reattori nucleari militari nei quali il processo
controllato di fissione dell’Uranio-235 produce invece dall’Uranio-238 il
Plutonio, un elemento “trans-uranico” non esistente in natura,
ma ”esplosivo” nucleare ideale; l’enorme quantità di energia prodotta
nei reattori dalla fissione controllata aveva costituito fino ad allora solo un
problema, imponendo costosi sistemi di raffreddamento. Giungeva il momento per
ammortizzare e mettere a frutto questi investimenti, la ricerca di base e la
tecnologia già sviluppate, lanciando la campagna dell’“Atomo per
21. L’URSS. L’esperienza sovietica aveva intanto
prodotto una serie di effetti notevolissimi, anche se
di valenze assai diverse, nel campo scientifico e culturale.
Sul piano generale l’esperienza della
pianificazione aveva provocato una cesura, che forse la storia economica non ha ancora valutato appieno, anche nei paesi capitalisti,
anticipando molti aspetti della politica del New Deal.
L’attività scientifica aveva ricevuto un
impulso enorme, stimolata dall’eliminazione della struttura zarista, coniugando
l’elaborazione teorica con l’attività sperimentale nel segno da un lato di una
forte impronta ideologica, che produsse risultati
contrastanti, ma dall’altro anche della definitiva accettazione della
tecnologia occidentale e del dominio dell’economia occidentale, in particolare
della folle e suicida corsa agli armamenti.
Certo non mancarono posizioni ideologiche
che produssero danni notevoli tanto alla scienza quanto alla
produzione sovietiche (basti per tutti il “caso Lysenko”).
La resistenza ad accettare l’impianto logico della meccanica quantistica diede
luogo anche a riflessioni fisiche profonde, e non limitò la fecondità della
fisica sovietica (Landau).
È rimasta notevole la scuola matematica
russa, con un approccio sistematico e sistemico che ha portato, e ancora porta, contributi importanti di carattere fondamentale.
La fase di vitalità della cultura
sovietica si espresse nel formalismo e nel costruttivismo; consentì alla straordinaria capacità
espressiva di Ejzenštjn di
coniugarsi con l’esuberanza ritmica e coloristica di Prokof’ev. Stalin pose fine a queste esperienze ed
inaugurò il periodo del “realismo socialista”, reso ancor più rigido nel
periodo zdanovista. Solo la morte di Stalin (1953)
aprì la fase del “disgelo” e rivitalizzò la genuinità
delle espressioni culturali ed artistiche.
22. Il lancio dello “Sputnik”
sovietico nel 1957 provocò negli USA un vero shock: improvvisamente l’Occidente sentiva minacciata il proprio primato,
proprio sul terreno tecnologico sul quale il divario sembrava incolmabile. Il
settore missilistico ed il controllo dello spazio attorno alla Terra erano
cruciali dal punto di vista della sicurezza e della superiorità militare. La
reazione fu energica ed immediata e rafforzò i meccanismi del neocapitalismo.
Si andò dalla redazione di nuovi manuali scientifici per una preparazione più
solida degli scienziati e dei tecnici, all’accelerazione dei programmi
missilistici: nel 1958 fu messo in orbita il primo satellite artificiale
americano (“Explorer I”) e venne creata la NASA,
diretta dallo scienziato nazista creatore delle V2, Wernher
von Braun, il quale
realizzò il missile Saturno che poco più
di dieci anni dopo portò il primo uomo sulla Luna (20.07.1969).
Anche se la fase di maggiore tensione
della Guerra Fredda sembrava passata (1950-53, guerra di Corea), si verificò un’accelerazione della corsa agli armamenti e
della competizione per il controllo dello spazio: nel 1962, con la crisi dei
missili a Cuba, il mondo ebbe la sensazione di avere sfiorato un conflitto
nucleare.
Anche la ricerca scientifica ricevette un
ulteriore impulso ed accentuò il processo di
specializzazione che si era avviato nel dopoguerra.
Sul terreno culturale, probabilmente lo strutturalismo ha costituito l’ultimo progetto sotteso da un certo intento unitario
(di stampo prettamente francese), ancorché sia stato
profondamente diviso tra i suoi protagonisti, i quali spesso hanno rifiutato
questo appellativo: l’intento, aristocratico e antiumanistico, di considerare il
mondo umano alla stregua di qualsiasi campo di indagine delle scienze naturali,
e di scoprire relazioni sistematiche e costanti (strutture) tra i fenomeni
socio-culturali.
Dalla crisi degli anni ’70
alla nuova rivoluzione tecnico-scientifica
23. La guerra del Vietnam (1965-73) segnò
un punto di svolta su tutti i piani: da un lato per l’utilizzazione spietata e
spregiudicata di tutti i tipi di armi esistenti,
utilizzate indifferentemente su tutti cittadini inermi, donne, bambini;
dall’altro per i grandi movimenti di protesta che provocò negli USA e in tutto
il mondo.
La fine della guerra del Vietnam coincise
con lo scoppio della crisi petrolifera e con gli stadi
terminali della lunga agonia del sistema monetario internazionale, ponendo fine
così al periodo eccezionale di sviluppo capitalistico che era iniziato nel
dopoguerra.
La lunga fase di crisi che si aprì ha trasformato radicalmente i cicli e i processi
produttivi (anche per vanificare gli strumenti di controllo e di intervento che
avevano dato forza ai movimenti di contestazione della fine degli anni ‘60),
l’organizzazione e la natura stessa della produzione.
Non è qui il caso di addentrarsi nel
dibattito sulle trasformazioni produttive ed economiche innescate negli ultimi
tre decenni e tuttora in atto (“società post-industriale”, “post-fordismo”,
ecc.). Ci interessa piuttosto cogliere alcuni aspetti
che hanno una connessione più diretta con gli sviluppi tecnico-scientifici,
anche se si tratta di processi che stiamo tuttora vivendo e per i quali non è
possibile il distacco necessario per un’analisi obiettiva e completa.
Il sistema economico è passato dalla
rigidità che caratterizzava la fase precedente ad una crescente flessibilità,
tanto tecnologica e produttiva, quanto del mercato del lavoro. Si è chiusa la
fase di piena occupazione ed alti salari, fondata sulla produzione
standardizzata di massa e a bassi prezzi: anche se non sono certo stati
abbandonati i metodi dell’obsolescenza programmata delle tecniche e dei modelli
con l’introduzione di nuovi prodotti, si è passati da una crescita estensiva ad
uno sviluppo intensivo, compatibile con la saturazione dei mercati, basato
sulla creazione di nuovi settori industriali ed una profonda trasformazione
delle imprese, del mercato e dei loro rapporti. I nuovi settori trainanti si
basano in larga misura su tecnologie leggere: microelettronica, software e
computer, telecomunicazioni, macchine utensili e robot
industriali, biotecnologie, nuovi materiali, aviazione civile, oltre
naturalmente all’industria militare.
Il crollo del Blocco Socialista aveva
almeno sollevato la speranza che si aprisse una fase di disarmo nucleare, di
distensione e di pace: l’ultimo decennio del secolo ha invece duramente
smentito queste speranze ed ha portato ad un mondo unipolare, ad un
imbarbarimento delle relazioni internazionali, a politiche di neocolonialismo
selvaggio, di interventismo militare, di sviluppo di
armi sempre più micidiali (convenzionali e nucleari). Si è assistito ad una esasperazione dei meccanismi capitalistici: politiche
neoliberistiche volte ad eliminare qualsiasi limitazione ai meccanismi sfrenati
di mercato sono state imposte a livello globale con la forza della
super-potenza imperiale, spudoratamente sostenuta dagli organismi
internazionali, quali la Banca Mondiale, il Fondo Monetario Internazionale,
l’Organizzazione Mondiale del Commercio.
24. Tutto questo ha richiesto un rilancio
ed una ulteriore specializzazione dello sviluppo
tecnico-scientifico: si è sviluppata una vera terza rivoluzione
tecnico-scientifica, della quale non si vedono ancora
chiaramente gli esiti finali.
Il rilancio della ricerca scientifica è
stato sempre più vertiginoso, il proliferare delle branche e sottobranche
specialistiche sempre più incalzante. Non sembra nemmeno pensabile oggi
svolgere un’analisi degli sviluppi tecnico-scientifici che abbia
qualche ambizione di sistematicità o di completezza. Sul
piano delle concezioni scientifiche di base – quelle hard delle scienze
fisiche – il livello di estrema formalizzazione raggiunto dalla
meccanica quantistica si è dimostrato sufficiente a “reggere” l’impatto di
questa proliferazione. Anche perché i super-specialismi
che hanno accompagnato il processo hanno di necessità fortemente diminuito le
possibilità di controllarlo effettivamente in qualsiasi modo: sembra esservi in
qualche modo una sorta di deregulation anche nel processo di produzione
della scienza. La maggiore rivista scientifica di fisica (Physical Review) pubblica ogni anno decine di migliaia di pagine di articoli,
suddivisi in varie sezioni, mentre è aumentato vertiginosamente il numero di
riviste su argomenti specializzati: oggigiorno uno scienziato deve selezionare
drasticamente anche l’informazione scientifica che viene prodotta nel settore
in cui lavora, per restringersi sempre più al ristrettissimo campo delle sue
competenze più dirette.
Indubbiamente l’informazione ha costituito un nuovo asse portante di
questo processo, anche se appare infondato parlare di “smaterializzazione”
della produzione: sembra semmai che la “deindustrializzazione” dei paesi più
avanzati abbia coinciso con il decentramento della produzione nei paesi
sottosviluppati, corrispondente a forme di feroce neo-colonialismo. Ma indubbiamente lo strumento informatico è alla base della
flessibilità produttiva, del decentramento e delle nuove forme di controllo,
con cui si sono scalzate le grandi concentrazioni operaie e le loro
tradizionali forme di lotta. Lo stesso strumento ha reso possibili le
transazioni e le speculazioni finanziarie che ogni giorno muovono colossali
somme di denaro. I progressi tecnici in questo settore sono stati strabilianti
e stanno sconvolgendo le nostre forme di vita e di relazioni sociali.
La straordinaria moltiplicazione delle
possibilità di comunicazione ha accentuato l’atomizzazione dei rapporti
sociali: si può “dialogare” con i più sperduti angoli del mondo (beninteso,
sviluppato e ... bianco: in Africa la stragrande maggioranza della popolazione
è esclusa dalle meraviglie del benessere) senza sapere con chi si ha realmente
a che fare. La realtà virtuale offre un rifugio dalle frustrazioni della realtà vera, ma indebolisce
l’impegno per trasformare quest’ultima. Il web offre la possibilità di acquisire informazioni su tutto, di immettere
in rete le proprie conoscenze e proposte, ma questa
libertà assoluta si accompagna all’impossibilità crescente di discernere le
cose serie e importanti, di controllare le fonti e la veridicità, e si presta
ad operazioni incontrollate di manipolazione dell’informazione.
Non a caso Internet ebbe un’origine militare, e i progetti di cyber war (sperimentati recentemente nella guerra nel Kossovo)
dischiudono scenari allarmanti, intrecciandosi
strettamente con il controllo militare dello spazio attorno alla Terra, ormai
intasato fino all’inverosimile di satelliti e “spazzatura” di ogni genere. Mentre Echelon costituisce una rete di controllo e spionaggio capillare estesa dagli
Stati Uniti e dai suoi fedeli satelliti su tutto il mondo.
25. Non meno sconvolgente è il caso delle
biotecnologie. Le conoscenze sulla struttura, le funzioni e i meccanismi
fondamentali dell’organismo vivente avevano compiuto passi da gigante. In
particolare, le interrelazioni tra il codice genetico, l’organismo e l’ambiente sono risultate enormemente più complesse di quanto
fosse stato stabilito inizialmente con il “dogma centrale della biologia”.
Questo progresso vertiginoso delle
conoscenze ha consentito di mettere a punto all’inizio
degli anni ‘70 negli USA complesse metodiche e tecniche di manipolazione mirata
del materiale genetico (ingegneria genetica), per dare vita a
nuove combinazioni molecolari, fino ad ottenere un intero organismo modificato
geneticamente (organismi transgenici). Queste tecniche,
sempre più sofisticate, sono state estesamente
utilizzate dalle grandi imprese multinazionali, anche ai fini di uno scandaloso
sfruttamento più intensivo dei paesi sottosviluppati.
Si può dire che la biologia si trova di fronte ad una contraddizione profonda. Da un lato, negli
ultimi decenni, essa ha pienamente superato la rigida interpretazione del
“dogma centrale della biologia molecolare”, acquisendo una piena consapevolezza
della complessità del vivente: è ormai chiaro, in primo luogo che
qualsiasi intervento umano su un elemento del sistema vivente, ai diversi
livelli di organizzazione, è destinato a
ripercuotersi, almeno in parte in modo imprevedibile, sugli altri elementi
connessi dello stesso sistema; in secondo luogo, che nel funzionamento del
sistema vivente è insito un disordine, una variabilità, che è una condizione
necessaria per il suo adattamento ed equilibrio, e che non può venire forzato
imponendo al sistema comportamenti rigidi, che impediscano l’utilizzazione
piena della sua possibilità di cambiamento, delle sue fonti di libertà. D’altro
lato, però, i biologi intensificano il loro impegno spregiudicato con le
multinazionali del settore biotecnologico ed agroalimentare per intervenire in
modo sempre più invasivo sugli organismi viventi, modificando direttamente il
loro codice genetico per produrre varietà funzionali alle strategie di dominio
monopolistico globale e di profitto del settore: nel
caso degli organismi geneticamente modificati (o.g.m.) essi avallano spudoratamente la
tesi secondo cui tali modificazioni sono completamente controllate e questi
organismi non costituiscono alcun pericolo per l’organismo umano e per
l’ambiente. Altre volte le manipolazioni della materia vivente vengono giustificate sulla base di grandi promesse di
guarigione di infermità, o di preparazione di nuovi farmaci: ma non si vedono
ancora all’orizzonte chiare discriminanti tra le possibili applicazioni utili e
ragionevoli e quelle invece sconsiderate, o chiari limiti che possano fornire
garanzie sufficienti, sulla base dei criteri accennati.
26. Le acquisizioni più avanzate della
biologia si sono realizzate negli stessi anni in cui si è assistito
all’esplodere del problema ambientale. A questi sviluppi
si è accompagnata una rivoluzione concettuale nelle concezioni scientifiche, la
cui concomitanza e consonanza non può essere casuale.
Fino agli anni ‘60 le scienze esatte
avevano considerato il mondo come lineare; tutti i
modelli fondamentali elaborati dalla fisica (la scienza naturale esatta per
eccellenza, fonte ed ispiratrice di modelli per tutte le discipline) erano di
questo tipo: il risultato dell’azione di due fattori è in sostanza la somma dei
risultati di ciascuno dei due fattori separatamente; in particolare,
l’influenza di una fattore perturbatore piccolo non
modifica in modo sostanziale il comportamento del sistema (sistemi non-lineari
erano ovviamente ben noti e studiati, ma sembravano costituire l’eccezione e
non certo la regola nel comportamento della natura). Ma
a partire dagli anni ‘60 hanno cominciato a moltiplicarsi gli esempi, legati a
fenomeni e processi molto comuni, di sistemi aventi comportamenti chiaramente e
fortemente non-lineari. Uno dei primi è stato proprio un
modello super-semplificato dell’atmosfera terrestre,
per il quale l’americano Lorenz trovò
comportamenti incontrollabili e in apparenza caotici (attrattori
strani): da allora si sa che l’incertezza e
l’imprevedibilità delle previsioni meteorologiche non sono dovute ai limiti dei
modelli utilizzati, ma al fatto che l’impossibilità di conoscere con assoluta
precisione lo stato dell’atmosfera rende intrinsecamente impossibile fare
predizioni certe sul suo comportamento futuro. In un sistema non-lineare la
presenza anche di un piccolo effetto di perturbazione può essere in grado di
indurre nel sistema conseguenze drammatiche ed imprevedibili: è opportuno sottolineare che si tratta di sistemi “deterministici”
(il cui comportamento può cioè essere predetto con certezza se si conosce esattamente
il loro stato), per i quali però lo stato ad un dato istante non può essere
determinato con esattezza. Un modo efficace e pittoresco (anche se un po’
paradossale) di esprimere questa proprietà (detta anche “caos deterministico”) è il cosiddetto “effetto
farfalla”: il batter d’ali di una farfalla ai tropici potrebbe provocare
tra qualche giorno una tempesta su di noi.
Si è così sviluppata quella che si chiama
ormai la Scienza del caos” (o dei sistemi complessi), anche se in realtà assai composita al suo interno. Si è ormai
coscienti che la non-linearità non costituisce
affatto l’eccezione, ma la regola nei comportamenti naturali. Il “paradigma”
della fisica newtoniana deve essere radicalmente riveduto (anche se domina tuttora indisturbato nei manuali
scientifici): poichè non è mai possibile determinare
con precisione assoluta lo stato di nessun sistema, ci si devono aspettare
sempre comportamenti caotici imprevedibili; oggi si sa che anche l’”orologio cosmico” per antonomasia, il sistema solare, presenta
comportamenti caotici.
È evidente la rilevanza di questa nuova
concezione per quanto concerne lo studio e l’interpretazione dei fenomeni
biologici e degli ecosistemi. Essa si è anzi rivelata essere una proprietà positiva, benefica: come si è già accennato per i sistemi
biologici, la variabilità propria di un sistema non-lineare costituisce una
fattore essenziale per il suo adattamento.
Di fronte a questa nuova concezione
sembra tuttavia che un po’ tutta la comunità scientifica sia tutt’ora
pervasa da una profonda contraddizione, al pari di quanto già abbiamo rilevato
per i biologi. Anche tra i fisici, ad esempio, il nuovo paradigma è accettato
da una nuova generazione, ma la maggioranza dei fisici legati all’ideale riduzionistico della fisica delle particelle elementari (e
probabilmente agli interessi concreti ed ai meccanismi di potere che ruotano
attorno ad essa) sembra non riuscire neppure a capire
la nuova impostazione, le sue basi e le sue implicazioni. Di fronte a questa
contrapposizione è però difficile sfuggire
all’impressione che gli stessi “scienziati del caos” non riescano a sottrarsi
alla tendenza alla specializzazione ed alla frammentazione. Lo studio dei
sistemi complessi si è suddiviso anch’esso in sezioni molto specialistiche, che
si sono concentrate su modelli o approcci molto specifici: questo processo ha
indubbiamente facilitato l’approfondimento degli studi rigorosi, ma rende più
difficile la costituzione di un quadro unitario dei nuovi sistemi e delle nuove proprietà.
27. È naturalmente impossibile cercare di
prevedere quali sviluppi ci riserverà il secolo che si è appena aperto.
Indubbiamente i cambiamenti che si prospettano saranno
radicali, ed è probabile che sconvolgeranno l’assetto del Pianeta. Il divario
tra paesi ricchi e paesi poveri (più in generale tra
ricchi e poveri, dovunque) sembra aumentare spietatamente. La crisi ambientale
sembra destinata ad aggravarsi, e la “presa del potere” di Bush
nel centro dell’Impero non fanno certamente ben sperare. Lo scempio e lo spreco
delle risorse del Pianeta non potrà seguitare
all’infinito, senza che questo si ribelli, oltrepassi un punto di non ritorno,
forse molto prima che le risorse si esauriscano fisicamente. A meno che questo
non accada ancor prima con una escalation militare che sfugga di mano. La scienza e la tecnologia mostrano
sempre più spudoratamente la loro complicità col potere: il loro impegno
spregiudicato per trasformare qualsiasi cosa in profitto oltrepassa di gran lunga l’impegno (che pure esiste) per la soluzione
dei problemi ambientali, del problema della fame di un quarto dell’umanità, per
debellare malattie come la malaria (la quale ha il grande... “pregio” di
mietere vittime tra gli africani); spesso, anzi, gli interventi in questo senso
si trasformano in nuove fonti di profitto (come il business del “disinquinamento”).
Ma forse tutti questi aspetti sono legati
più strettamente di quanto di solito si sia soliti
pensare. Forse gli Stati Uniti si sono ormai resi conto che le risorse e le
capacità dell’ambiente naturale sono limitate, che su questo Pianeta nel futuro
non ci sarà posto per tutti (a meno, ovviamente, che i più ricchi rinuncino ai
loro privilegi: l’ultima cosa che saranno disposti a fare), e che quindi
bisogna conquistare e difendere all’arma bianca (magari in nome dei diritti
umani) fino all’ultima goccia di petrolio. Questo probabilmente sta alla base
dell’imbarbarimento dei rapporti internazionali, delle brutali politiche di
saccheggio delle risorse, fino all’interventismo
militare diretto per il controllo delle regioni strategiche e dei corridoi di
comunicazione, che hanno tristemente contrassegnato l’ultimo decennio del
secolo che si è chiuso.
---o0o---
La ricostruzione che abbiamo presentato non ha solo il grande limite di un estremo schematismo, almeno in parte
inevitabile a causa dei limiti di spazio. È una storia scritta da un fisico,
anche se animato da vasti interessi interdisciplinari
e culturali.
Ma è anche una storia della scienza e del pensiero “occidentali”: è vero che la grande originalità
ed i grandi contributi scientifici di altre civiltà (cinese, indiana, araba, maya, ecc.) si sono andati esaurendo nell’età moderna, e
che la scienza “occidentale” - la sua struttura logica e metodologica, i suoi
campi di indagine, la sua struttura organizzativa - ha ormai invaso
(colonizzato?) l’intero pianeta; tuttavia sarebbe estremamente importante
ricostruire, recuperare, valorizzare saperi antichi ma tuttora fecondi (bene lo
sanno le multinazionali, le quali praticano la “biopirateria”,
brevettando sostanze naturali e conoscenze popolari), aspetto non meno prezioso
della biodiversità (in questo caso umana) del Pianeta,
in gravissimo pericolo di estinzione, di omologazione, di appiattimento unidimensionale.
È anche una storia basata quasi unicamente sulla scienza e
la cultura prodotte da soggetti di genere maschile: è vero che
tali soggetti hanno di fatto monopolizzato
l’elaborazione in questi campi, così come la vita economica e politica; ma
anche in questo caso bisognerebbe ricostruire (molte studiose hanno
incominciato a farlo) le grandi difficoltà che le donne hanno incontrato, le discriminazioni a cui sono state
soggette.
Ringraziamenti
Il primo ringraziamento va all’amico Luigi Cortesi, per avermi stimolato a cimentarmi
in questo impegnativo compito. Per molte delle tesi qui presentate è stata
fondamentale la mia collaborazione con Arcangelo Rossi negli anni ’70 e ’80. Ma
ritengo doveroso ed importante ricordare qui che molte di queste idee erano maturate nel lavoro e nella riflessione con il
“Collettivo Politico degli Studenti di Fisica” dell’Università di Firenze nei
primi anni ’70; la critica radicale che il movimento studentesco propose della
Scienza fu tutt’altro che uno “slogan”: il fermento,
intellettuale e pratico, di quegli anni costituì lo stimolo fondamentale per
rompere vecchi schemi e riflettere in modo originale sulla realtà. Le chiavi di
lettura del Novecento alla base della presente analisi furono anticipate in una
nota interna dell’Istituto di Fisica dell’Università di Lecce del gennaio 1977 di A. Baracca, G. Battimelli, S. Craparo, F. Marchetti,
A. Rossi, e A Russo: “Radici Strutturali dei Principali Sviluppi Culturali e
Scientifici del ‘900: un Contributo al Dibattito”.
Un ringraziamento a Mauro Cristaldi per la discussione di alcuni
aspetti delle Scienze Biologiche ed i suoi suggerimenti dopo la lettura del
manoscritto, a Hisao Fujita
Yashima per uno scambio di idee sulla scienza
giapponese, e a Leone Montagnini per avermi chiarito
e approfondito alcune intuizioni sui nessi tra Fisica e Cibernetica.
Inserito: 18 novembre 2009
Scienza e Democrazia/Science
and Democracy