a) Premessa metodologica
Come vedremo in seguito nell’ambito sub microscopico la meccanica quantistica e le più recenti acquisizioni sulla fisica
e la teoria dei laser hanno dimostrato la fondatezza sostanziale della visione di Teilhard sul processo evolutivo, cioè un
processo di condensazione e complessificazione che procede attraverso veri e propri salti di stato determinati da
transizioni caratterizzate da effetti soglia e processi cooperativi.
La legge di condensazione e complessificazione si prefigura come legge di tipo universale, cioè che riguarda tutti gli
aspetti della realtà che ci circonda che spazia dalla fisica delle particelle sino alla cosmologia.
Naturalmente questo non significa che vi è una unica formulazione matematica che sia capace di rendere conto della realtà
in tutti i suoi vari aspetti ma solamente che vi è un unico principio formatore che determina la struttura delle varie
formulazioni.
Come qualsiasi legge della natura, essa infatti assume significato quando è applicata ad una situazione reale che ne
determina quelle che in fisica vengono dette condizioni al contorno condizionandone la formulazione con il suo rispettivo
campo di applicabilità. Per esempio la legge della conservazione dell’energia assume in ambito quantistico ( sub-microscopico) una
formulazione diversa da quella adottata in ambito macroscopico che è ancora diversa da quella valida in condizioni
relativistiche, cioè quando la velocità degli oggetti si avvicina alla velocità della luce.
Il passaggio dalla dimensione atomico-molecolare a quella cellulare procariota ed eucariota comporta naturalmente una
ridefinizione dei parametri in termini di grandezze medie essendo praticamente impossibile utilizzare il formalismo
matematico della meccanica quantistica per molecole di elevato peso molecolare e quindi tanto meno per
sistemi cellulari.
Questo naturalmente non significa che le leggi quantomeccaniche che regolano le reazioni tra piccole molecole non sian
valide per le reazioni che avvengono in ambito cellulare, ma solamente che in questo secondo caso vi sono molte variabili
diverse che determinano le condizioni al contorno in cui operano le stesse leggi naturali.
La ridefinizione dei parametri è un elemento fondamentale per qualsiasi trattazione scientifica moderna e costituisce la
base di quel riduzionismo metodologico che a partire da Cartesio costituisce la base su cui è costruito il sapere nell’età
moderna.
Questo metodo si articola in quattro punti fondamentali che sono:
1) il dubbio, inteso naturalmente non come via principale verso lo scetticismo ma come strumento che permette di non
assumere niente come verità assoluta, data per scontata, ma di essere sempre pronto a rimettere tutto in discussione e
sottoporlo nuovamente alla prova della ragione.
2) L’analisi, cioè di suddividere il problema in parti separate da analizzare individualmente per individuarne le
caratteristiche fondamentali anche rischiando esemplificazione ed approssimazioni
3) La sintesi, cioè il passaggio dal particolare al totale per mettere in correlazione la interazione tra le varie parti nella
formazione del tutto
4) La enumerazione, che in termini moderni potremmo definire come la verifica sperimentale della teoria acquisita
tramite il precedente processo razionale.
Il metodo cartesiano che costituirà poi la base del metodo sperimentale di Galileo, incorpora quindi nel suo interno uno
strumento riduzionista, cioè l’analisi ma nello stesso tempo si classifica con una visione olistica, cioè con la sintesi in cui
ricomporre le conoscenze acquisite tramite l’analisi per poterle applicare alla conoscenza del tutto.
Questo metodo è del tutto contrario al riduzionismo ontologico, cioè al materialismo, che si limita esclusivamente al
secondo livello e cerca di spiegare il tutto tramite le caratteristiche dei singoli costituenti senza prender in considerazioni
le interazioni tra le parti che danno origine alle proprietà emergenti caratteristiche dell’insieme.
Il riduzionismo metodologico costituisce quindi uno strumento ineliminabile per l’acquisizione della conoscenza ma per
essere tale deve essere applicato in modo rigoroso ed accurato poiché un uso non corretto di questo metodo può portare,
come spesso accade, a delle conclusioni del tutto errate o per lo meno alquanto azzardate.
Nell’ambito del secondo punto infatti, cioè la fase di analisi e di separazione del problema in settori separati riveste un
ruolo fondamentale la definizione delle condizioni al contorno in cui le varie teorie scientifiche si sviluppano, cioè la
definizione di quei postulati che determinano i limiti di validità della teoria stessa e di cui occorre tener conto nell’ambito
della fase successiva, cioè quella della sintesi.
Molto spesso si tende invece ad estrapolare indebitamente i risultati ottenuti nel secondo livello per proiettarli, attraverso
processi analogici, al quarto livello saltando completamente la fase tre, cioè la sintesi. (3)
La formulazione matematica di tutte le teorie scientifiche e quindi anche i concetti sottesi, debbono essere sempre
correlati con le condizioni al contorno e soprattutto con la verifica sperimentale , che costituisce il quarto livello del
metodo.
Sulla base quindi di questa premessa osserviamo quali sono i vari campi in cui tale legge si esprime.
a) Cosmologia
La teoria del Big-Bang, nonostante i molti problemi non ancora risolti, costituisce l’ipotesi maggiormente suffragata sulla
nascita dell’universo, e vede i primi inizi quasi contemporaneamente alla stesura de “Il fenomeno umano”.
Teilhard accenna ad essa solo vagamente in una nota del libro “Il fenomeno umano” nel capito della previta, e non coglie
la profonda consonanza tra la sua visione dell’universo e la stessa teoria che vedrà nella seconda metà del secolo la sua
completa affermazione.
Secondo tale ipotesi, dopo l’eplosione iniziale e la separazione della materia dall’energia, che si ritiene avvenuta in
frazioni di secondo, l’universo era composto esclusivamente di atomi di idrogeno e successivamente di elio, elementi che
sono tuttora in esso predominanti.
L’universo è quindi venuto formandosi in seguito al processo di condensazione che è avvenuto a causa del suo
raffreddamento progressivo in concomitanza con il processo di espansione determinato dal Big-Bang.
L’attrazione gravitazionale ha determinato la formazione di stelle al cui interno sono avvenuti ed avvengono attualmente
processi di fusione nucleare che generano atomi sempre più pesanti corrispondenti agli altri elementi presenti in natura e
liberando contemporaneamente una enorme quantità di energia.
La formazione dei pianeti, dei satelliti e delle altre stelle sarebbe avvenuta in seguito alla esplosione di queste stelle di
prima generazione con la contemporanea dispersione dei loro atomi nell’universo.
Quindi, dopo il primo punto di singolarità iniziale, vi è una unica legge naturale che da forma e contenuto a tutta la realtà
che ci circonda, e cioè la legge di condensazione, o come avrebbe detto Teilhard di complessificazione che non consiste in una semplice sovrapposizione ma in una profonda unione delle parti che si fondono e si compenetrano per generare un
nuovo individuo ( cioè un nuovo ente indivisibile).
In base a questa legge quindi possiamo dire che nelle singole stelle i singoli protoni si fondono per formare nuclei pesanti
con più protoni e neutroni ed a livello planetario che i singoli atomi si uniscono per formare molecole e che molecole più
piccole si fondono per formare molecole più grandi fino alla materia vivente.
Il processo di condensazione della materia, e quindi di aumento dell’ordine che avviene in alcuni punti dell’universo è
determinato e compensato dall’aumento del disordine globale dovuto al processo di espansione attualmente in atto
nell’universo.
Sotto questo aspetto quindi e con queste considerazioni il meccanismo proposto da Teilhard rientra perfettamente nei
limiti della meccanica classica e della termodinamica nei termini in cui esse sono state formulate agli inizi del XX secolo
per spiegare le leggi della trasmissione del calore e della energia soprattutto in relazione alla loro trasformazione in
lavoro.
Le leggi della termodinamica sono state formulate infatti per sistemi isolati ( in cui non vi è scambio né di energia né di
materia con l’ambiente esterno) o con sistemi chiusi ( in cui vi è solo scambio di energia e non di materia) e rendono conto
dell’insieme del sistema ma non delle singole parti costituenti. Il cosiddetto carattere antientropico, attribuito ai processi
di complessificazione è da attribuire quindi ad una inesatta determinazione dei limiti di validità della termodinamica che
nei processi vitali sarebbe applicata addirittura a sistemi aperti, cioè in cui vi è anche scambio di materia.
b) Chimica – Fisica : Il legame chimico.
Il passaggio dalla fisica nucleare alla chimica in cui ci occupiamo dell’interazione tra i vari atomi e della formazione delle
molecole comporta una ridefinizione del problema e delle rispettive variabili con la conseguente ridefinizione delle
condizioni al contorno: si passa infatti dal campo delle forze nucleari forti alle forze nucleari deboli ed alle forze
elettromagnetiche ( questi due tipi di forze sono state recentemente riunificati in un unico tipo).
Gli atomi e le molecole costituiscono i mattoni fondamentali della realtà che ci circonda compresi i nostri stessi corpi. La
base teorica su cui si fondano le conoscenze della chimica e della biologia molecolare è costituita dalla meccanica
quantistica.
Nell’ambito della realtà sub microscopica, cioè nel trattare con atomi e molecole, siamo costretti tuttavia ad abbandonare
una trattazione di tipo deterministico per accontentarci di una trattazione di tipo probabilistico.
La ragione di questo salto qualitativo di scelta metodologica e quindi del formalismo matematico è dovuta al fatto che
qualunque tipo di misura noi facciamo, od immaginiamo di fare su di una particella elementare, comporta una interferenza
sul sistema tale da alterarne l’energia o la posizione. Questa difficoltà è espressa dal principio di indeterminazione di
Heisenberg che ci indica esplicitamente i limiti di precisione con cui possiamo fare questo tipo di misure.
La meccanica quantistica quindi rinuncia a definire con esattezza la posizione di una particella elementare ( ad esempio un
elettrone in un atomo od una molecola) per privilegiare invece la definizione esatta della sua energia e per fare questo,
sulla base di esperimenti che hanno messo in evidenza la natura ondulatoria e corpuscolare di tale particella, associa ad
essa una funzione d’onda il cui quadrato ci fornisce la probabilità di trovare tale particella in un determinato volume dello
spazio.
L’approccio quantomeccanico, applicato a sistemi alla stato stazionario, cioè in cui non vi è variazione di energia con il
tempo, fornisce come soluzione delle funzioni d’onda stazionarie (autofunzioni) caratterizzate da valori di energia
quantizzati (autovalori) che vengono denominate orbitali.
Ogni atomo presente in natura ha quindi una sua particolare struttura elettronica che è determinata dal numero dei protoni
presenti nel nucleo e dal numero di elettroni orbitanti intorno ad esso. Questi elettroni si dispongono a coppie su orbitali di
energia crescente a partire da quelli che sono più vicini al nucleo che hanno una minore energia interna. Di tutti questi
elettroni una particolare rilevanza viene assunta dagli elettroni presenti nell’orbita più esterna che sono attratti con minor
forza dal nucleo e che sono di norma quelli che sono implicati nella formazione del legame chimico con altri atomi, uguali
o diversi , per formare la molecola .
Al momento della formazione di un legame chimico, ad esempio tra due atomi dello stesso tipo, quello che si osserva è
una interazione tra due orbitali atomici che si combinano in modo da formare due orbitali molecolari di cui uno ad energia
minore degli orbitali atomici di partenza ed uno ad energia maggiore dando luogo a due nuovi orbitali molecolari su cui si
dispongono due elettroni degli atomi di partenza. (4)
Il legame chimico può avvenire anche tra atomi di specie diversa attraverso un meccanismo che è perfettamente analogo
dando luogo a molecole sempre più grandi.
Le nuove entità molecolari che si formano hanno tutte in comune la caratteristica di avere una energia interna minore dalla
somma delle energie interne degli atomi costituenti ed inoltre di avere una distribuzione degli orbitali elettronici (che sono
in numero uguale alla somma degli orbitali atomici degli atomi costituenti) modificata dalle interazioni atomiche tale da
avere una minore differenza di energia tra gli orbitali occupati dagli elettroni, che configurano lo stato fondamentale della
molecola e gli orbitali non occupati che possono essere raggiunti dagli elettroni a temperature maggiori o per azione di urti
con altre molecole o per assorbimento di radiazione elettromagnetica.
Ogni nuova molecola formata ha delle caratteristiche completamente diverse da quelle degli atomi di partenza e
costituisce una vera e propria nuova entità, cioè una nuova sostanza. Queste nuove entità quindi e le loro caratteristiche
sono riconducibili ma non riducibili alle caratteristiche degli atomi di partenza. Questo significa che in genere, tranne che
in casi estremamente semplici, le proprietà delle nuove molecole non sono deducibili a priori dalle caratteristiche degli
atomi di partenza anche se a posteriori possono essere interpretate in funzione delle particolarità degli
elementi costituenti.
Questa difficoltà nel predire esattamente le caratteristiche delle nuove molecole sulla base della conoscenza degli atomi
costituenti deriva semplicemente dalla molteplicità delle particelle (nucleo ed elettroni) che costituiscono ciascun atomo
che deve interagire con altri atomi per formare la molecola. Questo non vuol dire naturalmente che noi siamo del tutto
impotenti di fronte alla problematica di effettuare nuove sintesi, perché possiamo procedere per analogie e per
approssimazioni che sulla base delle conoscenze acquisite ci permettono di elaborare nuove tecnologie e nuove
informazioni.
La formazione di una nuova molecola rappresenta quindi il caso più semplice ed elementare del fenomeno della
emergenza che è determinato dalla molteplicità e dalla complessità connessa al tipo di interazione che si instaura tra le
varie particelle. Questa interazione, come abbiamo detto , determina una ridefinizione delle energie degli orbitali degli
atomi costituenti, che sono più ravvicinati tra di loro.
A livello molecolare quindi, anche per molecole relativamente semplici, un aumento della molteplicità e della complessità
comporta una maggiore stabilità di tutto l’insieme, un aumento del numero dei modi normali di vibrazione, cioè degli
spostamenti relativi di un atomo rispetto agli altri ed una maggiore possibilità di transizione tra vari livelli energetici nel
senso che essi sono più ravvicinati e quindi richiedono una minore energia per essere effettuati. Quando un sistema
atomico è in equilibrio termico con l’ambiente circostante assume una configurazione di minima energia interna
determinata dalla legge di distribuzione di Boltzmann che per temperature non troppo elevate determinano una
configurazione chiamata stato fondamentale.
Il processo di complessificazione comporta tuttavia anche un’altra caratteristica che occorre sempre tenere presente, e
cioè che molecole più complesse sono anche molecole che sono più facilmente attaccabili da entità esterne, e quindi , in
genere , più reattive. Per esempio molecole di idrogeno o di azoto o di gas nobili possono resistere a condizioni estreme di
temperatura , mentre molecole organiche molto più grosse vanno incontro a processi di scissione e di deterioramento.
Questo significa che la molteplicità e la complessità è in genere portatrice di un elevatissimo valore aggiunto ma nello
stesso tempo comporta una maggiore fragilità per cui essa è possibile solo in particolari condizioni ed ha bisogno per
conservarsi di sofisticati meccanismi di difesa.
Come vedremo questo aspetto sarà molto importante per le reazioni chimiche che avvengono durante un processo vitale.
Possiamo quindi riassumere affermando che il processo di complessificazione comporta nell’ambito della chimica-fisica
a) la formazione di nuove entità (cioè molecole) che noi chiameremo individui le cui caratteristiche sono deducibili, ma
non riducibili alle caratteristiche degli elementi di partenza; b) i nuovi individui hanno una maggiore stabilità, perché sono
caratterizzati da una minore energia interna rispetto alla somma delle energie dei costituenti c) i nuovi individui sono
maggiormente differenziati tra di loro perché le loro caratteristiche cambiano a seconda delle modalità di reazione pur
partendo dagli stessi elementi costituenti e d) i nuovi individui presentano un maggior grado di libertà, intesa non nel
senso antropologico del termine ma in senso fisico, cioè le molecole maggiormente complesse, essendo caratterizzate da
stati a più bassa energia e maggiormente ravvicinati hanno la possibilità di essere eccitate più facilmente e quindi di
accedere ad una maggiore distribuzione, a parità di temperatura, rispetto alle molecole costituenti.
L’aumento della complessità comporta quindi un aumento del grado di individualità dei nuovi soggetti, interpretando
questo termine nel senso sopra descritto.
Quanto detto sopra in maniera molto succinta e semplificata costituisce la struttura fondamentale su cui si fonda la
meccanica quantistica per una trattazione qualitativa e quantitativa del legame chimico.
Teilhard de Chardin aveva intuito in maniera sostanzialmente corretta il meccanismo sopra esposto associandolo
erroneamente ad una forma di energia, che egli definisce “energia radiale” che egli presuppone in continuo aumento
proprio per sottolineare lo svolgimento naturale di questo processo che egli aveva messo a base dell’evoluzione, come
pure aveva intuito la correlazione tra complessità e reattività a cui abbiamo accennato ipotizzando una correlazione tra
energia radiale ( che aumenta le centreità del sistema) con l’energia tangenziale che identificava con l’energia
tradizionalmente trattata nelle scienze chimiche e nelle scienze fisiche.
Il rapporto tra energia interna (con la conseguente configurazione degli stati elettronici) e la reattività è stata ampiamente
trattata nella teoria degli orbitali di frontiera elaborata da Fukui , premio nobel per la chimica nel 1981, che prende in
esame le interazioni tra le singole molecole e le molecole circostanti al momento della formazione di un nuovo legame ed
in tale trattazione trova giustificazione anche l’andamento non continuo del processo di complessificazione ipotizzato da
Teilhard con la presenza dell’energia di attivazione che costituisce una specie di soglia che deve essere superata affinché
il processo abbia luogo.
c) Effetti soglia ed effetti di Up Conversion
Un altro problema con cui la teoria di Teilhard ha dovuto fare i conti è la legge termodinamica della degradazione
dell’energia. Abbiamo già detto che le leggi della termodinamica di per sé non vietano che all’interno di un sistema che
globalmente evolve verso stati a maggiore entropia vi possano essere delle fluttuazioni energetiche tali da indurre in
alcune sue zone un andamento del tutto contrario, tuttavia, tranne che nei sistemi viventi un tale comportamento non era
mai stato reso evidente in natura e rimaneva del tutto inspiegato. La risposta a questo problema è arrivata verso la fine degli anni 70 del XX secolo con lo sviluppo della teoria e delle
tecniche laser applicate al campo dell’ottica non lineare e dei fenomeni coerenti.
Attraverso l’uso di laser pulsati con alta potenza di picco focalizzati su piccole porzioni di materia è stato possibile
provocare processi di Up Conversion cioè trasformare radiazione elettromagnetica di bassa energia (luce rossa) in
radiazione elettromagnetica di alta energia (luce ultravioletta), cioè andando in senso contrario a quanto previsto dalla
legge di degradazione dell’energia.
Questi processi sono molto difficili da osservare e dipendono dalla intensità della radiazione incidente in modo non
lineare, tuttavia, pur mostrando nella globalità dell’esperimento un andamento concorde con le leggi della termodinamica
provano che, in piccolissime quantità ed in condizioni appropriate, è possibile anche muoversi anche in senso opposto a
quello che generalmente si osserva.
Questi processi apparentemente di tipo antientropico possono essere o non essere a soglia e sono sostanzialmente effetti di
tipo cooperativo e coerenti, cioè tali che i fotoni o gli atomi si muovono insieme in concordanza di fase.
L’importanza di questi processi anche all’interno della nostra trattazione sta nel fatto che essi dimostrano ancora una volta
che le leggi della natura pur essendo definite e stabili possono tuttavia dare origine ad esiti diversi in funzione delle
condizioni dell’ambiente in cui esse vengono applicate. Nel caso in questione è stato possibile ottenere un salto
qualitativo (cioè la creazione di fotoni al alta energia) attraverso la concentrazione di un numero notevole di fotoni a bassa
energia in una porzione limitata di materia.
Questi processi di Up Conversion possono essere definiti anche essi come effetti emergenti, anche se sono di natura
diversa da quelli che abbiamo esaminato in precedenza, e rivestono un ruolo importante nella teoria evoluzionistica di
Teilhard che partendo da una base molto ampia e di bassa qualità ( cioè la totalità degli organismi viventi) porta,
attraverso stadi intermedi, alla comparsa dell’uomo che egli pone al vertice della piramide in termini qualitativi anche se
limitato in termini quantitativi.
d) La formazione della vita
Anche il passaggio dal livello atomico-molecolare al livello biologico-macromolecolare comporta, come abbiamo detto,
una ridefinizione di variabili necessaria affinché la scienza possa accedere alla conoscenza dei fenomeni in termini reali e
proficui.
Questo non significa che le leggi che operano a livello quantistico non siano valide al livello macroscopico ma solamente
che il numero di particelle implicate in tali fenomeni è talmente elevato da risultare improponibile una trattazione
quantistica rigorosa. Anche le trattazioni modellistiche più sofisticate utilizzano largamente in questo tipo di calcoli delle
grandezze medie e delle distribuzioni statistiche trattate in termini classici e non quantomeccanici. Cioè siamo in presenza
contemporaneamente di processi di tipo quantistico, come la formazione e la rottura di legami chimici e di processi
mediati, quali la polarità, la solubilità, la miscibilità ecc. di aggregati molecolari e di soluzioni.
Proprio nel campo biomolecolare risulta maggiormente evidente quel processo di condensazione e di complessificazione
che Teilhard ha posto alla base della sua teoria generale dell’evoluzione ed il processo individuato a livello
atomico-molecolare continua ad essere valido seppure espresso in termini differenti.
Una caratteristica fondamentale della materia vivente, che noi chiameremo bio-organica è che essa è basata
fondamentalmente sulla chimica del carbonio che costituisce l’elemento predominante in un essere vivente, insieme
all’ossigeno, all’azoto, al fosforo ed a pochi altri. Con un numero relativamente limitato di elementi chimici è possibile
quindi, tramite processi di aggregazione e di complessificazione, procedere alla formazione di macromolecole, proteine,
zuccheri ecc. che sono in grado di generare e sostenere l’esistenza di un essere vivente le cui caratteristiche possono
spaziare da quelle di una cellula procariota sino a quelle di un essere umano.
Questo processo è possibile perché ciascun componente di questo sistema vivente ha un elevato e crescente grado di
individualizzazione che lo rende peculiare e nello stesso tempo diverso dagli altri componenti similari con cui interagisce
per formare un unico individuo superiore.
La reattività e la grande varietà di configurazione che possono assumere le molecole biologiche è determinata proprio
dalle loro dimensioni e dall’elevato numero di gradi di libertà di cui esse godono che permette loro di poter reagire a
temperature controllate e relativamente basse , tali cioè da non compromettere la loro esistenza e la loro struttura interna.
Processi semplici di associazione e dissociazione sono alla base di processi di tipo enzimatico che sono in grado di
abbassare sostanzialmente le energie di attivazione che sarebbero necessarie per ottenere le stesse reazioni in ambienti
non biologici.
Un ruolo fondamentale di questo meccanismo è determinato dalla polarità delle molecole determinata dalla presenza su di
una catena alifatica, cioè costituita da atomi di carbonio e di idrogeno, di atomi più elettronegativi quali l’ossigeno o
l’azoto questa presenza rende possibile individuare una zona di una molecola con un eccesso di carica elettrica e quindi di
natura idrofila mentre il resto rimane non carico elettricamente ed è quindi di natura idrofoba. Un esempio classico di
questo tipo di molecole sono gli acidi grassi che messi in una miscela di acqua ed olio si dispongono in modo da interagire
con l’olio attraverso la parte idrofoba e con l’acqua attraverso la parte idrofila con legami di natura elettrostatica. Questo
significa che questo tipo di molecole, come molte altre molecole organiche mostrano dei processi di aggregazione
spontanei che possono dare origine a delle micelle, cioè a veri e propri corpuscoli con una cavità idrofoba immersi in una
soluzione acquosa. Queste micelle possono essere il vero e proprio prototipo delle membrane cellulari che delimitano il corpo degli organismi
procarioti cioè organismo monocellulari che si nutrono attraverso la fagocitazione di sostanze che aderiscono alla
membrana cellulare per affinità simile a quella che abbiamo visto in precedenza.
Risulta quindi del tutto naturale affermare che la vita abbia avuto inizio in alcune nicchie ecologiche adatte a conservare le
condizioni necessarie al suo sviluppo, al riparo cioè da fenomeni eclatanti e devastanti. Questo tipo di processo è di tipo
autocatalitico, nel senso che il suo sviluppo rende possibile l’aggregazione di altre molecole e quindi di autoalimentarsi.
La nascita della vita, così come l’apparizione di nuove specie è un processo di tipo a soglia, cioè è determinato dalla
possibilità di raggiungere le condizioni necessarie a formare una nicchia ecologica, ma nello stesso tempo è un processo di
tipo autocatalitico, capace quindi di autoalimentarsi e autoriprodursi: cioè qualcosa di simile a quanto avviene nell’effetto
Laser od in una esplosione atomica che avviene solo se la concentrazione del materiale radioattivo raggiunge un valore
critico oltre il quale ogni fissione provoca la fissione di altri atomi in un crescendo continuo ( ed in questo caso
devastatore).
Non dobbiamo essere stupiti della frequente ricorrenza di questo meccanismo, cioè dell’apparizione di una variazione o di
una formazione che si sviluppa in un ambito spazio temporale limitato per poi diffondersi gradualmente su larga scala
perché questo processo di unione, complessificazione e specializzazione è un motivo ricorrente nella storia universale,
che si ripresenta continuamente anche se con forme ed in contesti diversi. Basti considerare che la stoffa della vita è
sempre fondamentalmente la stessa, cioè e costituita dallo stesso tipo di molecole, presenta la stessa struttura cellulare che
si alimenta , si riproduce e muore con gli stessi meccanismi. Come pure basti pensare che ogni essere vivente ripercorre in
un arco di tempo limitato l’intera storia dell’universo; nasce infatti come un essere unicellulare in ambiente riparato, cioè
una nicchia isolata dall’esterno, si accresce tramite la suddivisione e la specializzazione delle cellule che si accrescono in
numero fino a delineare l’essere completo che a questo momento esce dal suo ambiente protetto per proseguire la propria
evoluzione a contatto diretto con gli altri esseri più o meno simili inserendosi in un contesto di tipo sociale e contribuendo
egli stesso a creare e modificare l’ambiente in cui vive.
Questo motivo ricorrente è il fondamento stesso dell’evoluzione che si sviluppa come un grande composizione sinfonica
di stampo beethoveniano in cui il tema principale si affaccia delicatamente all’orecchio dell’uditore ritmato da un singolo
strumento quasi impercettibile, seguito dal contrappunto di altri strumenti che individualmente si uniscono
diversificandosi gradualmente e continuamente per poi venire accolto da tutta l’orchestra che lo suona all’unisono. Come
in tutte le sinfonie il tema di base riaffiora continuamente all’interno della composizione in tempi e frequenza sempre
diverse in una fioritura perenne di accordi e variazioni che nella loro molteplicità rinnovano continuamente l’originalità e
l’unicità della composizione.
La sin-fonia della composizione si traduce nella storia dell’universo nella sin-ergia delle componenti che determinano
quella direzione preferenziale, cioè quella freccia dell’evoluzione mirabilmente intuita da TdC.
Negli esseri superiori i meccanismi sono molto più complicati, ma fortunatamente ad ogni processo vitale è associato un
fenomeno che spesso viene trascurato o male interpretato, e cioè è associata la memoria: una memoria chimica che viene
accumulata all’interno della cellula stessa nella catena del DNA e viene trasmessa alla generazioni successive insieme alla
vita stessa. Questo fa sì che le esperienze acquisite da un organismo possano essere trasmesse agli individui generati
successivamente instaurando una vera e propria sinergia non solo in senso orizzontale, cioè tra individui delle stessa
specie (e spesso anche di specie diverse) che vivono nello stesso spazio e nello stesso tempo, ma anche tra individui che
vivono in un tempo diverso e forse anche in spazi diversi.
Ciascuno di noi conserva nel suo DNA la memoria storica di questo evento eccezionale, con i suoi successi (il nostro
patrimonio genetico) ed i suoi insuccessi (la gran parte del DNA che non codifica le proteine) e ciascun individuo, di una
determinata specie, ha in comune con gli altri individui della stessa specie un stesso patrimonio genetico che costituisce la
base del suo atteggiamento comportamentale che lo rende unico.