La realtà, fino agli inizi di questo secolo, attraverso la fisica Newtoniana e la logica Cartesiana, era rappresentata come fatta di oggetti materiali isolati, con proprie caratteristiche di massa, velocità e localizzazione, che esistevano in uno spazio fondamentalmente vuoto ed in un tempo precisi e definiti.
Le “forze” che agivano su tali corpi e da cui essi erano regolati erano entità estrinseche ai corpi stessi e producevano (determinismo) fenomeni secondo una logica di causa-effetto (meccanicismo) in maniera matematicamente lineare, ossia all’aumentare della forza impressa aumentava l’effetto, l’entità del fenomeno. Sul versante della Conoscenza il predominio dell’impostazione cartesiana, il “cogito ergo sum”, aveva inoltre stabilito definitivamente la dualità tra res cogitans e res estensa, ossia tra mente e corpo, tra rappresentazione e realtà oggettiva per cui ogni oggetto di indagine, compreso il pensiero stesso ed il comportamento, potevano essere analizzati, spiegati e classificati secondo le leggi del determinismo e del meccanicismo (riduzionismo). Questi, purtroppo, sono ancora oggi i presupposti ed i paradigmi di fondo dell’attuale sistema accademico medico e psichiatrico.
Lo studio dell’Atomo, iniziato con il suo bombardamento da Rutherford (1911), rivelò, nell’arco di circa 80 anni, fatti che cominciarono a far saltare molte delle convinzioni viste sopra. Molte scoperte costituirono e rappresentano tutt’oggi dei paradossi estremamente difficili, se non impossibili a capire per il nostro comune modo di pensare. Con altri sistemi concettuali più moderni, sviluppatisi soprattutto negli ultimi 30 anni, è invece diventato possibile comprendere come può funzionare l’ordine più intrinseco dell’universo e della natura. Vediamo alcuni passi fondamentali.
Innanzitutto si sono scoperte nuove particelle subatomiche (nucleoni), non solo quei protoni, neutroni ed elettroni con cui ci siamo conquistati un buon patrimonio sull’interazione chimica della materia,queste ( circa 200 attualmente) comprendono, dal positrone di Dirac (1930) in poi, anche relative antiparticelle, così che si è introdotto il concetto di “antimateria” all’interno del concetto di ciò che esiste. Il numero, la durata di vita e il tipo di attività di tali particelle, rivelati dagli strumenti, resero impossibile stabilire relazioni lineari e meccaniche tra le stesse, ogni particella è formata infatti di altre particelle che possono interagire trasformandosi una nell’altra: mesoni, bosoni, muoni, leptoni ecc. sono solo riferibili a momenti infinitamente piccoli, esse decadono, si creano e si distruggono incessantemente.
Inoltre la massa dell’atomo si rivelò “confinata” in uno spazio estremamente piccolo ( il nucleo, che la contiene praticamente tutta è, rispetto alla nube elettronica che gli ruota attorno, centomila volte più piccolo cioè è come una arancia all’interno di una sfera di 1 km. di diametro) cosicchè la materia risulta praticamente vuota. Anche se cresce il numero atomico, un masso di granito non è, per le nostre coordinate razionali, meno vuoto di un gas rarefatto!
Solamente all’inizio del secolo scorso si trovò poi una soluzione al dibattito tra la natura corpuscolare ( Newton, 1700) e ondulatoria ( Huygens, 1678) della luce. Nel 1801 l’inglese Thomas Young eseguì un celebre esperimento che avvalorava la natura ondulatoria: due raggi di luce (originati dalla divisione di un unico raggio di partenza) colpivano due fenditure, successivamente intersecandosi e interferendo tra loro. L’area di intersezione non risultava più luminosa, come ci si sarebbe aspettato da un modello particellare, ma presentava bande più o meno luminose alternate, creando un’immagine di interferenza come prevede il modello ondulatorio. E’ con Louis de Broglie, 1924, che si afferma la doppia natura della luce ma è con la meccanica quantistica che si risolve il dualismo onda-particella abbinando alla natura corpuscolare della materia e della radiazione elettromagnetica la natura probabilistica dell’evento fisico, in cui la probabilità ha un andamento periodico nello spazio-tempo analogo al fenomeno ondulatorio. In particolare l’esperimento della doppia fenditura si giustifica con la perdita di valore del concetto di “traiettoria”, a favore della sola probabilità che la particella si trovi in un dato punto a un dato istante.
Nel frattempo, dopo gli sviluppi dell’elettromagnetismo apportati da Maxwell, gli scienziati avevano rivelato come alla base dell’esistenza anche di fenomeni macroscopici come la luce e la corrente elettrica, vi fosse l’interazione, in questo caso tra entità con caratteristiche opposte (cariche positive e negative).
Rivelandosi erroneo riferire tali cariche a entità corpuscolari statiche, si andò affermando il concetto di Campo, ossia di perturbazioni occupanti spazio, con carica positiva o negativa, che si diffondono. La luce diventò, ad esempio un campo elettromagnetico rapidamente alternante che si propaga nello spazio vuoto senza neanche bisogno di un mezzo di trasporto come era l’aria o l’acqua per il suono.
I fotoni (termine introdotto da Einstein), che dovevano in precedenza essere considerate alla stregua di particelle (elettroni), vennero da allora intese come pacchetti di energia (Quanti)che si diffondono in maniera ondulatoria. Anche per il concetto di forza (elettromagnetica), intesa come entità definita, divenne progressivamente più appropriato riferirsi a quello di Campo di forze. Tale concetto si rivelò valido anche per la forza di gravità ed infine per le forze di interazione delle particelle atomiche.
Da Einstein in poi si è capito che era possibile ipotizzare l’esistenza di un campo di forze e di una serie di leggi che spiegassero contemporaneamente lo sviluppo di ogni fenomeno esistente nell’universo (il Campo Quantistico e la Teoria del campo Unificato). Finora è stato possibile unificare il campo elettromagnetico con quello delle Interazioni deboli (che si manifestano nei processi di radioattività dei nuclei e nel decadimento di molte particelle instabili) e quello delle Interazioni forti (quelle tra particelle nucleari), rimane ancora fuori solamente il Campo Gravitazionale.
La Meccanica Quantistica si sviluppò dagli anni venti in poi sulla base anche degli esperimenti di laboratorio iniziati da De Broglie, Bhor, Heisemberg, Dirac e Pauli.
Già nel 1900 Max Planck aveva proposto la nota costante che prese il suo nome. Indicata con h, è una costante fisica ed ha le dimensioni di un’energia per un tempo La costante di Planck è detta anche “quanto d’azione”, e la sua scoperta ha avuto un ruolo determinante per la nascita e la successiva evoluzione della meccanica quantistica. La costante di Planck è responsabile della quantizzazione delle grandezze dinamiche che caratterizzano a livello microscopico le particelle elementari che compongono materia e luce: elettroni, protoni, neutroni e fotoni. “La quantizzazione consiste nel fatto che, a livello microscopico, energia, impulso e momento angolare, invece di assumere una serie continua di valori, si manifestano in quantità multiple di quantità fisse. Ad esempio, l’energia E trasportata da un onda elettromagnetica con frequenza costante ν può assumere solo valori pari a
Da questi studi emersero ancora fatti e principi difficilmente accettabili dal senso comune. Con il Principio di Complementarietà di Bhor (1927), si postulò che un quanto di energia elettromagnetica può esistere contemporaneamente sia come particella dotata di massa e velocità rivelabile da un misuratore, sia come pacchetto d’onda oscillante che produce tutti i classici fenomeni (di riflessione, di interferenza ecc.) delle radiazioni ondulatorie. Paradossalmente quello che determina il modo in cui esiste è la modalità con cui lo osserviamo: se vogliamo contarlo ci appare come particella, se vogliamo osservarne gli effetti su uno specchio ed uno schermo si comporta come un’onda. E’ possibile stabilire previsioni, allora, solamente secondo modalità probabilistiche e non deterministiche.
Con L’Equazione di Schrodinger (1926) il movimento di una particella diviene allora l’evoluzione temporale di una nuova grandezza chiamata “funzione d’onda”, che rappresenta la probabilità di trovare la particella in una certa posizione. Non solo, per il Principio di Indeterminazione di Heisemberg (1927), noi non possiamo conoscere contemporaneamente le caratteristiche della particella (la posizione di un elettrone che si muove) e quelle del pacchetto d’onda che la rappresenta nella sua dimensione ondulatoria (saperne la frequenza ad esempio), o uno o l’altra. L’osservatore diventa allora un parte fondamentale di ciò che accade, se si mette a osservare il quanto come particella ne riesce a classificare alcune caratteristiche ma ne determina la perdita delle capacità di interferire ulteriormente (collasso della funzione d’onda), di sviluppare i suoi effetti; se ne vuole osservare gli effetti combinati con altre onde, altre forze o energie non riesce a determinarne le caratteristiche individuali.
La Teoria della Relatività di Einstein (1905-1916) rese indubbiamente più semplice l’accettazione di tutti questi paradossi stabilendo un equivalenza tra energia e materia e legando entrambe alla velocità della luce (e quindi al movimento): E=mc2.
Dal 1928, con la nascita dell’Elettrodinamica Quantistica, le due più grandi correnti innovative del XX° secolo iniziarono ad integrarsi. Questo consentì nuovi sviluppi teorici e sperimentali così come fu possibile iniziare a spiegare con la nuova fisica, come era successo con quella newtoniana per i fenomeni legati alle nostre “medie dimensioni e basse velocità”, molti fenomeni del macro e del microcosmo. Anche se con la Relatività i concetti classici di spazio e di tempo saltarono (non è infatti da allora più possibile pensare di definire una posizione assoluta di un corpo o di un evento nel tempo e nello spazio: il tempo può allungarsi o accorciarsi, diventando così la quarta dimensione, lo spazio aumentare o diminuire a seconda della velocità di spostamento degli oggetti tra loro o rispetto all’osservatore), è vero che fu così possibile cominciare a spiegare molti fenomeni astronomici, compresa la formazione dell’Universo, la contrazione delle stelle, i buchi neri ed a comprendere concetti come quello di “orizzonte degli eventi” o di “infinito” come fenomeni inerenti a corpi che si muovono ad altissime velocità in relazione al campo gravitazionale. Vista la velocità a cui si muovono le particelle atomiche (dai 900km. al secondo degli elettroni ai 60000km. al secondo dei nucleoni) per i fenomeni di interazione atomica bisogna tenere in considerazione le leggi della Teoria della relatività. Negli esperimenti di bombardamento atomico diventò possibile osservare sugli schermi l’attività dei nucleoni e costruire diagrammi spazio-tempo delle particelle e antiparticelle atomiche in cui è possibile perfino concepire che alcune trasformazioni da una all’altra possano procedere in avanti ma anche indietro nel tempo.
Uniformando i concetti della meccanica quantistica con la relatività diviene chiara allora l’equivalenza, oltre che tra materia ed energia, tra particelle e forze: anche queste coincidono e sono intercambiabili. Tutto sembra inoltre poter emergere dal nulla, proprio da quel “vuoto” che è ovunque e che sembra diventare in realtà la sorgente più recondita ed incompresa delle forme energetiche e della materia. Corpi, campi, forze e fenomeni sono quindi una stessa cosa collegata indissolubilmente al vuoto, l’Uno e il Molteplice coincidono, in perfetto accordo con i più importanti presupposti delle antiche filosofie orientali e delle filosofie pre-socratiche.
L’accettazione della linearità dello spazio e del tempo è indubbiamente difficile da cancellare nella nostra mente quando pensiamo alle sequenze di fenomeni “oggettivi” della nostra vita, pensare ad esempio che un effetto possa esistere ancor prima che una causa diretta agisca o che due cose entrino fisicamente in contatto è un assurdità, così come pensare che un costituente della materia possa comportarsi in modo diverso a seconda di come lo osserviamo.
Ma come spiegarsi, allora, quella costanza di forme e di eventi che caratterizza il mondo e la natura? Si è visto, in effetti, fin dall’inizio, che ci sono costanti molto evidenti anche nell’interazione atomica: innanzitutto gli elettroni si distribuiscono e si muovono intorno al nucleo secondo schemi definiti ed invariabili (numeri quantici e spin) ; nell’interazione tra particelle nucleari si è visto poi che vi sono varie costanti di “Simmetria”. Tali simmetrie e costanti non riguardano però i tipi di particelle ma le quantità di energia e di carica o i numeri quantici e gli orientamenti in entrata e in uscita dagli eventi di interazione. Riguardano insomma più aspetti di tipo numerico o formale per cui molti fenomeni atomici sembrano avvenire in momenti di “Risonanza” particolare. Da questo punto di vista le particelle diventano elementi transitori nel fluire dell’energia, cessano di essere entità e diventano piuttosto degli eventi, dei processi. Comincia così a farsi strada la concezione che alla base di molti fenomeni universali e della loro evoluzione armonica e stabile vi siano da un lato l’azione di “Aspetti Informazionali” con o senza configurazione energetica, massa, movimento ecc., dall’altro che la caratteristica peculiare di tali aspetti sia quella di condurre a fenomeni di “Coerenza Quantistica”. Quindi le aggregazioni stabili di materia che si ritrovano nei sistemi complessi, come quelli biologici, dipenderebbero da fenomeni di coerenza tra campi di forze, in particolare tra sistemi atomici e campi elettromagnetici. Concordanze di fase, risonanze e simmetrie garantiscono comportamenti cooperativi e autoorganizzantisi.
Ci pare opportuno sottolineare come queste scoperte rendano molto più facile spiegare vari fenomeni che l’intuizione umana ha già chiarito e utilizzato da secoli a discapito di quanto la “realtà” meccanicistica non riesce a spiegare: come fenomeni di sintonia ed empatia possano essere fondamentali sul piano emozionale, come possano funzionare strumenti vibrazionali di varia natura ( musicale, omeopatica,olfattiva,verbale,elettromagnetica) per modificare o curare alterazioni biologiche o psichiche,come possano esistere informazioni che si trasmettono o come si possano produrre effetti sul piano fisico ( telepatia, telecinesi, esperienze ESP) in particolari stati di coscienza, nei sogni, nella meditazione. Spesso in tali stati, così come in stati di trance o attraverso l’uso di sostanze psichedeliche, sono stati descritti scenari percettivi di una realtà assai simile a quella che ci lascia solamente intendere lo scenario quantistico.
La focalizzazione sulle singole entità, sui mattoni fondamentali dei corpi diviene così sempre meno importante. Anche a livello atomico, con l’Ipotesi del Bootstrap (sinonimo di automantenimento e autoorganizzazione) di Geoffrey Chew (1970), nessuna parte è più fondamentale, ognuna delle parti dipende dalle proprietà delle altre e la coerenza complessiva delle loro connessioni determina la struttura dell’intera rete. Secondo i concetti di Ordine Implicato e Ordine Esplicato di David Bohm (1980) esisterebbe una realtà implicata, che corrisponderebbe al tutto, ove ogni espressione e manifestazione energetica e materiale sono possibili ed una esplicata che è la configurazione particolare che la realtà assume, secondo i differenti aspetti e livelli di coerenza (a disposizione del recettore, del partecipatore).
Ed ecco quindi che, dei molteplici mondi quantistici che ci hanno proposto queste scoperte qualcosa, legato ovviamente appunto all’osservatore, interviene a mostrarcelo e a farlo funzionare in maniera così stabile. Per diversi autori la coscienza (lo schermo) di un aspetto o di un fenomeno diventerebbe proprio il fattore attivo e determinante dell’esistenza stessa della realtà, è l’interfaccia su cui avviene il “collasso delle funzioni d’onda” ossia su cui letteralmente si creano le sostanze del mondo stesso (Eugene Wigner , nobel 1962). Già nei Fondamenti della fisica quantistica John Von Neumann descrive il collasso della funzione d’onda provocato dall’osservazione che arriva fino alle microstrutture cerebrali.
Di qui in poi emerge la necessità di indagare proprio la coscienza come fenomeno quantistico ( vedi articolo), come potenziale fenomeno inerente a qualsiasi struttura vivente, anche pre o unicellulare, e come eventuale variabile fondamentale dei processi di trasformazione della materia. E’ comunque legittimo ritenere che qualsiasi livello di organizzazione, dai livelli strutturali e biochimici a quelli legati alle emozioni, alla mente o all’interazione sociale e affettiva possano corrispondere a livelli differenti di organizzazione dell’informazione. Rispetto all’unità del Tutto, al Vuoto totipotente, governato dall’assenza di aspetti computazionali, che rappresenta la coerenza totale, tutti i fenomeni e le entità che si costituiscono sono fenomeni di de-coerenza che si strutturano via via fino a modelli computazionali, come quelli della fisica e della chimica classiche.
L’ultimo smacco che la fisica ha dato alla nostra cocciutaggine deterministica è venuto dall’esperimento di Aspect (1982) e da altri successivi che riuscirono definitivamente a confutare le conclusioni di Einstein nell’esperimento EPR (Einstein-Podolsky-Rosen 1935). Il limite della velocità della luce della relatività di Einstein, consentiva sempre, oltre al fatto di fornire la base per calcoli ed equazioni estremamente feconde per le applicazioni pratiche, di mantenere un ordine computazionale (numerico) alla base dei pur strani e particolari fenomeni dell’universo. Tali confutazioni, dimostrando che una coppia di elettroni si comporta in modo prestabilito indipendentemente dalle condizioni dell’ambiente sperimentale, dimostrarono che esistono informazioni “non-locali” che si trasmettono istantaneamente e che si mantengono, per sempre, tra due particelle che hanno precedentemente interagito tra loro ( Entanglement Quantistico) Questo sembra poter rispettare un ordine legato a un qualcosa, ad un tutto, che appare trascendere il concetto di forze e fenomeni reali legati ad interazioni locali e ordinate in maniera temporalmente sequenziale.
Da Einstein in poi si è capito che era possibile ipotizzare l’esistenza di un campo di forze e di una serie di leggi che spiegassero contemporaneamente lo sviluppo di ogni fenomeno esistente nell’universo (il Campo Quantistico e la Teoria del campo Unificato). Finora è stato possibile unificare il campo elettromagnetico con quello delle Interazioni deboli (che si manifestano nei processi di radioattività dei nuclei e nel decadimento di molte particelle instabili) e quello delle Interazioni forti (quelle tra particelle nucleari), rimane ancora fuori solamente il Campo Gravitazionale. Nel 1984 Witten, Green e Swartz proposero una nuova teoria secondo cui le particelle elementari possono essere descritte in realtà come minuscole linee o corde vibranti in modo diverso. La Teoria delle Stringhe e delle Superstringhe si è sviluppata da allora come tentativo di Teoria del Tutto. La teoria, estremamente complessa dal punto di vista matematico, è ancora in evoluzione e ha come requisito derivato che l’universo abbia da 10 a 26 dimensioni ( a seconda delle possibili formulazioni). Le dimensioni che non percepiamo sarebbero arrotolate o compattate nel tessuto spazio-temporale dell’universo.
Tornando allora a quanto concerne le modalità di indagine e di intervento che un operatore può agire, diviene chiaro fin da adesso, alla luce di tutto quanto detto, come può essere essenziale ricordarsi che ponendosi come osservatore di un fenomeno o di una persona, se la considero un oggetto da misurare, da scomporre e “determinare” io creo le condizioni si per “conoscerla” (parzialmente) ma interrompo automaticamente quel flusso che determina condizioni favorevoli per una sua “diversa” conoscenza. Se invece accetto di essere partecipatore di un evento di interazione, mantenendomi “sensibile” e “potenzialmente attivo” in base alle mie caratteristiche individuali, a quelle del sistema che ho di fronte e alle circostanze, senza giudicare o ritenere di poter produrre chissà cosa, non potrò magari dirne più di tanto ma favorirò una possibile riorganizzazione della materia e degli eventi. Se questa può essere proficua o dannosa, se possa produrre o meno degli sviluppi reali e stabili verso dinamiche migliori del sistema dipenderà da pochi fattori che garantiscano risonanze specifiche per quel substrato energetico, per quel tessuto, quell’organo o quello stato d’animo. In termini psicologici potremmo esprimere il concetto che chi interagisce può farlo in termini di adeguatezza o non adeguatezza ad aspetti globali legati alle esperienze (informazioni) precedenti di quell’individuo o di quell’evento biologico e ambientale. Solamente una lunga esperienza su se stessi e sulle proprie interazioni potrà aumentare le probabilità di co-assistere gli effetti del proprio”intervento”.