Loading...
Il progetto Neuroscience and Quantitative Neuroimaging (NQN) è un’iniziativa del Centro Ricerche Enrico Fermi; si occupa dello studio della funzione cerebrale e di alcune patologie neurologiche e psichiatriche, associando lo sviluppo tecnologico alla sua applicazione per la caratterizzazione delle reti cerebrali e della dinamica metabolica a livello funzionale, strutturale e molecolare.
Le finalità generali del progetto riguardano la determinazione dei rapporti tra la funzione cerebrale e i suoi presupposti fisiologici e biochimici, o più in generale tra funzione e struttura. Il punto di vista dominante è che la struttura condizioni, ma non determini univocamente la funzione. Indipendentemente dai controversi aspetti di carattere filosofico ed evoluzionistico, il nostro approccio è di carattere eminentemente multimodale e interdisciplinare, sviluppando tra l’altro tecniche MRI, di image processing e computational modeling, e sfrutta pienamente le intrinseche proprietà mutiparametriche dell’imaging con risonanza magnetica (MRI).
È difficile sovrastimare l’importanza del neuroimaging basato su MRI per il progresso delle neuroscienze, e più in generale per la comprensione del cervello umano e di come esso sia in grado di generare un comportamento. In questo campo interdisciplinare e di frontiera nessun’altra tecnologia ha avuto infatti maggiore impatto in termini quantitativi ed anche qualitativi. Dal punto di vista quantitativo basta verificare il numero di pubblicazioni scientifiche associate all’imaging funzionale, in crescita esponenziale sin dalla sua invenzione. L’importanza qualitativa deriva invece dalle proprietà uniche dell’MRI, che da un lato è completamente non invasivo, e può dunque essere estensivamente applicato all’uomo, anche per studi ripetuti e longitudinali, dall’altro è caratterizzato dall’essere una tecnica intrinsecamente multiparametrica.
Per approfondire scarica il nostro piano triennale.
L'immenso accumulo di dati è un fenomeno nuovo che induce molte considerazioni, rappresenta un grande potenziale e talvolta porta ad aspettative mitiche. Qui viene mostrato un esempio specifico di analisi dei "big data", il caso dell’Economic Complexity. Si tratta di una nuova prospettiva sull'economia fondamentale, la quale adotta un approccio dal basso verso l'alto. L'approccio conferma alcune aspettative sui big data ma ne smentisce anche altre. Per alcuni professionisti la disponibilità big data è un problema riconducibile alla memoria del computer e alla velocità di accesso. Una volta che il set di dati è abbastanza grande, contiene tutte le informazioni possibili di cui si potrebbe aver bisogno e parlerà da solo. Questo in realtà non è il caso in generale, ma fondamentalmente può funzionare in alcuni casi specifici. Uno di questi esempi è l'analisi della disuguaglianza economica presentata da Thomas Piketty, che ha attirato così tanta attenzione tra gli economisti e i responsabili politici. In questo caso il problema è calcolare un unico rapporto, cioè il livello di disuguaglianza. Il lavoro da lui svolto consiste nell'accumulo, pulizia e controllo dei dati disponibili. Una volta completati questi passaggi, il calcolo è davvero semplice. Il risultato è comunque notevole rispetto all'economia mainstream, e si basa su un cambiamento di atteggiamento dell'analista: Piketty parte dai dati e poi scopre correlazioni interessanti.
In generale, però, quando si analizzano fenomeni complessi, le cose sono meno dirette, come si può mostrare con l'esempio specifico dell’Economic Complexity. L'analisi standard della competitività dei paesi considera una serie di elementi come l'istruzione, i trasporti, la produzione, l'esportazione, l'inquinamento ecc. Attraverso un'adeguata ponderazione di questi elementi si arriva ad un punteggio globale per il paese. Alla fine, questa analisi richiede la scelta di più di 100 parametri per combinare tutti questi elementi. Chiaramente questo è un compito soggettivo che non può considerare adeguatamente tutte le possibili interazioni tra gli elementi coinvolti. Inoltre, l'analisi viene effettuata individualmente per ogni paese e solo alla fine vengono confrontati paesi diversi.
L’Economic Complexity comporta un cambio di prospettiva e va oltre l'analisi individuale. Tutti i paesi sono considerati come nodi di una rete integrata e i collegamenti sono dati dai prodotti che producono. In pratica si considera la rete bipartita di paesi e prodotti. In linea di principio abbiamo accesso a più informazioni oltre ai prodotti, ma il problema è che questi dati non sono indipendenti l'uno dall'altro: quindi, considerarli tutti porta solo a confusione o ad un'interpretazione intrinsecamente soggettiva, in quanto parametri e pesi sono assegnati arbitrariamente. Con l’Economic Complexity si è cercato di andare oltre questa approccio e fare un'analisi che sia scientifica, ovvero che fornisca un risultato unico, non dipendente da alcuna interpretazione soggettiva. Questo porta ad una selezione tra i dati e addirittura ad una loro riduzione. Solo un sottoinsieme selezionato è veramente utile; l'aggiunta di più dati porta solo a confusione. Ciò dimostra che un problema di Big Data spesso inizia con piccoli dati. È necessario selezionare un metodo di analisi e scegliere le domande e i problemi da considerare: i dati non forniscono queste cose da soli. In questo caso è necessario un algoritmo simile nello spirito al Page Rank di Google, sebbene in economia l'algoritmo di Google non sia appropriato e abbiamo dovuto, quindi, cercarne uno diverso. Questa è una parte concettuale del lavoro che, tuttavia, necessita di dati appropriati per essere testata. Una volta superata la sfida concettuale, la metodologia inizia a produrre buoni risultati e l'approccio dimostra il suo valore pratico. Tuttavia, con l'aumentare dell'ambizione, i limiti del set di dati originale diventano evidenti. Si apre così la ricerca di molti più dati ma in una direzione specifica individuata dal metodo di analisi e dal nuovo algoritmo.
Ora il problema può evolversi a livello di Big Data aggiungendo sempre più informazioni sui paesi e sui prodotti ma nella nuova prospettiva. Una naturale evoluzione è quindi quella di passare all'analisi delle singole aziende (oltre che dei paesi). Le aziende sono specializzate in termini di prodotti, quindi una matrice di aziende e prodotti porterebbe a un insieme molto limitato di informazioni e non sarebbe particolarmente utile. Bisogna studiare quali sono i dati adatti alle aziende e quali sono il nuovo criterio e il nuovo algoritmo per estrarre informazioni utili da questi dati: questa è la frontiera di oggi. Non appena si ha una nuova idea e un nuovo algoritmo, ci si rende subito conto che i dati disponibili (originariamente raccolti per scopi diversi) non sono ottimali e si desiderano più dati di un nuovo tipo. Non esiste un set di dati infinito che si possa raccogliere a priori e che sia adatto ad ogni problema, così come non esiste un unico algoritmo adatto ad ogni situazione. Il passo che è stato indicato corrisponde a un passaggio dall'analisi del singolo paese con 100 parametri ad un'analisi algoritmica di rete con zero parametri. Quindi si può pensare che la chiave per l'analisi dei Big Data sia lo studio delle reti complesse. In effetti esiste una vasta letteratura principalmente sulla caratterizzazione statistica delle proprietà delle reti complesse, ma è davvero ciò di cui abbiamo bisogno?
L'esempio del Page Rank di Google, piuttosto, indicherebbe una direzione diversa. Indipendentemente dalle caratteristiche e dalla struttura specifiche della rete, questo algoritmo riesce a definire la corretta gerarchia dei siti web. D'altra parte, in assenza di un tale algoritmo, la classificazione delle proprietà specifiche della rete non porterebbe a molte informazioni utili. La situazione è in realtà simile per il nostro algoritmo per paesi e prodotti. Con gli studi standard della rete complessa si può dimostrare, ad esempio, che nell'ultimo decennio il cluster economico intorno alla Cina è diventato più grande di quello intorno al Giappone. Differentemente, con l'algoritmo appropriato si possono ottenere numerosi risultati come la classifica dei paesi e dei prodotti, l'identificazione del potenziale nascosto e la previsione della crescita del PIL, ecc. La scienza dei dati nel senso che abbiamo indicato in questo articolo può effettivamente produrre una rivoluzione nella nostra conoscenza in molti campi. Ma per ogni area dovrebbe esserci una chiara comprensione di quali siano le informazioni rilevanti e di come estrarle dai dati. Questa non può essere una ricetta unica per tutti i campi di analisi: va invece studiata e adattata a ogni problema.
 
La ricerca è stata a lungo trascurata in Italia, finanziariamente, politicamente e culturalmente. Ma la pandemia di Covid-19 ha cambiato tutto questo. Il valore della ricerca viene ora riconosciuto, con i finanziamenti annunciati e i ricercatori che stanno vivendo una nuova importanza. Questo nuovo rapporto tra scienza, politica e media, però, non è privo di pericoli.
I media non sono abituati a spiegare ed analizzare i tecnicismi dell'epidemiologia e della salute pubblica. Nelle interviste, i ricercatori sono talvolta tentati di allontanarsi dalla loro area di competenza, e i politici possono essere tentati di trasferire la colpa di passi falsi politici sulla consulenza scientifica e sui ricercatori che la forniscono. Gettano diversi punti di vista scientifici nel mix e non sorprende che il pubblico a volte possa essere confuso, specialmente se gli scienziati sono dipinti come, o ci si aspetta che siano, gli arbitri della verità ultima.
La pandemia ha evidenziato la necessità per l'Italia di seguire un corso accelerato di epistemologia a livello nazionale. In particolare, gli scienziati, i media e i responsabili politici devono essere chiari su ciò che la scienza può e non può fare. Questo è particolarmente vero quando le previsioni scientifiche informano le decisioni politiche.
Un compito cruciale è distinguere questo tipo di previsioni scientifiche incentrate sulla politica da quelle volte a dimostrare o confutare una teoria. Ad esempio, se un pianeta non è dove ci aspettiamo, potrebbe significare che la gravità ha bisogno di un ripensamento. Ma una previsione meteorologica fallita non invalida le equazioni della dinamica dei fluidi. Quest'ultimo tipo di previsione imperfetta - che include modelli epidemiologici - è spesso fatta allo scopo di guidare le decisioni nella politica o nella protezione civile.
L'aumento della potenza di calcolo e i big data hanno aumentato la portata di tali previsioni e hanno sollevato la speranza che il monitoraggio costante dei fenomeni atmosferici, geologici o sociali ci consentirà di prevedere e mitigare i disastri naturali. Allo stesso modo, il monitoraggio della diffusione di malattie ed epidemie può aiutare a identificare opportunità per vaccinazioni di massa o altre forme di prevenzione. I focolai di malattie sono come i terremoti. Non possiamo prevedere con precisione quando o dove colpiranno, ma il monitoraggio e altri studi possono aiutarci a ridurre il loro impatto.
La possibilità di un'epidemia globale come il Covid-19 è nota da decenni. Sapevamo che una maggiore mobilità internazionale e un maggiore contatto tra esseri umani e specie selvatiche aumentavano il rischio, ma non potevamo prevedere quando e dove un animale avrebbe trasmesso un virus a un essere umano.
Una volta che un'epidemia ha iniziato a diffondersi, tuttavia, disponiamo di dati e possiamo iniziare a fare previsioni e pianificare interventi. L'epidemiologia computazionale è simile alla meteorologia: si osserva un sistema oggi e poi si applicano le equazioni per calcolare il suo stato domani. La potenza di calcolo e i big data svolgono un ruolo fondamentale in entrambe le scienze. Ma poiché sia ​​il tempo che le epidemie sono sistemi caotici, altamente sensibili alle condizioni microscopiche, previsioni precise a lungo termine sono impossibili.
Dove differiscono è che le epidemie sono un fenomeno sociale oltre che naturale; politiche appropriate possono cambiare le loro traiettorie. Non possiamo evitare una crisi ma, con le giuste previsioni e decisioni politiche - e i giusti preparativi anticipati - non è necessario che diventi una catastrofe.
Il problema è che i limiti delle previsioni non sono sempre compresi o comunicati correttamente a chi ha il compito di trasformare le previsioni in decisioni o protocolli di sicurezza. Ciò rende l'uso della previsione scientifica nelle politiche pubbliche un complicato mix di fattori scientifici, politici e sociali. Le implicazioni dell'utilizzo di previsioni scientifiche incerte per guidare scelte politiche decisive e irreversibili in questioni di enorme interesse pubblico spesso non vengono prese in considerazione.
In Italia, e probabilmente più in generale, vedo la necessità di comunicare ciò che possiamo e non possiamo prevedere e con quale grado di certezza. La pandemia ha creato un'opportunità e un appetito per fare proprio questo. Ma ha anche creato dei rischi: essere sotto i riflettori non è sempre comodo e la fiducia può essere persa molto più rapidamente di quanto si possa costruire.
Cosa dovrebbero fare i ricercatori per sfruttare al meglio il momento e per dare il miglior contributo alla vita pubblica e all'elaborazione delle politiche? La valutazione del grado di incertezza intorno a qualsiasi previsione rimane un compito cruciale che può essere svolto solo da scienziati esperti. Dovrebbero anche avere l'onestà intellettuale per chiarire la loro parziale ignoranza.
Tuttavia, questo dovrebbe essere ben compreso dai responsabili politici, dai media e dal pubblico. Per questo, è necessaria una discussione interdisciplinare che vada oltre gli specialisti.
Questo articolo è stato pubblicato anche su Research Europe.
La speranza di identificare superconduttori (SC) in grado di operare a temperature prossime alla temperatura ambiente, è stata rilanciata cinque anni fa grazie alla scoperta della superconduttività in un superidruro di zolfo (SH3) a pressioni dell’ordine del Megabar. Il composto SH3 e, più tardi, il LaH10 non solo hanno stabilito record senza precedenti per la temperatura critica Tc (203 e 260K rispettivamente), ma hanno anche delineato una nuova strada per la scoperta di SC: infatti, per la prima volta in oltre un secolo, le scoperte sperimentali di nuovi superconduttori sono state anticipate da accurate previsioni teoriche.
Sviluppi cruciali nell’ambito dei metodi ab-initio per la previsione delle strutture cristalline e per la superconduttività, permettono oggi di calcolare su un computer il diagramma di fase e la Tc di molti SC convenzionali, con un’accuratezza spesso comparabile con gli esperimenti. La scoperta dell’SH3 ha dato il via ad una vera e propria corsa agli idruri (hydride rush), durante la quale sono stati predetti, e in alcuni casi sintetizzati sperimentalmente, più di 100 nuovi SC binari basati sull’idrogeno. Sebbene la scoperta di questi superidruri abbia una grande importanza per la ricerca di base, i risvolti pratici sono molto limitati, a causa delle elevate pressioni necessarie (1M bar = 106 atmosfere).
Pertanto, la sfida più pressante nel campo della superconduttività è, ad oggi, l’identificazione di materiali che presentano SC ad alta Tc 6 , ma a pressione ambiente. L’obiettivo del nuovo progetto sui superconduttori portato avanti dal CREF è precisamente la predizione di materiali con queste caratteristiche; in particolare, il problema verrà affrontato sfruttando una combinazione di metodi ab-initio (basati sulla teoria del funzionale densità) allo stato dell’arte e metodi di machine learning (Material Informatics).
Il gruppo dei ricercatori del CREF dispone di tutti gli strumenti per affrontare questa sfida, avendo una riconosciuta esperienza nei calcoli ab-initio per la previsione di SC e strutture cristalline. Negli ultimi cinque anni hanno pubblicato più di 15 articoli sulla superconduttività ad alta pressione, inclusa una invited review, e sono stati invitati a più di 10 conferenze internazionali per presentare i nostri risultati, inclusi i March Meeting dell’American Physical Society del 2020-2021.
Per approfondire l'argomento sul piano triennale clicca qui.
Decisamente un lungo viaggio, quello dei due sistemi di numeri esotici di Alessio Marrani e Leron Borsten, partito da quando W.R. Hamilton scoprì i quaternioni, e, in un lampo di genio, ne iscrisse le identità costitutive su una pietra del ponte di Broome a Dunsink (Dublino), il 16 ottobre 1843.
Hamilton si era preoccupato dell'osservazione della moltiplicazione che per una fase complessa induce una rotazione nel piano di Argand, rivelando un legame intimo tra la geometria euclidea bidimensionale e i numeri complessi ℂ. Affascinato da questa unificazione di geometria e algebra, Hamilton si dedicò al compito di costruire un nuovo sistema numerico che avrebbe fatto per tre dimensioni ciò che i complessi facevano per due. Dopo una serie di tentativi fallimentari, mentre si dirigeva dall'Osservatorio di Dunsink verso una riunione della Royal Irish Academy in Dawson Street, Hamilton superò la sua apparente impasse in un momento di illuminazione, realizzando uno dei dipinti rupestri più famosi nella storia della scienza.
Questa scoperta mise in moto una danza sottile che intrecciava algebra e simmetria. Oggi due ricercatori hanno saputo dare all’intuizione di Hamilton un ruolo anche nell’ambito della fisica. Alessio Marrani, già Senior Grantist del Progetto Individuale "Quantum Gravity: from Black Holes to Quantum Entanglement" ed attualmente responsabile del Progetto Individuale "The Double Copy Paradigm", ha di recente pubblicato, insieme al suo collega Leron Borsten (Schroedinger Fellow al DIAS di Dublino), un articolo dal titolo "A Kind of Magic" sulla prestigiosa rivista "Classical and Quantum Gravity".
In tale articolo, due sistemi numerici esotici, chiamati "tritonioni" (a metà strada tra i numeri complessi e i quaternioni) e "sestonioni" (a metà strada tra i quaternioni e gli ottonioni), trovano per la prima volta una applicazione fisica: essi permettono di descrivere le simmetrie di alcune teorie di gravità derivanti da compattificazioni della cosiddetta M-teoria, la teoria di gravità quantistica più accreditata, che unifica a livello non-perturbativo, in 11 dimensioni spazio-temporali, le varie teorie di superstringa definite in 10 dimensioni.
Per leggere l’articolo scientifico clicca qui.
Per leggere l’articolo divulgativo clicca qui.
L'esperimento PolarquEEEst ha misurato con una precisione senza precedenti il flusso delle particelle cariche cosmiche a livello del mare in un intervallo di latitudine compreso tra 66° e 82° N. È nota l'esistenza di una dipendenza dell'intensità dei raggi cosmici a livello del suolo dalla latitudine legata all’effetto del campo geomagnetico: avvicinandosi all'Equatore le particelle cariche cosmiche necessitano di energia sempre più elevata per raggiungere la superficie terrestre, e di conseguenza solo una parte di loro raggiunge il suolo. Ciò induce una diminuzione del flusso dei raggi cosmici con la diminuzione delle latitudini. Viceversa, in prossimità dei Poli, il flusso di raggi cosmici misurato a livello del mare dovrebbe raggiungere il suo livello massimo. Tuttavia, oltre una latitudine di circa 50°, si osserva una saturazione, dovuta agli effetti combinati del cut-off geomagnetico in queste regioni e della forma dello spettro energetico delle particelle cosmiche.
Risale al 1933 una compilazione da parte di A.H. Compton di tutte le misure disponibili all’epoca del flusso dei raggi cosmici; i dati, che provenivano da più campagne di misura eseguite da diversi gruppi sperimentali, mostravano chiaramente un aumento del flusso misurato a livello del suolo in funzione della latitudine e una tendenza ad appiattirsi sopra le latitudini corrispondenti al circolo polare artico; tale andamento era previsto dal modello di Lemaître-Vallarta con il quale i dati erano confrontati. L’andamento dell'intensità dei raggi cosmici è stato misurato più recentemente anche da altri esperimenti, per lo più utilizzando rivelatori di neutroni, situati a terra o a bordo di navi scientifiche o commerciali, tipicamente fino a latitudini massime di circa 60°.
L'esperimento PolarquEEEst è stato ospitato sulla barca a vela ecologica di 60 piedi Nanuq, che è partita per una spedizione scientifico/commemorativa il 22 luglio 2018 da Ísafjörður (Islanda) ha raggiunto e quindi ha circumnavigato l'arcipelago delle Svalbard raggiungendo la massima latitudine di 82°07’ per concludere poi il suo viaggio il 4 settembre a Tromsø (Norvegia). La spedizione scientifica in barca a vela è stata organizzata nell’ambito della spedizione Polarquest2018 che celebrava la sfortunata missione del Dirigibile “Italia” del 1928 e del suo ideatore Umberto Nobile che portò avanti, oltre a obiettivi di carattere esplorativo, diversi esperimenti compresa la misura del flusso di raggi cosmici eseguita mediante un elettroscopio.
Anche il Nanuq ha ospitato a bordo esperimenti scientifici, ad esempio sulla ricerca di macro e microplastiche nelle acque del mare artico intorno alle Svalbard (effettuato dal CNR-ISMAR), sulla mappatura cartografica con droni della costa nord dell'arcipelago (effettuato da  GREAL - Università Europea di Roma e Società Geografica Italiana) e sui raggi cosmici, appunto PolarquEEEst, i cui primi risultati sono riportati in questo articolo ora pubblicato su The European Physical Journal C.
L'esperimento PolarquEEEst è stato condotto nell'ambito del progetto “Extreme Energy Events: la Scienza nelle Scuole” del “Museo Storico della Fisica e Centro Studi e Ricerche Enrico Fermi” di Roma, che gestisce anche una vasta rete di telescopi per raggi cosmici dislocati in Italia e al CERN.
Per approfondire clicca su questo link.
La materia oscura (DM) è stata introdotta per la prima volta per spiegare il moto delle galassie in un ammasso e poi per spiegare la velocità delle stelle nelle singole galassie. In entrambi i casi le velocità misurate erano troppo elevate per essere bilanciate dalla massa stimata dall’emissione luminosa. Il quadro cosmologico fornisce una prova diversa, complementare, sebbene indiretta, della necessità di introdurre DM: in questo caso la DM è necessaria per mettere in relazione le minuscole fluttuazioni di temperatura nella radiazione cosmica di fondo con la distribuzione della massa visibile nell’universo. La DM cosmologica deve essere di natura non barionica in quanto la sua interazione con i fotoni deve avvenire solo attraverso la forza di gravità altrimenti le fluttuazioni del fondo cosmico sarebbero troppo grandi rispetto alle osservazioni. Un’idea alternativa per risolvere il problema della massa nascosta è stata proposta in letteratura dagli anni ’80: una modifica ad-hoc della gravità di Newton. In particolare, in questo approccio, invece di invocare più massa sotto forma di particelle sconosciute, la forza gravitazionale viene aumentata di intensità a parità di distanza da una legge di decadimento (meno rapida dell’inverso del raggio al quadrato, cioè come l’inverso della distanza).
Questo progetto, basato su idee e intuizioni all’interfaccia tra la fisica statistica e astrofisica, propone un nuovo tentativo di comprendere il problema del DM galattico che è motivato dai recenti risultati osservativi della missione Gaia. Il quadro teorico riguarda un problema fondamentale che coinvolge la fisica newtoniana classica e la materia ordinaria (cioè stelle e gas); problema che è stata trascurato in letteratura: il rilassamento verso l’equilibrio di un sistema costituito da molte particelle auto-gravitanti, questione che si inquadra nella fisica dei sistemi con interazione a lungo raggio. In altre parole, in un dato sistema, è possibile semplicemente correlare la velocità di rotazione alla massa solo se questa si trova in una situazione stazionaria in cui, ad esempio, la forza centrifuga è bilanciata da quella centripeta a causa della gravità, ovvero l’assunto di base utilizzato per stimare DM. Il nostro obiettivo è invece quello di studiare in quali condizioni viene raggiunto uno stato di equilibrio stabile in un sistema auto-gravitante, quanto tempo ci vuole per rilassarsi in una tale configurazione da condizioni iniziali generiche fuori equilibrio e, da un punto di vista osservazionale, se i campi di velocità di entrambe le nostre galassie e quelli esterni sono compatibili con una situazione del genere. Mentre l’assunzione di stazionarietà è generalmente data per scontata ed è cruciale per l’interpretazione delle osservazioni da cui si vuole stimare la distribuzione della massa, la scala temporale per un completo rilassamento da una configurazione generica fuori dell’equilibrio a un QSS è scarsamente limitata sia dal punto di vista teorico che numerico.
Il rilassamento collettivo avvicina un sistema autogravitante all’equilibrio, ma genera anche in modo abbastanza generico, strutture non stazionarie di lunga durata con una ricca varietà morfologica e caratterizzate da bracci a spirale, barre e persino strutture ad anello in casi speciali, qualitativamente simili alle galassie a spirale. In questi sistemi le particelle non seguono orbite circolari e stazionarie ma formano invece transienti di lunga durata, che hanno la forma di bracci a spirale con barre o anelli, dominati da movimenti radiali che impediscono il rilassamento verso una configurazione di equilibrio. In questa situazione la stima della massa da una velocità non è più possibile e dunque la determinazione della quantità di DM deve essere rivista completamente se il sistema non è all’equilibrio.
 
 
 
 
 
 
 

Nella seconda metà del secolo scorso la complessità dei fenomeni naturali e la semplicità delle leggi sottostanti sono stati in qualche modo riconciliati grazie alla scoperta che il Caos è insito nelle leggi stesse. La teoria del Caos spiega perché il Caos è parte integrante delle leggi naturali e averlo compreso ha prodotto una profonda rivoluzione concettuale nella scienza. Insieme alla meccanica quantistica e alla teoria della relatività, la teoria del Caos è uno dei tre grandi paradigmi scientifici che hanno cambiato il nostro modo di vedere e capire quello che ci circonda.


Oltre alla Fisica, la teoria del Caos trova applicazione in quasi tutte le discipline scientifiche, incluse l’Economia e le Scienze Sociali. È quasi impossibile fare un sommario in qualche misura esaustivo dei problemi che si stando affrontando e in parte risolvendo nelle diverse discipline. È però possibile capire come, anche grazie alla Teoria del Caos, sia in parte cambiato il modo di fare ricerca e quali siano potenzialmente le direzioni in cui oggi si pensa di ottenere dei significativi risultati.


La Teoria del Caos ha dato un contributo fondamentale allo sviluppo del concetto di sistema complesso. In realtà non esiste una definizione condivisa di cosa si debba intendere per sistema complesso. Esistono varie definizioni, ognuna a seconda dei punti di vista. Per alcuni, un sistema complesso è un sistema il cui comportamento dipende in modo cruciale dai dettagli del sistema stesso. D’altra parte, una simulazione al computer di un sistema caotico non è esatta ma rappresenta una approssimazione della soluzione esatta e delle regole che lo governano. In queste condizioni, possiamo capire quali sono le caratteristiche generali del sistema, ovvero della distribuzione di probabilità che lo caratterizza, e che, in qualche misura, sono indipendenti dai dettagli stessi.



Per saperne di più sfoglia il nostro piano triennale.
Era il 1930 quando Ettore Majorana scrisse un articolo dal titolo “Il Valore delle Leggi Statistiche nella Fisica e nelle Scienze Sociali”. Questo scritto, pubblicato postumo nel 1942, nasceva dalla mente di un visionario, che aveva intuito l’importanza delle leggi statistiche per la Fisica e le Scienze Sociali. In particolare, il problema posto da Majorana era incredibilmente attuale: in che modo il rigore metodologico della fisica potesse essere esportato in altre discipline.
Nell’era dei Big Data la questione suscitata da Majorana torna al centro di ogni dibattito, perché, seppure non tutto il rigore della Fisica è esportabile, altre discipline, come ad esempio l’economia possono giovarne. Ed è un bene visto che hanno una grandissima importanza per la nostra società oltre che un grande valore intellettuale. Quindi, anche se il tasso di rigore fosse solo parziale, un aumento di scientificità in queste discipline sarebbe un risultato della massima importanza. Inoltre, da un punto di vista intellettuale e scientifico si creerebbe un legame tra le discipline delle cosiddette scienze esatte e quelle delle scienze socioeconomiche che avrebbe di per sé un grandissimo valore culturale e scientifico.
Questa è una delle aree che il CREF intende esplorare con la prospettiva concreta della Scienza della Complessità, messa al centro del dibattito da eventi inaspettati come la nascita di Google, l’incessante crescita cinese, la disintermediazione e lo sviluppo di Blockchain etc. Gli elementi comuni di questi fenomeni sono una integrazione delle connessioni e degli eventi a livello planetario e la velocità con cui si evolvono e sviluppano proprietà emergenti imprevedibili. È evidente l’inadeguatezza dei concetti e delle analisi tradizionali e risulta chiara l’esigenza di nuove metodologie scientifiche per l’analisi, la comprensione e il controllo di questi fenomeni, proprio come quasi un secolo fa aveva predetto Majorana.
Clicca qui per leggere il testo integrale di “Il Valore delle Leggi Statistiche nella Fisica e nelle Scienze Sociali”.

Mediante semplici esperimenti dinamici l’articolo scientifico di Francesco Sylos Labini, Luis Diego Pinto e Roberto Capuzzo-Dolcetta ha indagato l'effetto combinato della dinamica gravitazionale e dei gas nell'evoluzione di una sovra-densità massiccia inizialmente fuori equilibrio, uniforme e rotante pensata come isolata. Da questo è emerso come la rapida variazione del potenziale di campo medio del sistema fa sì che le particelle puntiformi (PP), che interagiscono solo tramite gravità newtoniana, formino un disco spesso quasi stazionario dominato da moti rotazionali circondati da bracci a spirale molto fuori equilibrio.


Si è visto che la componente gassosa è sottoposta a shock di compressione e raffreddamento radiativo in modo da sviluppare un disco molto più piatto, dove i moti rotazionali sono coerenti e la dispersione di velocità è inferiore a quella dei PP. Intorno a tale disco gassoso si formano braccia a spirale longeve, ma non stazionari: questi sono costituiti da particelle gassose che si muovono coerentemente perché hanno acquisito una specifica correlazione fase-spazio durante la fase di collasso gravitazionale. Tale correlazione fase-spazio rappresenta una firma dell'origine violenta delle braccia e implica sia il movimento della materia che il trasferimento di energia.


Su scale maggiori, dove la componente di velocità radiale è significativamente maggiore di quella rotazionale, il gas segue gli stessi bracci a spirale fuori equilibrio tracciati dai PP. Infine vengono delineate le implicazioni astrofisiche e cosmologiche dei nostri risultati. Quando la componente della velocità radiale è significativamente maggiore di quella rotazionale, il gas segue gli stessi bracci a spirale fuori equilibrio tracciati dai PP.


Clicca su questo link per approfondire.