Loading...
La speranza di identificare superconduttori (SC) in grado di operare a temperature prossime alla temperatura ambiente, è stata rilanciata cinque anni fa grazie alla scoperta della superconduttività in un superidruro di zolfo (SH3) a pressioni dell’ordine del Megabar. Il composto SH3 e, più tardi, il LaH10 non solo hanno stabilito record senza precedenti per la temperatura critica Tc (203 e 260K rispettivamente), ma hanno anche delineato una nuova strada per la scoperta di SC: infatti, per la prima volta in oltre un secolo, le scoperte sperimentali di nuovi superconduttori sono state anticipate da accurate previsioni teoriche.
Sviluppi cruciali nell’ambito dei metodi ab-initio per la previsione delle strutture cristalline e per la superconduttività, permettono oggi di calcolare su un computer il diagramma di fase e la Tc di molti SC convenzionali, con un’accuratezza spesso comparabile con gli esperimenti. La scoperta dell’SH3 ha dato il via ad una vera e propria corsa agli idruri (hydride rush), durante la quale sono stati predetti, e in alcuni casi sintetizzati sperimentalmente, più di 100 nuovi SC binari basati sull’idrogeno. Sebbene la scoperta di questi superidruri abbia una grande importanza per la ricerca di base, i risvolti pratici sono molto limitati, a causa delle elevate pressioni necessarie (1M bar = 106 atmosfere).
Pertanto, la sfida più pressante nel campo della superconduttività è, ad oggi, l’identificazione di materiali che presentano SC ad alta Tc 6 , ma a pressione ambiente. L’obiettivo del nuovo progetto sui superconduttori portato avanti dal CREF è precisamente la predizione di materiali con queste caratteristiche; in particolare, il problema verrà affrontato sfruttando una combinazione di metodi ab-initio (basati sulla teoria del funzionale densità) allo stato dell’arte e metodi di machine learning (Material Informatics).
Il gruppo dei ricercatori del CREF dispone di tutti gli strumenti per affrontare questa sfida, avendo una riconosciuta esperienza nei calcoli ab-initio per la previsione di SC e strutture cristalline. Negli ultimi cinque anni hanno pubblicato più di 15 articoli sulla superconduttività ad alta pressione, inclusa una invited review, e sono stati invitati a più di 10 conferenze internazionali per presentare i nostri risultati, inclusi i March Meeting dell’American Physical Society del 2020-2021.
Per approfondire l'argomento sul piano triennale clicca qui.
Decisamente un lungo viaggio, quello dei due sistemi di numeri esotici di Alessio Marrani e Leron Borsten, partito da quando W.R. Hamilton scoprì i quaternioni, e, in un lampo di genio, ne iscrisse le identità costitutive su una pietra del ponte di Broome a Dunsink (Dublino), il 16 ottobre 1843.
Hamilton si era preoccupato dell'osservazione della moltiplicazione che per una fase complessa induce una rotazione nel piano di Argand, rivelando un legame intimo tra la geometria euclidea bidimensionale e i numeri complessi ℂ. Affascinato da questa unificazione di geometria e algebra, Hamilton si dedicò al compito di costruire un nuovo sistema numerico che avrebbe fatto per tre dimensioni ciò che i complessi facevano per due. Dopo una serie di tentativi fallimentari, mentre si dirigeva dall'Osservatorio di Dunsink verso una riunione della Royal Irish Academy in Dawson Street, Hamilton superò la sua apparente impasse in un momento di illuminazione, realizzando uno dei dipinti rupestri più famosi nella storia della scienza.
Questa scoperta mise in moto una danza sottile che intrecciava algebra e simmetria. Oggi due ricercatori hanno saputo dare all’intuizione di Hamilton un ruolo anche nell’ambito della fisica. Alessio Marrani, già Senior Grantist del Progetto Individuale "Quantum Gravity: from Black Holes to Quantum Entanglement" ed attualmente responsabile del Progetto Individuale "The Double Copy Paradigm", ha di recente pubblicato, insieme al suo collega Leron Borsten (Schroedinger Fellow al DIAS di Dublino), un articolo dal titolo "A Kind of Magic" sulla prestigiosa rivista "Classical and Quantum Gravity".
In tale articolo, due sistemi numerici esotici, chiamati "tritonioni" (a metà strada tra i numeri complessi e i quaternioni) e "sestonioni" (a metà strada tra i quaternioni e gli ottonioni), trovano per la prima volta una applicazione fisica: essi permettono di descrivere le simmetrie di alcune teorie di gravità derivanti da compattificazioni della cosiddetta M-teoria, la teoria di gravità quantistica più accreditata, che unifica a livello non-perturbativo, in 11 dimensioni spazio-temporali, le varie teorie di superstringa definite in 10 dimensioni.
Per leggere l’articolo scientifico clicca qui.
Per leggere l’articolo divulgativo clicca qui.
L'esperimento PolarquEEEst ha misurato con una precisione senza precedenti il flusso delle particelle cariche cosmiche a livello del mare in un intervallo di latitudine compreso tra 66° e 82° N. È nota l'esistenza di una dipendenza dell'intensità dei raggi cosmici a livello del suolo dalla latitudine legata all’effetto del campo geomagnetico: avvicinandosi all'Equatore le particelle cariche cosmiche necessitano di energia sempre più elevata per raggiungere la superficie terrestre, e di conseguenza solo una parte di loro raggiunge il suolo. Ciò induce una diminuzione del flusso dei raggi cosmici con la diminuzione delle latitudini. Viceversa, in prossimità dei Poli, il flusso di raggi cosmici misurato a livello del mare dovrebbe raggiungere il suo livello massimo. Tuttavia, oltre una latitudine di circa 50°, si osserva una saturazione, dovuta agli effetti combinati del cut-off geomagnetico in queste regioni e della forma dello spettro energetico delle particelle cosmiche.
Risale al 1933 una compilazione da parte di A.H. Compton di tutte le misure disponibili all’epoca del flusso dei raggi cosmici; i dati, che provenivano da più campagne di misura eseguite da diversi gruppi sperimentali, mostravano chiaramente un aumento del flusso misurato a livello del suolo in funzione della latitudine e una tendenza ad appiattirsi sopra le latitudini corrispondenti al circolo polare artico; tale andamento era previsto dal modello di Lemaître-Vallarta con il quale i dati erano confrontati. L’andamento dell'intensità dei raggi cosmici è stato misurato più recentemente anche da altri esperimenti, per lo più utilizzando rivelatori di neutroni, situati a terra o a bordo di navi scientifiche o commerciali, tipicamente fino a latitudini massime di circa 60°.
L'esperimento PolarquEEEst è stato ospitato sulla barca a vela ecologica di 60 piedi Nanuq, che è partita per una spedizione scientifico/commemorativa il 22 luglio 2018 da Ísafjörður (Islanda) ha raggiunto e quindi ha circumnavigato l'arcipelago delle Svalbard raggiungendo la massima latitudine di 82°07’ per concludere poi il suo viaggio il 4 settembre a Tromsø (Norvegia). La spedizione scientifica in barca a vela è stata organizzata nell’ambito della spedizione Polarquest2018 che celebrava la sfortunata missione del Dirigibile “Italia” del 1928 e del suo ideatore Umberto Nobile che portò avanti, oltre a obiettivi di carattere esplorativo, diversi esperimenti compresa la misura del flusso di raggi cosmici eseguita mediante un elettroscopio.
Anche il Nanuq ha ospitato a bordo esperimenti scientifici, ad esempio sulla ricerca di macro e microplastiche nelle acque del mare artico intorno alle Svalbard (effettuato dal CNR-ISMAR), sulla mappatura cartografica con droni della costa nord dell'arcipelago (effettuato da  GREAL - Università Europea di Roma e Società Geografica Italiana) e sui raggi cosmici, appunto PolarquEEEst, i cui primi risultati sono riportati in questo articolo ora pubblicato su The European Physical Journal C.
L'esperimento PolarquEEEst è stato condotto nell'ambito del progetto “Extreme Energy Events: la Scienza nelle Scuole” del “Museo Storico della Fisica e Centro Studi e Ricerche Enrico Fermi” di Roma, che gestisce anche una vasta rete di telescopi per raggi cosmici dislocati in Italia e al CERN.
Per approfondire clicca su questo link.
La materia oscura (DM) è stata introdotta per la prima volta per spiegare il moto delle galassie in un ammasso e poi per spiegare la velocità delle stelle nelle singole galassie. In entrambi i casi le velocità misurate erano troppo elevate per essere bilanciate dalla massa stimata dall’emissione luminosa. Il quadro cosmologico fornisce una prova diversa, complementare, sebbene indiretta, della necessità di introdurre DM: in questo caso la DM è necessaria per mettere in relazione le minuscole fluttuazioni di temperatura nella radiazione cosmica di fondo con la distribuzione della massa visibile nell’universo. La DM cosmologica deve essere di natura non barionica in quanto la sua interazione con i fotoni deve avvenire solo attraverso la forza di gravità altrimenti le fluttuazioni del fondo cosmico sarebbero troppo grandi rispetto alle osservazioni. Un’idea alternativa per risolvere il problema della massa nascosta è stata proposta in letteratura dagli anni ’80: una modifica ad-hoc della gravità di Newton. In particolare, in questo approccio, invece di invocare più massa sotto forma di particelle sconosciute, la forza gravitazionale viene aumentata di intensità a parità di distanza da una legge di decadimento (meno rapida dell’inverso del raggio al quadrato, cioè come l’inverso della distanza).
Questo progetto, basato su idee e intuizioni all’interfaccia tra la fisica statistica e astrofisica, propone un nuovo tentativo di comprendere il problema del DM galattico che è motivato dai recenti risultati osservativi della missione Gaia. Il quadro teorico riguarda un problema fondamentale che coinvolge la fisica newtoniana classica e la materia ordinaria (cioè stelle e gas); problema che è stata trascurato in letteratura: il rilassamento verso l’equilibrio di un sistema costituito da molte particelle auto-gravitanti, questione che si inquadra nella fisica dei sistemi con interazione a lungo raggio. In altre parole, in un dato sistema, è possibile semplicemente correlare la velocità di rotazione alla massa solo se questa si trova in una situazione stazionaria in cui, ad esempio, la forza centrifuga è bilanciata da quella centripeta a causa della gravità, ovvero l’assunto di base utilizzato per stimare DM. Il nostro obiettivo è invece quello di studiare in quali condizioni viene raggiunto uno stato di equilibrio stabile in un sistema auto-gravitante, quanto tempo ci vuole per rilassarsi in una tale configurazione da condizioni iniziali generiche fuori equilibrio e, da un punto di vista osservazionale, se i campi di velocità di entrambe le nostre galassie e quelli esterni sono compatibili con una situazione del genere. Mentre l’assunzione di stazionarietà è generalmente data per scontata ed è cruciale per l’interpretazione delle osservazioni da cui si vuole stimare la distribuzione della massa, la scala temporale per un completo rilassamento da una configurazione generica fuori dell’equilibrio a un QSS è scarsamente limitata sia dal punto di vista teorico che numerico.
Il rilassamento collettivo avvicina un sistema autogravitante all’equilibrio, ma genera anche in modo abbastanza generico, strutture non stazionarie di lunga durata con una ricca varietà morfologica e caratterizzate da bracci a spirale, barre e persino strutture ad anello in casi speciali, qualitativamente simili alle galassie a spirale. In questi sistemi le particelle non seguono orbite circolari e stazionarie ma formano invece transienti di lunga durata, che hanno la forma di bracci a spirale con barre o anelli, dominati da movimenti radiali che impediscono il rilassamento verso una configurazione di equilibrio. In questa situazione la stima della massa da una velocità non è più possibile e dunque la determinazione della quantità di DM deve essere rivista completamente se il sistema non è all’equilibrio.
 
 
 
 
 
 
 

Nella seconda metà del secolo scorso la complessità dei fenomeni naturali e la semplicità delle leggi sottostanti sono stati in qualche modo riconciliati grazie alla scoperta che il Caos è insito nelle leggi stesse. La teoria del Caos spiega perché il Caos è parte integrante delle leggi naturali e averlo compreso ha prodotto una profonda rivoluzione concettuale nella scienza. Insieme alla meccanica quantistica e alla teoria della relatività, la teoria del Caos è uno dei tre grandi paradigmi scientifici che hanno cambiato il nostro modo di vedere e capire quello che ci circonda.


Oltre alla Fisica, la teoria del Caos trova applicazione in quasi tutte le discipline scientifiche, incluse l’Economia e le Scienze Sociali. È quasi impossibile fare un sommario in qualche misura esaustivo dei problemi che si stando affrontando e in parte risolvendo nelle diverse discipline. È però possibile capire come, anche grazie alla Teoria del Caos, sia in parte cambiato il modo di fare ricerca e quali siano potenzialmente le direzioni in cui oggi si pensa di ottenere dei significativi risultati.


La Teoria del Caos ha dato un contributo fondamentale allo sviluppo del concetto di sistema complesso. In realtà non esiste una definizione condivisa di cosa si debba intendere per sistema complesso. Esistono varie definizioni, ognuna a seconda dei punti di vista. Per alcuni, un sistema complesso è un sistema il cui comportamento dipende in modo cruciale dai dettagli del sistema stesso. D’altra parte, una simulazione al computer di un sistema caotico non è esatta ma rappresenta una approssimazione della soluzione esatta e delle regole che lo governano. In queste condizioni, possiamo capire quali sono le caratteristiche generali del sistema, ovvero della distribuzione di probabilità che lo caratterizza, e che, in qualche misura, sono indipendenti dai dettagli stessi.



Per saperne di più sfoglia il nostro piano triennale.
Era il 1930 quando Ettore Majorana scrisse un articolo dal titolo “Il Valore delle Leggi Statistiche nella Fisica e nelle Scienze Sociali”. Questo scritto, pubblicato postumo nel 1942, nasceva dalla mente di un visionario, che aveva intuito l’importanza delle leggi statistiche per la Fisica e le Scienze Sociali. In particolare, il problema posto da Majorana era incredibilmente attuale: in che modo il rigore metodologico della fisica potesse essere esportato in altre discipline.
Nell’era dei Big Data la questione suscitata da Majorana torna al centro di ogni dibattito, perché, seppure non tutto il rigore della Fisica è esportabile, altre discipline, come ad esempio l’economia possono giovarne. Ed è un bene visto che hanno una grandissima importanza per la nostra società oltre che un grande valore intellettuale. Quindi, anche se il tasso di rigore fosse solo parziale, un aumento di scientificità in queste discipline sarebbe un risultato della massima importanza. Inoltre, da un punto di vista intellettuale e scientifico si creerebbe un legame tra le discipline delle cosiddette scienze esatte e quelle delle scienze socioeconomiche che avrebbe di per sé un grandissimo valore culturale e scientifico.
Questa è una delle aree che il CREF intende esplorare con la prospettiva concreta della Scienza della Complessità, messa al centro del dibattito da eventi inaspettati come la nascita di Google, l’incessante crescita cinese, la disintermediazione e lo sviluppo di Blockchain etc. Gli elementi comuni di questi fenomeni sono una integrazione delle connessioni e degli eventi a livello planetario e la velocità con cui si evolvono e sviluppano proprietà emergenti imprevedibili. È evidente l’inadeguatezza dei concetti e delle analisi tradizionali e risulta chiara l’esigenza di nuove metodologie scientifiche per l’analisi, la comprensione e il controllo di questi fenomeni, proprio come quasi un secolo fa aveva predetto Majorana.
Clicca qui per leggere il testo integrale di “Il Valore delle Leggi Statistiche nella Fisica e nelle Scienze Sociali”.

Mediante semplici esperimenti dinamici l’articolo scientifico di Francesco Sylos Labini, Luis Diego Pinto e Roberto Capuzzo-Dolcetta ha indagato l'effetto combinato della dinamica gravitazionale e dei gas nell'evoluzione di una sovra-densità massiccia inizialmente fuori equilibrio, uniforme e rotante pensata come isolata. Da questo è emerso come la rapida variazione del potenziale di campo medio del sistema fa sì che le particelle puntiformi (PP), che interagiscono solo tramite gravità newtoniana, formino un disco spesso quasi stazionario dominato da moti rotazionali circondati da bracci a spirale molto fuori equilibrio.


Si è visto che la componente gassosa è sottoposta a shock di compressione e raffreddamento radiativo in modo da sviluppare un disco molto più piatto, dove i moti rotazionali sono coerenti e la dispersione di velocità è inferiore a quella dei PP. Intorno a tale disco gassoso si formano braccia a spirale longeve, ma non stazionari: questi sono costituiti da particelle gassose che si muovono coerentemente perché hanno acquisito una specifica correlazione fase-spazio durante la fase di collasso gravitazionale. Tale correlazione fase-spazio rappresenta una firma dell'origine violenta delle braccia e implica sia il movimento della materia che il trasferimento di energia.


Su scale maggiori, dove la componente di velocità radiale è significativamente maggiore di quella rotazionale, il gas segue gli stessi bracci a spirale fuori equilibrio tracciati dai PP. Infine vengono delineate le implicazioni astrofisiche e cosmologiche dei nostri risultati. Quando la componente della velocità radiale è significativamente maggiore di quella rotazionale, il gas segue gli stessi bracci a spirale fuori equilibrio tracciati dai PP.


Clicca su questo link per approfondire.

Uno dei problemi cruciali per la teoria della formazione delle galassie è spiegare il paradosso della cuspide: mentre le simulazioni dei modelli teorici danno luogo a un profilo di densità divergente a una piccola distanza (1 / r) dal centro, osservazioni di profili di galassie mostrano che questi sono costanti.
Per comprendere l'origine di questi profili è necessario conoscere le proprietà fondamentali degli stati di quasi-equilibrio dei sistemi gravitazionali e in particolare che tipo di percorso dinamico hanno seguito durante la loro formazione. Abbiamo scoperto che, a seconda delle condizioni iniziali, questi stati stazionari possono presentare un profilo divergente su piccola scala o un profilo piatto. Questa differenza corrisponde a una diversa natura dinamica alla base della loro origine.
Tornando alle galassie, i profili indicano che la dinamica che ha dato loro origine è un tipo violento di rilassamento. Cioè, un processo dinamico diverso da quello "standard" dei modelli di materia oscura fredda.
I sistemi auto-gravitanti inizialmente molto fuori equilibrio formano, attraverso una dinamica di rilassamento senza collisioni, stati quasi stazionari (QSS). Le loro proprietà di quasi equilibrio sono ben descritte dall'equazione di Jeans e non sono universali, cioè dipendono dalle condizioni iniziali. Per comprendere l'origine di tale dipendenza, presentiamo i risultati di esperimenti numerici di sistemi inizialmente freddi e sferici caratterizzati da varie scelte dello spettro delle fluttuazioni di densità iniziali.
L'ampiezza di tali fluttuazioni determina se il sistema si rilassa dall'alto verso il basso o dal basso verso l'alto. Troviamo che le proprietà statistiche del QSS risultante dipendono principalmente dalla quantità di energia scambiata durante il processo di formazione. In particolare, nei violenti collassi top-down lo scambio di energia è ampio e il QSS mostra un nucleo interno con un profilo di densità quasi piatto e una distribuzione di velocità quasi Maxwell-Boltzmann (isotropica), mentre le loro regioni esterne mostrano un profilo di densità ρ (r) ∝ r ^ (- α) (α> 0) con orbite radialmente allungate.

Durante la crisi del COVID-19 abbiamo assistito all’ennesima conferma di quanto le informazioni e le tecnologie dell’informazione (Internet, social media, etc) siano cruciali nella vita di un paese. In particolare, nei paesi con alti livelli di democrazia, dove la classe politica è fortemente legata alle opinioni della popolazione, le informazioni fruite dalle persone sono la sorgente da cui scaturiscono molti comportamenti di massa, nonché la selezione della classe politica stessa. Tuttavia, se le tecnologie dell’informazione hanno radicalmente cambiato le dinamiche secondo cui storicamente avvenivano questi meccanismi, hanno anche aperto questo processo a nuove influenze e nuove fenomenologie. È del tutto evidente come nell’ultimo secolo i conflitti tra stati, che prima si svolgevano principalmente sul piano militare, si siano trasferiti prevalentemente sul piano economico. Esempio recente e lampante ne è la guerra commerciale tra Stati Uniti e Cina, parte in realtà di una conflittualità di più ampio respiro per l’egemonia economica mondiale.


Se la competizione sul piano economico è evidente, un altro fondamentale piano di conflitto ancora nell’ombra è quello dell’informazione. Le tecnologie dell’informazione che, nei paesi democratici, hanno raggiunto livelli altissimi di penetrazione, rappresentano i nuovi campi di battaglia dei conflitti mondiali. Gli scontri non sono più tra eserciti, bensì tra narrative. Sono molti i casi documentati di tentativi di influenza della vita democratica durante momenti cruciali e delicati, come nel caso della Brexit o delle elezioni americane del 2020 o dell’hastag impeachement contro Mattarella. Sarebbe tuttavia superficiale ridurre l’impatto dei social media sul discorso politico ai tentativi di influenze esterne (che in effetti, sono sempre esistiti dacché esiste la propaganda, ma con altre forme).


Ma la rapidità e la capacità di interconnessione dei nuovi mezzi, i nuovi strumenti tecnologici per la creazione di contenuti e le nuove piattaforme hanno creato una vasta pletora di fenomeni nuovi e modificato la dinamica di fenomeni storicamente noti, anche senza l’intervento di influenze esterne. Ad esempio, l’inedita interazione del Confirmation Bias con la gargantuesca disponibilità di contenuti e risorse resa possibile dalle varie piattaforme, è uno dei fenomeni dietro il sorgere delle cosiddette Echo Chamber. Altro fenomeno di interesse è l’utilizzo dei bot per “dopare” la visibilità di un profilo o la diffusione di alcune notizie a scopi commerciali. Oppure l’esplosione degli hate speech e dei fenomeni di trolling, legati alla crisi della fiducia da parte degli utenti dei social media. Dalla comune indagine su queste nuove problematiche è nata la collaborazione tra il CREF e Sony CSL di Parigi.


La direttiva principale consiste in un approccio tattico di studio frontale delle fenomenologie critiche quali ad esempio: la misinformation e, in particolare, la diffusione delle fake news; la creazione e la dissoluzione delle Echo Chamber, e più in generale i fenomeni di polarizzazione delle opinioni; gli hate speech e il trolling; l’utilizzo di bot sui social network; la competizione tra narrative contrastanti; gli squilibri informativi, ovvero la sovrabbondanza di informazione su alcuni temi in contrapposizione alla carenza di informazioni in altri. Tali argomenti di ricerca stanno attirando, negli ultimi anni, un crescente interesse sia da parte della comunità scientifica che da parte delle istituzioni, che ne hanno compreso l’importanza cruciale per la tenuta democratica e per la salute del discorso pubblico.


Lo studio di tali questioni sarà affrontato grazie all’avanzamento scientifico delle tecniche di modellizzazione delle Dinamiche di Opinione, della Teoria delle Reti, del Machine Learning e, in generale, dell’armamentario tecnico della Data Science. Da questi presupposti nasce la collaborazione tra il CREF e il Sony CSL di Parigi: i due enti mirano a migliorare il discorso pubblico attraverso lo studio delle condizioni in cui questo avviene e attraverso la proposta di nuovi strumenti per evitare i circoli viziosi e potenziare i comportamenti virtuosi. I soggetti di studio saranno da un lato gli algoritmi di selezione e filtraggio delle risorse sui social media (i cosiddetti sistemi di raccomandazione) e il loro impatto sulle dinamiche di esplorazione e di formazione delle opinioni. Tali sistemi sono stati spesso collegati alla creazione delle Echochambers per via della loro spinta verso le preferenze espresse nel passato dagli utenti. L’obiettivo strategico sarà quindi di verificare tale effetto e sviluppare nuovi sistemi in grado di aiutare l’utente nell’esplorazione di nuovi contenuti senza tuttavia rendere l’esperienza meno piacevole, giocando quindi al confine della cosiddetta Comfort Zone.


Dall’altro la ricerca indagherà i sistemi di reputazione per migliorare le dinamiche della fiducia nelle fonti di informazione. Paradossalmente, abbiamo informazioni aggregate ed organizzate in recensioni e valutazioni su quasi qualsiasi tipo di contenuto disponibile in rete (film, musica, ecc.) ma non sulle sorgenti di informazioni stesse. L’obiettivo strategico consiste nello studio di tali sistemi di reputazione e nell’introduzione sperimentale di tali sistemi, opportunamente adattati, nell’ambito delle fonti di informazioni. I sistemi di aggregazione delle valutazioni infatti andranno necessariamente adattati per compensare gli effetti dovuti alle Echo-Chambers, evitando che ogni “tifoseria” validi la propria fonte di fiducia, attraverso l’attribuzione di un peso privilegiato alla trasversalità delle valutazioni.