Il CREF si avvale di un Comitato Interno di Valutazione che valuta i risultati scientifici conseguiti dall’attività complessiva dell’Ente in relazione agli obiettivi definiti nel Piano Triennale, predisponendo una apposita relazione da sottoporre al Consiglio di Amministrazione.
Il Comitato Interno di Valutazione si compone di tre esperti di chiara fama internazionale nominati con delibera del Consiglio di Amministrazione su proposta del Presidente, che durano in carica quattro anni e possono essere confermati una sola volta.
Il 29/10/2020 il Presidente Luciano Pietronero in seguito alla delibera del Consiglio di Amministrazione ha designato il nuovo Comitato Interno.
Itamar Procaccia, fisico e chimico israeliano di caratura internazionale, è stato nominato direttore. È stato ospite presso la City University di New York, l'Institut des Hautes Études Scientifiques, Nordita, l'Istituto Isaac Newton, la Rockefeller University, l'École normale supérieure de Lyon e l'Università di Chicago.
È membro dell'American Physical Society , dell'Istituto di Fisica e membro della Leopoldina e della Royal Danish Academy of Sciences and Letters . Nel 2009 ha ricevuto il Premio Israele per la fisica. Nel 2017 ha ricevuto l'EPS Statistical and Nonlinear Physics Prize.
Come membri del Comitato Interno sono stati nominati Lucilla De Arcangelis e Yi-Cheng Zhang, due studiosi di alto livello.

Anche quest’anno le scuole del Progetto EEE partecipano all’International Cosmic Day- ICD attraverso un Run Meeting dedicato a questa iniziativa, in programma il 4 novembre 2020 (ore 15:00).

Le scuole sono invitate ad effettuare delle analisi dati riguardanti lo studio dei rivelatori della Missione PolarquEEEst: le tre migliori verranno selezionate e presentate dagli studenti nel corso del meeting.

In agenda, inoltre, la presentazione a cura del Dott. Carmelo Pellegrino riguardante l'esperimento KM3Net, un network di rivelatori sottomarini a caccia di neutrini, e un intervento del Dott. Francesco Noferini, relativo all'osservazione con i rivelatori Polar dell'effetto stagionale nel flusso dei raggi cosmici.

Il programma e tutti i dettagli dell’evento sono disponibili al seguente link.

L’ICD, giunto alla sua 9° edizione, è un evento internazionale organizzato da Desy in collaborazione con Netzwerk Teilchenwelt, IPPOG, QuarkNet e Fermilab.

Una riflessione di Luciano Pietronero sui reali meccanismi che determinano il progresso scientifico. Un pensiero nato dall’esperienza accumulata in tanti anni di ricerca e dall’incontro con illustri personaggi del mondo scientifico. L’articolo è già apparso su Roars, Return on Academic Research and School.
Planning scientific discoveries is not like building a railroad. Extreme accuracy in the analysis of projects can be sometimes counterproductive, similarly to what happens in Darwinian evolution.
The interesting discussion by Doroty Bishop (Nature, 584, 9 (2020)) on how to avoid cognitive biases in the scientific and statistical analysis is technically perfect but still it can be disorienting if one looks at how major scientific discoveries are actually made. In the early eighties I was a young university professor full of enthusiasm and good intentions. I began to get research projects to referee and set my optimal rules for this task pretty much in the line of Dorothy’s view. Intellectual honesty, competence, clarity of the objectives and unbiased statistical analysis were my rules which kept me happy for a few years. But after a while three major discoveries occurred, all Nobel prizes: The Quantum Hall Effect (QHE) by Von Klitzing; The High Tc Superconductivity by Bednorz and Muller and the Scanning Tunneling Microscope (STM) by Binning and Rohrer. All three were, broadly speaking, in my field of expertise and I even knew personally most of the protagonists.
Well, to my great disconcert I realized that, as a potential referee of these projects, my “perfect” system of analysis would have led to the rejection of all of them, and with perfectly good reasons. The original project of von Klitzing had little to do with the magic topological properties of the QHE; Alex Muller’s original idea of how to reach high Tc SC was based on the softening of phonons near a structural instability, but this is not really the mechanism. Even the STM was supposed to be a metallurgical tool to explore the surface of metal with a resolution of 500 atoms. Nobody could have predicted that the tip would rearrange to give information at the level of individual atoms.
So, I realized that my perfect system, honest, unbiased and competent, would have killed all these three major discoveries. The lesson I learned was that a too meticulous analysis based on what you know can be problematic to explore what you don’t know. But in terms of positive hints on how to improve my analysis there was little to learn. After a few years an interesting discussion with Stuart Kauffman on how birds can fly gave me some intellectual relief. The Darwinian development of wings was certainly not motivated by the hope to fly because below a certain size, you certainly don’t fly. The evolutionary line for wings was something else (it seems balancing the running or cooling blood) and only when they reached a certain size this evolutionary line met the (unplanned) evolutionary line of flying. Similarly, in the three discoveries above there was a certain line of research and then, unexpectedly, something else appeared. Actually, in the case of Muller he was really looking for High Tc SC but along a line which was, in some sense, different from the actual one. The merit of these scientists was to go along some line in a consistent and professional way but also to be able to realize of the new discoveries which suddenly appeared.
Note that something similar happened to Columbus traveling to America (he miscalculated the earth radius) and in the properties of the radio by Marconi (he thought radio waves could follow the curvature of the earth). May be after all this is what is called serendipity and it is a natural characteristic of experimental science.
But also, in theory a sort of educated bias, or intuition seems to play a major role. Some time ago I realized that the statistical methods used by cosmologists in analyzing the distribution of visible matter assumed a priori that this must be homogeneous at some scale, so they considered only the question of “when” it becomes homogeneous, but not “if” it becomes homogeneous. Technically this implied turning the amplitude of a power law correlation into a correlation length, which is a capital sin for all those who are familiar with complex and fractal structure. It was a clear bias motivated, however, by different observations. So, we repeated these analyses and found that in all the available samples the distribution of galaxies did not show any homogeneity. In 1996, at a conference in Princeton I had a public debate with Jim Peebles (Nobel 2019) and his group. The hall was so crowded that Phil Anderson was not allowed to enter by the security and I spoke to him only afterwards. He asked me what the comment of Peebles to my arguments was. I replied that Peebles argued that I only showed the data in my favor. Actually, I wanted to add that instead I showed all the available data, but Phil suddenly interrupted me by saying: “Of course, what else should one do?”.
A few years later, around 2000, in Trieste I had another interesting discussion with Phil on the much-debated subject of High Tc SC. Phil had argued since several years that the problem was obviously solved by the properties of strongly correlated electrons, beyond the Fermi Liquid theory. When I asked him, what was in his view the active principle for the increase of Tc from strong correlation, his answer was: “Well, I wish I knew that!”. So, his position was more a prophetic wish rather than a scientific proposition. Was this good or bad for science? Who knows? The fact is that today it is still not clear how strong correlation may increase Tc. Finally, the toast proposed by Phil at the end of each dinner was always: “Against common wisdom!”. Not exactly an unbiased point of view.
In summary scientific discoveries resemble Darwinian evolution in which one looks for new things in a new space. A strategy which is too strictly based on what is known may lead to good incremental progress but hardly to a real breakthrough. Elements like an educated bias, interpreted as intuition or creativity can give an artistic touch and sometimes lead to important results. The evaluation of these elements is intrinsically difficult but for sure they make the scientific game more fun.
Il mondo dell’informazione è radicalmente cambiato con l’avvento di Internet. I social media, in particolare, hanno rivoluzionato il modo in cui comunichiamo e ci informiamo, diventando la principale fonte di informazione per la maggior parte degli utenti. Facebook conta più di due miliardi di utenti, che generano più di tre milioni di post al minuto, informandosi e informando senza l’intermediazione di giornalisti ed esperti, partecipando quindi attivamente alla produzione e alla diffusione di notizie e contenuti.
Studi recenti hanno mostrato come i gruppi di utenti si concentrano in echo-chambers che formulano e confermano la loro narrativa preferita, contrastando sistematicamente ogni informazione dissidente. In questa situazione l’efficacia del fact-checking e del debunking è altamente questionabile; sono invece necessari strumenti innovativi, che affrontino il problema delle fake news utilizzando metodi improntati sull’analisi dei dati e sulla formulazione di algoritmi specifici e dedicati.
Un gruppo di ricercatori del CREF intende applicare gli stessi criteri di rigore scientifico e metodologico che hanno portato all’introduzione della metodologia Economic Fitness al problema della (dis-)informazione online, allo studio della diffusione dei contenuti, all’analisi della formazione delle echo chambers e allo studio delle dinamiche che portano gli utenti a spiraleggiare verso le echo chambers. Sembra sussistere una forte correlazione tra argomenti che polarizzano l’opinione pubblica e la diffusione di notizie false e tendenziose. Alcuni studi hanno provato a sfruttare questa peculiarità monitorando attraverso alcuni parametri l’evoluzione del dibattito online. In questa direzione si è anche cercato di capire come diversi modi di riportare una notizia possono influenzare le reazioni degli utenti ed eventualmente ridurre la polarizzazione online.
L’esperimento portato avanti con alcune testate giornalistiche nazionali ha affrontato il tema dell’immigrazione sui social. I risultati mostrano che è molto difficile eludere i meccanismi che portano alla polarizzazione. Questi meccanismi di polarizzazione degli utenti e conseguente chiusura in echo chamber sembrano essere un tratto molto importante e caratterizzante dell’interazione on line. A tal fine si è cominciato ad esplorare il ruolo delle varie piattaforme nelle dinamiche di polarizzazione e ne emerge un quadro molto frastagliato. Sembra esserci una generale tendenza alla polarizzazione, ma ogni piattaforma, attraverso i suoi algoritmi, ne determina una reificazione diversa.
Per approfondire scarica il nostro piano triennale.
Antonio Serra fu un economista e filosofo italiano vissuto a cavallo tra il XVI e il XVII secolo. Legato alla scuola mercantilista, è considerato il primo studioso che in Italia ha affrontato questioni di politica economica. Non si conosce molto della sua vita, se non qualche aneddoto: si laureò in utroque, cioè nell’uno e nell’altro diritto; pare che fu imprigionato per aver partecipato al complotto di Tommaso Campanella; altre versioni raccontano che a condurlo in galera furono accuse di falso monetario.
Durante gli anni di prigionia, Serra compose un trattato, “Breve trattato delle cause che possono far abbondare li regni d'oro e d'argento dove non sono miniere”, con il quale sperava di convincere il viceré Pedro Fernández de Castro y Andrade a farsi liberare. Fu probabilmente rispedito in carcere e il suo libro finì nel dimenticatoio per svariati decenni. Finché a metà del ‘700 l’abate Ferdinando Galiani non riscopri l’opera di Antonio Serra, per il quale pronunciò degli elogi che lo avvicinavano a personalità come Locke e Melon.
Da quel momento in poi Antonio Serra fu puntualmente ripreso da tutti gli studiosi di politica economica che riconoscessero la grandezza ad un autore che aveva saputo introdurre concetti fondamentali, come quello della bilancia commerciale, e respingere la convinzione che la scarsità di moneta fosse strettamente dipendente dai tassi di cambio.
In tempi recenti fu Benedetto Croce ad esaltarlo, chiamandolo “lampada di vita” per ogni studioso di Economia Politica. Ancora più di recente l’importanza di Antonio Serra e del suo breve trattato viene ricordata dalle opere dell’economista norvegese Erik S. Reinert, autore del libro “How Rich Countries Got Rich and Why Poor Countries Stay Poor”, che riparte dalle teorie di Giovanni Botero ed Antonio Serra. All’interno del suo scritto compare una citazione del Serra, che chiarisce immediatamente in che modo l’economista italiano può essere considerato un precursore della Complessità Economica: “Se desideri stimare la ricchezza di una città conta il numero di professioni trovate all'interno delle sue mura”.
Il progetto Neuroscience and Quantitative Neuroimaging (NQN) è un’iniziativa del Centro Ricerche Enrico Fermi; si occupa dello studio della funzione cerebrale e di alcune patologie neurologiche e psichiatriche, associando lo sviluppo tecnologico alla sua applicazione per la caratterizzazione delle reti cerebrali e della dinamica metabolica a livello funzionale, strutturale e molecolare.
Le finalità generali del progetto riguardano la determinazione dei rapporti tra la funzione cerebrale e i suoi presupposti fisiologici e biochimici, o più in generale tra funzione e struttura. Il punto di vista dominante è che la struttura condizioni, ma non determini univocamente la funzione. Indipendentemente dai controversi aspetti di carattere filosofico ed evoluzionistico, il nostro approccio è di carattere eminentemente multimodale e interdisciplinare, sviluppando tra l’altro tecniche MRI, di image processing e computational modeling, e sfrutta pienamente le intrinseche proprietà mutiparametriche dell’imaging con risonanza magnetica (MRI).
È difficile sovrastimare l’importanza del neuroimaging basato su MRI per il progresso delle neuroscienze, e più in generale per la comprensione del cervello umano e di come esso sia in grado di generare un comportamento. In questo campo interdisciplinare e di frontiera nessun’altra tecnologia ha avuto infatti maggiore impatto in termini quantitativi ed anche qualitativi. Dal punto di vista quantitativo basta verificare il numero di pubblicazioni scientifiche associate all’imaging funzionale, in crescita esponenziale sin dalla sua invenzione. L’importanza qualitativa deriva invece dalle proprietà uniche dell’MRI, che da un lato è completamente non invasivo, e può dunque essere estensivamente applicato all’uomo, anche per studi ripetuti e longitudinali, dall’altro è caratterizzato dall’essere una tecnica intrinsecamente multiparametrica.
Per approfondire scarica il nostro piano triennale.
L'immenso accumulo di dati è un fenomeno nuovo che induce molte considerazioni, rappresenta un grande potenziale e talvolta porta ad aspettative mitiche. Qui viene mostrato un esempio specifico di analisi dei "big data", il caso dell’Economic Complexity. Si tratta di una nuova prospettiva sull'economia fondamentale, la quale adotta un approccio dal basso verso l'alto. L'approccio conferma alcune aspettative sui big data ma ne smentisce anche altre. Per alcuni professionisti la disponibilità big data è un problema riconducibile alla memoria del computer e alla velocità di accesso. Una volta che il set di dati è abbastanza grande, contiene tutte le informazioni possibili di cui si potrebbe aver bisogno e parlerà da solo. Questo in realtà non è il caso in generale, ma fondamentalmente può funzionare in alcuni casi specifici. Uno di questi esempi è l'analisi della disuguaglianza economica presentata da Thomas Piketty, che ha attirato così tanta attenzione tra gli economisti e i responsabili politici. In questo caso il problema è calcolare un unico rapporto, cioè il livello di disuguaglianza. Il lavoro da lui svolto consiste nell'accumulo, pulizia e controllo dei dati disponibili. Una volta completati questi passaggi, il calcolo è davvero semplice. Il risultato è comunque notevole rispetto all'economia mainstream, e si basa su un cambiamento di atteggiamento dell'analista: Piketty parte dai dati e poi scopre correlazioni interessanti.
In generale, però, quando si analizzano fenomeni complessi, le cose sono meno dirette, come si può mostrare con l'esempio specifico dell’Economic Complexity. L'analisi standard della competitività dei paesi considera una serie di elementi come l'istruzione, i trasporti, la produzione, l'esportazione, l'inquinamento ecc. Attraverso un'adeguata ponderazione di questi elementi si arriva ad un punteggio globale per il paese. Alla fine, questa analisi richiede la scelta di più di 100 parametri per combinare tutti questi elementi. Chiaramente questo è un compito soggettivo che non può considerare adeguatamente tutte le possibili interazioni tra gli elementi coinvolti. Inoltre, l'analisi viene effettuata individualmente per ogni paese e solo alla fine vengono confrontati paesi diversi.
L’Economic Complexity comporta un cambio di prospettiva e va oltre l'analisi individuale. Tutti i paesi sono considerati come nodi di una rete integrata e i collegamenti sono dati dai prodotti che producono. In pratica si considera la rete bipartita di paesi e prodotti. In linea di principio abbiamo accesso a più informazioni oltre ai prodotti, ma il problema è che questi dati non sono indipendenti l'uno dall'altro: quindi, considerarli tutti porta solo a confusione o ad un'interpretazione intrinsecamente soggettiva, in quanto parametri e pesi sono assegnati arbitrariamente. Con l’Economic Complexity si è cercato di andare oltre questa approccio e fare un'analisi che sia scientifica, ovvero che fornisca un risultato unico, non dipendente da alcuna interpretazione soggettiva. Questo porta ad una selezione tra i dati e addirittura ad una loro riduzione. Solo un sottoinsieme selezionato è veramente utile; l'aggiunta di più dati porta solo a confusione. Ciò dimostra che un problema di Big Data spesso inizia con piccoli dati. È necessario selezionare un metodo di analisi e scegliere le domande e i problemi da considerare: i dati non forniscono queste cose da soli. In questo caso è necessario un algoritmo simile nello spirito al Page Rank di Google, sebbene in economia l'algoritmo di Google non sia appropriato e abbiamo dovuto, quindi, cercarne uno diverso. Questa è una parte concettuale del lavoro che, tuttavia, necessita di dati appropriati per essere testata. Una volta superata la sfida concettuale, la metodologia inizia a produrre buoni risultati e l'approccio dimostra il suo valore pratico. Tuttavia, con l'aumentare dell'ambizione, i limiti del set di dati originale diventano evidenti. Si apre così la ricerca di molti più dati ma in una direzione specifica individuata dal metodo di analisi e dal nuovo algoritmo.
Ora il problema può evolversi a livello di Big Data aggiungendo sempre più informazioni sui paesi e sui prodotti ma nella nuova prospettiva. Una naturale evoluzione è quindi quella di passare all'analisi delle singole aziende (oltre che dei paesi). Le aziende sono specializzate in termini di prodotti, quindi una matrice di aziende e prodotti porterebbe a un insieme molto limitato di informazioni e non sarebbe particolarmente utile. Bisogna studiare quali sono i dati adatti alle aziende e quali sono il nuovo criterio e il nuovo algoritmo per estrarre informazioni utili da questi dati: questa è la frontiera di oggi. Non appena si ha una nuova idea e un nuovo algoritmo, ci si rende subito conto che i dati disponibili (originariamente raccolti per scopi diversi) non sono ottimali e si desiderano più dati di un nuovo tipo. Non esiste un set di dati infinito che si possa raccogliere a priori e che sia adatto ad ogni problema, così come non esiste un unico algoritmo adatto ad ogni situazione. Il passo che è stato indicato corrisponde a un passaggio dall'analisi del singolo paese con 100 parametri ad un'analisi algoritmica di rete con zero parametri. Quindi si può pensare che la chiave per l'analisi dei Big Data sia lo studio delle reti complesse. In effetti esiste una vasta letteratura principalmente sulla caratterizzazione statistica delle proprietà delle reti complesse, ma è davvero ciò di cui abbiamo bisogno?
L'esempio del Page Rank di Google, piuttosto, indicherebbe una direzione diversa. Indipendentemente dalle caratteristiche e dalla struttura specifiche della rete, questo algoritmo riesce a definire la corretta gerarchia dei siti web. D'altra parte, in assenza di un tale algoritmo, la classificazione delle proprietà specifiche della rete non porterebbe a molte informazioni utili. La situazione è in realtà simile per il nostro algoritmo per paesi e prodotti. Con gli studi standard della rete complessa si può dimostrare, ad esempio, che nell'ultimo decennio il cluster economico intorno alla Cina è diventato più grande di quello intorno al Giappone. Differentemente, con l'algoritmo appropriato si possono ottenere numerosi risultati come la classifica dei paesi e dei prodotti, l'identificazione del potenziale nascosto e la previsione della crescita del PIL, ecc. La scienza dei dati nel senso che abbiamo indicato in questo articolo può effettivamente produrre una rivoluzione nella nostra conoscenza in molti campi. Ma per ogni area dovrebbe esserci una chiara comprensione di quali siano le informazioni rilevanti e di come estrarle dai dati. Questa non può essere una ricetta unica per tutti i campi di analisi: va invece studiata e adattata a ogni problema.
La ricerca è stata a lungo trascurata in Italia, finanziariamente, politicamente e culturalmente. Ma la pandemia di Covid-19 ha cambiato tutto questo. Il valore della ricerca viene ora riconosciuto, con i finanziamenti annunciati e i ricercatori che stanno vivendo una nuova importanza. Questo nuovo rapporto tra scienza, politica e media, però, non è privo di pericoli.
I media non sono abituati a spiegare ed analizzare i tecnicismi dell'epidemiologia e della salute pubblica. Nelle interviste, i ricercatori sono talvolta tentati di allontanarsi dalla loro area di competenza, e i politici possono essere tentati di trasferire la colpa di passi falsi politici sulla consulenza scientifica e sui ricercatori che la forniscono. Gettano diversi punti di vista scientifici nel mix e non sorprende che il pubblico a volte possa essere confuso, specialmente se gli scienziati sono dipinti come, o ci si aspetta che siano, gli arbitri della verità ultima.
La pandemia ha evidenziato la necessità per l'Italia di seguire un corso accelerato di epistemologia a livello nazionale. In particolare, gli scienziati, i media e i responsabili politici devono essere chiari su ciò che la scienza può e non può fare. Questo è particolarmente vero quando le previsioni scientifiche informano le decisioni politiche.
Un compito cruciale è distinguere questo tipo di previsioni scientifiche incentrate sulla politica da quelle volte a dimostrare o confutare una teoria. Ad esempio, se un pianeta non è dove ci aspettiamo, potrebbe significare che la gravità ha bisogno di un ripensamento. Ma una previsione meteorologica fallita non invalida le equazioni della dinamica dei fluidi. Quest'ultimo tipo di previsione imperfetta - che include modelli epidemiologici - è spesso fatta allo scopo di guidare le decisioni nella politica o nella protezione civile.
L'aumento della potenza di calcolo e i big data hanno aumentato la portata di tali previsioni e hanno sollevato la speranza che il monitoraggio costante dei fenomeni atmosferici, geologici o sociali ci consentirà di prevedere e mitigare i disastri naturali. Allo stesso modo, il monitoraggio della diffusione di malattie ed epidemie può aiutare a identificare opportunità per vaccinazioni di massa o altre forme di prevenzione. I focolai di malattie sono come i terremoti. Non possiamo prevedere con precisione quando o dove colpiranno, ma il monitoraggio e altri studi possono aiutarci a ridurre il loro impatto.
La possibilità di un'epidemia globale come il Covid-19 è nota da decenni. Sapevamo che una maggiore mobilità internazionale e un maggiore contatto tra esseri umani e specie selvatiche aumentavano il rischio, ma non potevamo prevedere quando e dove un animale avrebbe trasmesso un virus a un essere umano.
Una volta che un'epidemia ha iniziato a diffondersi, tuttavia, disponiamo di dati e possiamo iniziare a fare previsioni e pianificare interventi. L'epidemiologia computazionale è simile alla meteorologia: si osserva un sistema oggi e poi si applicano le equazioni per calcolare il suo stato domani. La potenza di calcolo e i big data svolgono un ruolo fondamentale in entrambe le scienze. Ma poiché sia ​​il tempo che le epidemie sono sistemi caotici, altamente sensibili alle condizioni microscopiche, previsioni precise a lungo termine sono impossibili.
Dove differiscono è che le epidemie sono un fenomeno sociale oltre che naturale; politiche appropriate possono cambiare le loro traiettorie. Non possiamo evitare una crisi ma, con le giuste previsioni e decisioni politiche - e i giusti preparativi anticipati - non è necessario che diventi una catastrofe.
Il problema è che i limiti delle previsioni non sono sempre compresi o comunicati correttamente a chi ha il compito di trasformare le previsioni in decisioni o protocolli di sicurezza. Ciò rende l'uso della previsione scientifica nelle politiche pubbliche un complicato mix di fattori scientifici, politici e sociali. Le implicazioni dell'utilizzo di previsioni scientifiche incerte per guidare scelte politiche decisive e irreversibili in questioni di enorme interesse pubblico spesso non vengono prese in considerazione.
In Italia, e probabilmente più in generale, vedo la necessità di comunicare ciò che possiamo e non possiamo prevedere e con quale grado di certezza. La pandemia ha creato un'opportunità e un appetito per fare proprio questo. Ma ha anche creato dei rischi: essere sotto i riflettori non è sempre comodo e la fiducia può essere persa molto più rapidamente di quanto si possa costruire.
Cosa dovrebbero fare i ricercatori per sfruttare al meglio il momento e per dare il miglior contributo alla vita pubblica e all'elaborazione delle politiche? La valutazione del grado di incertezza intorno a qualsiasi previsione rimane un compito cruciale che può essere svolto solo da scienziati esperti. Dovrebbero anche avere l'onestà intellettuale per chiarire la loro parziale ignoranza.
Tuttavia, questo dovrebbe essere ben compreso dai responsabili politici, dai media e dal pubblico. Per questo, è necessaria una discussione interdisciplinare che vada oltre gli specialisti.
Questo articolo è stato pubblicato anche su Research Europe.
La speranza di identificare superconduttori (SC) in grado di operare a temperature prossime alla temperatura ambiente, è stata rilanciata cinque anni fa grazie alla scoperta della superconduttività in un superidruro di zolfo (SH3) a pressioni dell’ordine del Megabar. Il composto SH3 e, più tardi, il LaH10 non solo hanno stabilito record senza precedenti per la temperatura critica Tc (203 e 260K rispettivamente), ma hanno anche delineato una nuova strada per la scoperta di SC: infatti, per la prima volta in oltre un secolo, le scoperte sperimentali di nuovi superconduttori sono state anticipate da accurate previsioni teoriche.
Sviluppi cruciali nell’ambito dei metodi ab-initio per la previsione delle strutture cristalline e per la superconduttività, permettono oggi di calcolare su un computer il diagramma di fase e la Tc di molti SC convenzionali, con un’accuratezza spesso comparabile con gli esperimenti. La scoperta dell’SH3 ha dato il via ad una vera e propria corsa agli idruri (hydride rush), durante la quale sono stati predetti, e in alcuni casi sintetizzati sperimentalmente, più di 100 nuovi SC binari basati sull’idrogeno. Sebbene la scoperta di questi superidruri abbia una grande importanza per la ricerca di base, i risvolti pratici sono molto limitati, a causa delle elevate pressioni necessarie (1M bar = 106 atmosfere).
Pertanto, la sfida più pressante nel campo della superconduttività è, ad oggi, l’identificazione di materiali che presentano SC ad alta Tc 6 , ma a pressione ambiente. L’obiettivo del nuovo progetto sui superconduttori portato avanti dal CREF è precisamente la predizione di materiali con queste caratteristiche; in particolare, il problema verrà affrontato sfruttando una combinazione di metodi ab-initio (basati sulla teoria del funzionale densità) allo stato dell’arte e metodi di machine learning (Material Informatics).
Il gruppo dei ricercatori del CREF dispone di tutti gli strumenti per affrontare questa sfida, avendo una riconosciuta esperienza nei calcoli ab-initio per la previsione di SC e strutture cristalline. Negli ultimi cinque anni hanno pubblicato più di 15 articoli sulla superconduttività ad alta pressione, inclusa una invited review, e sono stati invitati a più di 10 conferenze internazionali per presentare i nostri risultati, inclusi i March Meeting dell’American Physical Society del 2020-2021.
Per approfondire l'argomento sul piano triennale clicca qui.
Decisamente un lungo viaggio, quello dei due sistemi di numeri esotici di Alessio Marrani e Leron Borsten, partito da quando W.R. Hamilton scoprì i quaternioni, e, in un lampo di genio, ne iscrisse le identità costitutive su una pietra del ponte di Broome a Dunsink (Dublino), il 16 ottobre 1843.
Hamilton si era preoccupato dell'osservazione della moltiplicazione che per una fase complessa induce una rotazione nel piano di Argand, rivelando un legame intimo tra la geometria euclidea bidimensionale e i numeri complessi ℂ. Affascinato da questa unificazione di geometria e algebra, Hamilton si dedicò al compito di costruire un nuovo sistema numerico che avrebbe fatto per tre dimensioni ciò che i complessi facevano per due. Dopo una serie di tentativi fallimentari, mentre si dirigeva dall'Osservatorio di Dunsink verso una riunione della Royal Irish Academy in Dawson Street, Hamilton superò la sua apparente impasse in un momento di illuminazione, realizzando uno dei dipinti rupestri più famosi nella storia della scienza.
Questa scoperta mise in moto una danza sottile che intrecciava algebra e simmetria. Oggi due ricercatori hanno saputo dare all’intuizione di Hamilton un ruolo anche nell’ambito della fisica. Alessio Marrani, già Senior Grantist del Progetto Individuale "Quantum Gravity: from Black Holes to Quantum Entanglement" ed attualmente responsabile del Progetto Individuale "The Double Copy Paradigm", ha di recente pubblicato, insieme al suo collega Leron Borsten (Schroedinger Fellow al DIAS di Dublino), un articolo dal titolo "A Kind of Magic" sulla prestigiosa rivista "Classical and Quantum Gravity".
In tale articolo, due sistemi numerici esotici, chiamati "tritonioni" (a metà strada tra i numeri complessi e i quaternioni) e "sestonioni" (a metà strada tra i quaternioni e gli ottonioni), trovano per la prima volta una applicazione fisica: essi permettono di descrivere le simmetrie di alcune teorie di gravità derivanti da compattificazioni della cosiddetta M-teoria, la teoria di gravità quantistica più accreditata, che unifica a livello non-perturbativo, in 11 dimensioni spazio-temporali, le varie teorie di superstringa definite in 10 dimensioni.
Per leggere l’articolo scientifico clicca qui.
Per leggere l’articolo divulgativo clicca qui.