Loading...
L’articolo pubblicato in Nature Physics, Donadi, S., Piscicchia, K., Curceanu, C. et al. Underground test of gravity-related wave function collapse. Nat. Phys. (2020). https://doi.org/10.1038/s41567-020-1008-4, che presenta un nuovo record nello studio del modello di collasso della funzione d'onda indotto dalla gravità, proposto da Lajos Diósi e Roger Penrose (modello DP) per risolvere il famoso problema della misura, ottenuto con una ricerca sperimentale che ha visto il ricercatore del CREF Kristian Piscicchia come responsabile dell’analisi dei dati, ha ottenuto un gratificante primato: e’ stato selezionato nella lista Top 10 al livello mondiale delle ricerche scientifiche in tutti i campi da due prestigiosi siti:

  • Our favorite science news stories of 2020 (nonCOVID-19 edition) da:


Science - sciencemag.org (dove la ricerca e’ al  numero 2 subito dopo una ricerca sui virus):
https://www.sciencemag.org/news/2020/12/our-favorite-science-news-stories-2020-non-covid-19-edition

  • Les 10 articles que vous avez préférés en 2020, da puorlascience.org (Les 10 articles que vous avez prfrs en 2020) dove la ricerca e’ al numero 9:


https://www.pourlascience.fr/sr/actualites/les-10-articles-que-vous-avez-preferes-en-2020-20609.php
Questo dimostra ancora una volta quanto questo tipo di ricerche, sulle fondamenta della teoria quantistica, siano attuali e di grande interesse non soltanto in fisica, ma in tutti i campi della scienza.
La collaborazione VIP, della quale il ricercatore CREF Kristian Piscicchia è anche responsabile INFN, sta attualmente procedendo ad un upgrade dell’apparato sperimentale e sta sviluppando più sofisticati modelli di analisi statistica, nonché collaborando con i teorici, fra i quali anche il recente premio Nobel Sir Roger Penrose, ad ulteriori refinements di modelli nei quali la teoria quantistica e la gravità si intrecciano nell’ambito dei modelli di collasso.
Ormai tutti noi usiamo quotidianamente Google, ma quale è l’idea alla base del suo successo? Google è un motore di ricerca creato nel 1998 da Larry Page e Sergey Brin, allora studenti della Stanford University, che seppero mettere a punto un algoritmo in grado di rendere accessibile la mole immensa di informazioni che il web contiene per tutti coloro che lo avessero desiderato.
L’idea alla base di Google è quella di classificare l’attendibilità di una pagina web non in base al suo contenuto (fare un’analisi di questo tipo comporterebbe un dispendio enorme di risorse e la sua efficacia sarebbe dubbia essendo questa soggetta ad influenze e giudizi personali), bensì attraverso un’analisi del network delle pagine web preso nel suo complesso.
Cerchiamo di essere più chiari: ad ogni pagina web, viene associato in maniera iterativa un rango, cioè “un’importanza relativa”, in base al rango delle pagine che rimandano a questa tramite link, pesate sul numero di link uscenti da ciascuna di esse. Tale algoritmo è chiamato Page Rank.
Come abbiamo visto, l’idea alla base dell’algoritmo di Google è abbastanza semplice, sfruttare la struttura della rete di Internet per classificare le pagine web, ma, naturalmente, la sua implementazione presenta numerosi ostacoli da superare.
Primo su tutti, la mole immensa di pagine web da classificare: una mole, tra l’altro, perennemente in crescita. Proprio a fronte della necessità di trattare numeri molto grandi, l’algoritmo deve necessariamente scalare molto bene al crescere della quantità di materiale da analizzare: alcuni studi hanno provato che questo converge con poco più di 52 iterazioni, un risultato sorprendente a fronte dell’arduo compito da assolvere.
In maniera analoga a Page Rank, l'algoritmo Economic Fitness, sviluppato negli ultimi anni da Luciano Pietronero e il suo team, permette, tra le altre cose, di prevedere la crescita delle nazioni, analizzando solo la struttura del network bipartito nazioni-prodotti.
Qualche giorno Roberto Benzi ha preso parte ad un seminario nel quale ha spiegato le origini della risonanza stocastica e il perché questo fenomeno sia collegato, in qualche modo, al cambiamento climatico. Si tratta di un ciclo di conferenze, iniziate con i modelli caotici di Michael Ghil e chiuso con la stochastic resonance, per analizzare le prospettive future delle scienze climatiche.
Roberto Benzi è intervenuto per presentare la risonanza stocastica. Il meccanismo di risonanza stocastica, infatti, è stato introdotto circa quaranta anni fa da Roberto Benzi, Giorgio Parisi, Alfonso Sutera e Angelo Vulpiani. È un meccanismo generale e intuitivo che ha trovato applicazioni in migliaia di sistemi fisici diversi.
Analizzando la variazione di temperatura della Terra in relazione al movimento di rivoluzione intorno al Sole, ci si accorse che gli sbalzi di temperatura durante le ere glaciali erano fortemente correlati alla distanza della Terra dal Sole. Ma, in qualche modo, l’aumento o abbassamento della temperatura possono essere spiegati solo in parte dalla lontananza dal Sole, perché per altre frazioni si osservano dei cambiamenti non corrispondenti proporzionalmente all’effettiva distanza Terra-Sole.
La motivazione di questa eccezionalità è spiegata dalla risonanza stocastica. La cosiddetta risonanza stocastica (RS) è, propriamente, un fenomeno statistico recentemente studiato in un'ampia gamma di sistemi fisici non lineari.
Il clima è uno dei sistemi più complessi in natura ed il suo studio rappresenta una delle più dure sfide concettuali e tecnologiche in atto. L’aumentare dei dati climatici a disposizione ed il miglioramento dei modelli numerici di simulazione richiedono, in parallelo, lo sviluppo di concetti base, di modelli, che permettano la comprensione dei fenomeni osservati e simulati, come quello elaborato da Benzi e i suoi colleghi.
Ecco il video in cui Roberto Benzi racconta la sua esperienza di ricerca con la risonanza stocastica e il cambiamento climatico.
https://www.youtube.com/watch?v=ifuSJrE_bfE&feature=youtu.be
Complimenti al prof. Andrea Gabrielli ed al dott. Francesco Sylos Labini che nel corso del Consiglio di amministrazione del 18 dicembre scorso sono stati nominati componenti del Comitato permanente paritetico di cui all’art.3 della Convenzione quadro relativa al progetto Extreme-Energy Events stipulata tra il CREF e l’INFN.
Valutare i progetti del Recovery Fund è un’impresa intrinsecamente difficile. Per garantire la maggiore oggettività nella considerazione dei progetti sono necessari nuovi strumenti, che scongiurino la possibilità di un’analisi settoriale e aprano, invece, ad una valutazione complessiva dei programmi del Recovery Fund.
È un bene che siano previsti dei piani d’investimento per la ricerca, ma è fondamentale che la ricerca finanziata sia connessa allo sviluppo economico. Questo è il messaggio dell’articolo di Luciano Pietronero, Presidente del CREF, comparso ieri sul Sole 24 Ore.
“La ricerca scientifica è il motore essenziale dell'economia della conoscenza basata sul capitale umano che va opportunamente valorizzato e non esportato ma attratto. Per produrre anche una crescita economica sono però necessari almeno altri due elementi. Il primo è un trasferimento tecnologico efficace e la diffusione del know how. Il secondo è una generale efficienza del governo e del mercato che concorrano all'innovazione tecnologica e allo sviluppo delle aziende nella fase iniziale”, ha scritto Pietronero.
Per poter valutare secondo queste due prospettive i progetti del Recovery Fund, singolarmente e nel loro insieme, è possibile adottare il metodo della Fitness Economica, che consente di valutare a priori il potenziale contributo che ogni programma offre alla competitività generale del Paese, indagando l’attuale situazione e le possibili traiettorie di sviluppo della stessa.
Come ha aggiunto Pietronero: “questo approccio scientifico non pretende di sostituirsi alla politica ma piuttosto di fornire una informazione consapevole al decisore politico. Infatti, non c'è una sola traiettoria possibile per lo sviluppo, ce ne sono varie. Per ognuna di esse possiamo definire le relative difficoltà ed opportunità. Spetta poi alla politica comporre una sintesi completa di tutti gli elementi del problema di cui questa analisi è un utile elemento”.
 
Circa un anno fa Luciano Pietronero è stato nominato Presidente del Centro Ricerche Enrico Fermi (CREF).
A distanza di un anno è arrivato il momento di incontrarci e fare un punto della situazione.
Sebbene l'anno scorso sia stato estremamente difficile per tutti noi, il corso delle cose è andato avanti e l'Istituto ha vissuto una sostanziale riorganizzazione dal punto di vista scientifico e amministrativo.
Il Presidente, nel giorno 21 dicembre 2020, illustrerà una panoramica dell'attuale situazione del Centro Ricerche Enrico Fermi e illustrerà le prospettive future dell'Istituto.
L’evento sarà trasmesso in diretta Zoom alle ore 17.00.
Link Zoom per la diretta, qui.
Meeting ID: 942 0607 5288
Passcode: 804480
Domani 16 Dicembre alle ore 22:15 su Focus TV, canale Mediaset n.35 del digitale terrestre, andrà in onda il documentario Nanuq, che racconta la spedizione scientifica e commemorativa Polarquest2018, ideata e condotta da Paola Catapano, a bordo della barca a vela eco-sostenibile Nanuq che ha navigato per 6 settimane verso il Polo Nord.
Con la regia di Emanuele Licitra e la produzione Addictive Ideas di Milano, il documentario è tutto girato nel territorio artico.
Tra le diverse attività di ricerca a bordo del Nanuq, l'esperimento PolarquEEEst ha effettuato delle misure sul flusso di raggi cosmici, che ogni secondo investe la nostra terra, per capirne le anomalie legate alle particolarità del campo geomagnetico terrestre influenzato dai poli e il legame con il cambiamento climatico.
Non perdere la prima messa in onda, domani, su Focus Tv!
 
Al contrario di quello che il senso comune ci potrebbe portare a pensare, in moltissime raccolte di dati, relative agli ambiti più vari ambiti più vari (dal mercato finanziario ai cataloghi sismici fino alla popolazione dei comuni italiani), non si osserva una distribuzione uniforme delle cifre da 1 a 9 nella prima cifra dei numeri, bensì una netta asimmetria in favore delle cifre più piccole. Tale fenomeno è descritto dalla legge di Benford.
 


























































Prima cifra Comuni %
1 2547 31,0
2 1391 16,9
3 1057 12,9
4 791 9,6
5 632 7,7
6 544 6,6
7 484 5,9
8 406 4,9
9 365 S,4
Totale 8217 100

 
Fu, infatti, proprio Benford che nel 1938, dopo aver raccolto in tabelle dati sui più svariati fenomeni naturali, dedusse la legge che ora prende il suo nome. Essa ha la seguente forma: P(n) = log[(n+1)/n]. Dove P(n) indica la probabilità che la prima cifra sia il numero n.
Ad esempio, se osserviamo il valore delle azioni nella borsa di Zurigo del 12 aprile 2020, ci rendiamo conto che il numero 1 appare come prima cifra circa il 32% delle volte; le occorrenze degli altri numeri decrescono seguendo la legge di Benford fino a far registrare una frequenza pari al 4.1% per il numero 9. Questo andamento, come mostrato in figura, si registra anche se andiamo a cambiare la valuta in cui sono espressi i prezzi delle azioni (rispettivamente Franchi Svizzeri, Real Brasiliani e Dong Vietnamiti); tale proprietà viene detta “invarianza di scala” e deriva dalla presenza di una distribuzione di probabilità a potenza sottostante.


 
La formula riportata in precedenza è, in realtà, una forma particolare della legge di Benford che si ottiene quando la distribuzione di probabilità è una legge a potenza con esponente pari a 1. Tale forma è molto comune nei fenomeni naturali: la motivazione risiede nel fatto che questa può essere ottenuta tramite un semplice processo moltiplicativo.
È anche interessante notare lo stretto rapporto sussistente tra la legge di Benford e quella di Zipf. Partendo, infatti, da dei numeri che seguono la prima è possibile ritrovare la seconda, ordinandoli dal più grande al più piccoli.
In conclusione, quindi, la legge di Benford è una legge che descrive molti processi aleatori osservabili in natura, e non solo; essa da, infatti, una soddisfacente interpretazione sul perché i numeri più piccoli abbiano un’occorrenza maggiore in molte raccolte di dati. È di notevole importanza anche il legame sussistente tra questa e la legge di Zipf.
 
L’attività cerebrale è basata principalmente sul metabolismo ossidativo. Per questa ragione, la misura del tasso di consumo metabolico di ossigeno (CMRO2) è un ottimo biomarker per la quantificazione dell’attività cerebrale e dello stato fisiologico dei tessuti, con potenziali applicazioni nella diagnosi precoce dei carcinomi, ictus, patologie neurologiche e neurodegenerative.
Esistono diversi metodi MRI per la misurazione di CMRO2, basati su diversi approcci tecnologici e caratteristiche fisiologiche. Si può citare, ad esempio, lo sfruttamento delle differenze di campo magnetico associate alle disomogeneità tissutali tra seno sagittale superiore o vene principali.
Davis e Hoge hanno introdotto a fine anni ’90 un altro gruppo di tecniche, basate su metodi di calibrazione del BOLD, che mirano a stimare il CMRO2 dai segnali BOLD e ASL (Arterial Spin Labeling), sfruttando task respiratori (ipercapnia e iperossia) e modelli matematici che descrivono la complessa relazione tra metabolismo dell’ossigeno, segnale BOLD e flusso sanguigno cerebrale (CBF).
Il CBF è un biomarker diretto per la funzione cerebrovascolare e la salute neurovascolare; la correlazione tra CBF, attività neuronale locale e metabolismo, noto come accoppiamento neurovascolare, è, inoltre, un marker surrogato della funzione cerebrale.