Loading...
Uno dei problemi cruciali per la teoria della formazione delle galassie è spiegare il paradosso della cuspide: mentre le simulazioni dei modelli teorici danno luogo a un profilo di densità divergente a una piccola distanza (1 / r) dal centro, osservazioni di profili di galassie mostrano che questi sono costanti.
Per comprendere l'origine di questi profili è necessario conoscere le proprietà fondamentali degli stati di quasi-equilibrio dei sistemi gravitazionali e in particolare che tipo di percorso dinamico hanno seguito durante la loro formazione. Abbiamo scoperto che, a seconda delle condizioni iniziali, questi stati stazionari possono presentare un profilo divergente su piccola scala o un profilo piatto. Questa differenza corrisponde a una diversa natura dinamica alla base della loro origine.
Tornando alle galassie, i profili indicano che la dinamica che ha dato loro origine è un tipo violento di rilassamento. Cioè, un processo dinamico diverso da quello "standard" dei modelli di materia oscura fredda.
I sistemi auto-gravitanti inizialmente molto fuori equilibrio formano, attraverso una dinamica di rilassamento senza collisioni, stati quasi stazionari (QSS). Le loro proprietà di quasi equilibrio sono ben descritte dall'equazione di Jeans e non sono universali, cioè dipendono dalle condizioni iniziali. Per comprendere l'origine di tale dipendenza, presentiamo i risultati di esperimenti numerici di sistemi inizialmente freddi e sferici caratterizzati da varie scelte dello spettro delle fluttuazioni di densità iniziali.
L'ampiezza di tali fluttuazioni determina se il sistema si rilassa dall'alto verso il basso o dal basso verso l'alto. Troviamo che le proprietà statistiche del QSS risultante dipendono principalmente dalla quantità di energia scambiata durante il processo di formazione. In particolare, nei violenti collassi top-down lo scambio di energia è ampio e il QSS mostra un nucleo interno con un profilo di densità quasi piatto e una distribuzione di velocità quasi Maxwell-Boltzmann (isotropica), mentre le loro regioni esterne mostrano un profilo di densità ρ (r) ∝ r ^ (- α) (α> 0) con orbite radialmente allungate.

Durante la crisi del COVID-19 abbiamo assistito all’ennesima conferma di quanto le informazioni e le tecnologie dell’informazione (Internet, social media, etc) siano cruciali nella vita di un paese. In particolare, nei paesi con alti livelli di democrazia, dove la classe politica è fortemente legata alle opinioni della popolazione, le informazioni fruite dalle persone sono la sorgente da cui scaturiscono molti comportamenti di massa, nonché la selezione della classe politica stessa. Tuttavia, se le tecnologie dell’informazione hanno radicalmente cambiato le dinamiche secondo cui storicamente avvenivano questi meccanismi, hanno anche aperto questo processo a nuove influenze e nuove fenomenologie. È del tutto evidente come nell’ultimo secolo i conflitti tra stati, che prima si svolgevano principalmente sul piano militare, si siano trasferiti prevalentemente sul piano economico. Esempio recente e lampante ne è la guerra commerciale tra Stati Uniti e Cina, parte in realtà di una conflittualità di più ampio respiro per l’egemonia economica mondiale.


Se la competizione sul piano economico è evidente, un altro fondamentale piano di conflitto ancora nell’ombra è quello dell’informazione. Le tecnologie dell’informazione che, nei paesi democratici, hanno raggiunto livelli altissimi di penetrazione, rappresentano i nuovi campi di battaglia dei conflitti mondiali. Gli scontri non sono più tra eserciti, bensì tra narrative. Sono molti i casi documentati di tentativi di influenza della vita democratica durante momenti cruciali e delicati, come nel caso della Brexit o delle elezioni americane del 2020 o dell’hastag impeachement contro Mattarella. Sarebbe tuttavia superficiale ridurre l’impatto dei social media sul discorso politico ai tentativi di influenze esterne (che in effetti, sono sempre esistiti dacché esiste la propaganda, ma con altre forme).


Ma la rapidità e la capacità di interconnessione dei nuovi mezzi, i nuovi strumenti tecnologici per la creazione di contenuti e le nuove piattaforme hanno creato una vasta pletora di fenomeni nuovi e modificato la dinamica di fenomeni storicamente noti, anche senza l’intervento di influenze esterne. Ad esempio, l’inedita interazione del Confirmation Bias con la gargantuesca disponibilità di contenuti e risorse resa possibile dalle varie piattaforme, è uno dei fenomeni dietro il sorgere delle cosiddette Echo Chamber. Altro fenomeno di interesse è l’utilizzo dei bot per “dopare” la visibilità di un profilo o la diffusione di alcune notizie a scopi commerciali. Oppure l’esplosione degli hate speech e dei fenomeni di trolling, legati alla crisi della fiducia da parte degli utenti dei social media. Dalla comune indagine su queste nuove problematiche è nata la collaborazione tra il CREF e Sony CSL di Parigi.


La direttiva principale consiste in un approccio tattico di studio frontale delle fenomenologie critiche quali ad esempio: la misinformation e, in particolare, la diffusione delle fake news; la creazione e la dissoluzione delle Echo Chamber, e più in generale i fenomeni di polarizzazione delle opinioni; gli hate speech e il trolling; l’utilizzo di bot sui social network; la competizione tra narrative contrastanti; gli squilibri informativi, ovvero la sovrabbondanza di informazione su alcuni temi in contrapposizione alla carenza di informazioni in altri. Tali argomenti di ricerca stanno attirando, negli ultimi anni, un crescente interesse sia da parte della comunità scientifica che da parte delle istituzioni, che ne hanno compreso l’importanza cruciale per la tenuta democratica e per la salute del discorso pubblico.


Lo studio di tali questioni sarà affrontato grazie all’avanzamento scientifico delle tecniche di modellizzazione delle Dinamiche di Opinione, della Teoria delle Reti, del Machine Learning e, in generale, dell’armamentario tecnico della Data Science. Da questi presupposti nasce la collaborazione tra il CREF e il Sony CSL di Parigi: i due enti mirano a migliorare il discorso pubblico attraverso lo studio delle condizioni in cui questo avviene e attraverso la proposta di nuovi strumenti per evitare i circoli viziosi e potenziare i comportamenti virtuosi. I soggetti di studio saranno da un lato gli algoritmi di selezione e filtraggio delle risorse sui social media (i cosiddetti sistemi di raccomandazione) e il loro impatto sulle dinamiche di esplorazione e di formazione delle opinioni. Tali sistemi sono stati spesso collegati alla creazione delle Echochambers per via della loro spinta verso le preferenze espresse nel passato dagli utenti. L’obiettivo strategico sarà quindi di verificare tale effetto e sviluppare nuovi sistemi in grado di aiutare l’utente nell’esplorazione di nuovi contenuti senza tuttavia rendere l’esperienza meno piacevole, giocando quindi al confine della cosiddetta Comfort Zone.


Dall’altro la ricerca indagherà i sistemi di reputazione per migliorare le dinamiche della fiducia nelle fonti di informazione. Paradossalmente, abbiamo informazioni aggregate ed organizzate in recensioni e valutazioni su quasi qualsiasi tipo di contenuto disponibile in rete (film, musica, ecc.) ma non sulle sorgenti di informazioni stesse. L’obiettivo strategico consiste nello studio di tali sistemi di reputazione e nell’introduzione sperimentale di tali sistemi, opportunamente adattati, nell’ambito delle fonti di informazioni. I sistemi di aggregazione delle valutazioni infatti andranno necessariamente adattati per compensare gli effetti dovuti alle Echo-Chambers, evitando che ogni “tifoseria” validi la propria fonte di fiducia, attraverso l’attribuzione di un peso privilegiato alla trasversalità delle valutazioni.

Quest’anno il Premio Nobel per la Fisica è stato assegnato a Roger Penrose. Matematico, fisico e cosmologo britannico, nato nel 1931, è noto per avere dato diversi contributi alla cosmologia dal punto di vista fisico-matematico. Dalla teoria della Cosmologia Ciclica Conforme alla teoria del reticolo di spin, dai problemi di meccanica quantistica sviluppati con Hawking a quelli che verranno ricordati come i diagrammi di Penrose, il suo contributo allo sviluppo della scienza è stato notevole.
Alcune sue concezioni fisiche richiamano dei celebri modelli della filosofia naturale del passato, tanto che il suo amico, Stepehn Hawking, lo definì un “platonico”. In realtà è molto interessante la posizione di Penrose riguardo ad alcune questioni particolari come il concetto di “anima”. Penrose è ateo ma ritiene possibile giudicare la coscienza quantica di ogni individuo indipendente dal corpo e, dunque, ipotizzare che essa sopravviva dopo la morte corporea in un eventuale multiverso.
Penrose ha dedicato tutta la sua vita allo studio e alla ricerca; così sulla soglia dei novanta anni ha ricevuto il riconoscimento più prestigioso fra tutti come primo vincitore, ritirando il 50% del premio e lasciando il restante a Reinhard Genzel e Andrea Ghez. La vittoria di Penrose è stata determinata dal fatto di “aver scoperto che la formazione dei buchi neri è una robusta previsione della teoria generale della relatività”.
Lo studio dei buchi neri e della teoria generale della relatività è stato sempre uno degli ambiti di ricerca più cari a Penrose. Tant’è vero che negli ultimi anni ha partecipato alla pubblicazione di tre articoli scientifici riguardo al progetto LARES, una ricerca che nasce dalla collaborazione tra ASI, Agenzia Italiana Spaziale, e NASA. In questo progetto due satelliti, LARES e LAGEOS, sono stati messi in orbita per fare delle misurazioni attraverso cui apportare dei miglioramenti all’effetto di trascinamento della teoria generale della relatività. Oltre a Penrose, anche un ricercatore italiano, associato al CREF, Ignazio Ciufolini, ha contribuito ai tre articoli scientifici.
Per leggere i tre articoli scientifici ed approfondire apri i seguenti documenti:

 

 

La scienza della complessità è un’area scientifica che è in qualche modo complementare alla fisica delle particelle elementari, basata su un approccio “riduzionistico”. L’approccio tradizionale della fisica è infatti di considerare sistemi relativamente semplici e isolati e studiarli in grande dettaglio. Si considerano quindi i “mattoni” elementari che sono gli elementi costituenti della materia. Questa visione riduzionistica si può applicare con successo a molte situazioni ed implica l’esistenza di scale caratteristiche: la grandezza di un atomo, di una molecola o di un oggetto macroscopico. Ci sono però molte situazioni in cui la conoscenza degli elementi individuali non è sufficiente a caratterizzare le proprietà dell’intero sistema.


Quando, infatti, molti elementi interagiscono in modo non lineare possono dare luogo a strutture e proprietà complesse che non possono essere connesse direttamente alle proprietà degli elementi costituenti. In questi casi possiamo pensare ad una sorta di “architettura” della natura, che dipende in qualche modo dagli elementi individuali ma, inoltre, manifesta delle proprietà e delle leggi fondamentali che non possono essere dedotte dalla conoscenza degli elementi microscopici che la compongono.


“Sistemi tecno-sociali” è la locuzione usata correntemente per identificare sistemi socioeconomici in cui la tecnologia si fonde in maniera originale ed imprevedibile con aspetti cognitivi, comportamentali e sociali propri degli esseri umani. Le nuove tecnologie della comunicazione e dell’informazione (ICT) svolgono un ruolo sempre più pervasivo per la nostra cultura e la nostra quotidianità. Questa rivoluzione non giunge evidentemente senza controindicazioni e nelle nostre società complesse emergono costantemente delle sfide globali che richiedono costantemente nuovi paradigmi e un pensiero originale per essere affrontate.


Ict, meccanica, chimica e farmaceutica: il poker di industrie che ha battuto la crisi - Il Sole 24 ORE


Negli ultimi anni, quindi, la teoria della complessità ha mostrato di poter giocare un ruolo rilevante per la comprensione delle dinamiche sociali ed economiche. Riteniamo, però, che questo sia solo un inizio e che questo campo si svilupperà in modo poderoso in una nuova ed affascinante avventura scientifica con caratteristiche transdisciplinari radicalmente nuove e difficilmente inquadrabili nei contesti tradizionali. Per questo è necessario un punto di riferimento specifico e con competenze e caratteristiche adatte alla nuova situazione. Si aprono dunque prospettive, fino a pochi anni fa inimmaginabili, che mescolano in modo sapiente diverse discipline e fattori. Da un lato possiamo considerare gli strumenti teorici e di modellizzazione propri della fisica dei sistemi complessi connessi alla capacità di analizzare, interpretare e visualizzare complesse moli di dati in modo originale. Dall’altro la vera essenza dei sistemi tecno-sociali fornisce una opportunità unica di sfruttare le nuove tecnologie ICT per monitorare e quantificare le tracce digitali dei comportamenti umani e dei fenomeni collettivi sociali ed economici con una risoluzione senza precedenti.


Questa situazione comporta anche una originale sinergia tra discipline scientifiche ed umanistiche che si pone l’obiettivo di produrre risultati concreti e di diretta utilità. L’Italia può giocare un ruolo importante in questi sviluppi per varie ragioni. La prima riguarda il fatto che sul nostro territorio la scienza dei sistemi complessi è ben presente e ampiamente riconosciuta. Poi bisogna riconoscere gli elementi di creatività ed originalità associati a questi sviluppi sono anche uno dei nostri punti di forza. Infine, queste attività non necessitano di infrastrutture particolarmente onerose e possono dar luogo ad importanti risultati sia scientifici che pratici in tempi relativamente brevi. Per tutte queste ragioni il CREF s’inserisce in prima linea nello studio della scienza della complessità e s’impegna ad applicare le teorie derivanti da questa disciplina all’indagine della realtà sociale ed economica.


Per approfondire clicca qui.

Il nostro ambiente e le nostre società sono chiaramente in pericolo e stanno subendo importanti trasformazioni strutturali, in particolare attraverso il cambiamento climatico, la globalizzazione e la digitalizzazione. In questo quadro, la crisi ancora in corso legata al COVID-19 non ha fatto altro che rendere ancora più urgenti e pressanti le istanze legate ai Goal dello Sviluppo Sostenibile (SGDs). Sebbene le vie d’uscita dall’attuale situazione non siano ancora visibili, è chiaro che la crisi che stiamo vivendo ha il potenziale per cambiare in maniera profonda le nostre abitudini e la nostra vita.
In quest’ottica diventa sempre più importante la ricerca e lo studio di nuove soluzioni per avviare uno sviluppo sostenibile. Il progetto del CREF si concentrerà sull’agenda globale dell’innovazione, puntando ad incidere in questo modo su diversi settori legati agli Obiettivi di Sviluppo Sostenibile. In particolare, a causa del crescente livello di urbanizzazione a livello globale, molti SDG sono destinati ad affrontare le questioni relative agli spazi urbani per migliorare l’accessibilità e la mobilità, ottimizzare la logistica e la gestione dei rifiuti, migliorare l’inclusione, promuovere una transizione verde.
Il team del CREF seguendo un approccio data-driven sostenuto dall’intelligenza artificiale sta studiando nuove soluzioni rendere le città più sostenibili e funzionali. L’urbanizzazione è una tendenza irreversibile nelle dinamiche demografiche globali. Il World Economic Forum (WEF) prevede che entro il 2050 il 68% della popolazione mondiale vivrà in città. Le città oggi stanno subendo cambiamenti significativi che richiedono un pensiero informato e strategico per raggiungere gli SDG. I fenomeni urbani (ad esempio, l’esclusione sociale e la gentrificazione, la mobilità e l’accessibilità, la gestione degli eventi pubblici, il recupero dopo i disastri naturali, la riprogettazione e la pianificazione dei confini delle città e delle aree funzionali) agiscono tutti a scale spaziali e temporali molto diverse.
La risposta alle sfide della sostenibilità urbana può venire solo da un approccio coordinato e multidisciplinare che operi a scale spaziali e temporali molto diverse. Dalla scala temporale breve del presente al pensiero strategico a lungo termine. Dalle micro scale di intervento a terra (sistemi di trasporto, logistica, ecc.) alla grande scala delle caratteristiche più complesse (inclusione, gentrificazione, vocazione di aree specifiche).
Le tecnologie quantistiche sono indubbiamente uno dei campi di maggiore interesse strategico al mondo. Ne sono testimoni gli enormi investimenti da parte degli Stati Uniti, della Cina e della comunità Europea, oltre al coinvolgimento di grandi realtà industriali come IBM e Google. Esistono numerosi problemi aperti legati alle tecnologie quantistiche, sia da un punto di vista fondamentale che applicativo. Nonostante un numero crescente di ricercatori e una comunità sempre più attiva, queste ricerche non hanno ancora raggiunto il grado di maturazione per avere un impatto concreto nella società o per cambiare in maniera radicale i paradigmi della scienza fisica moderna.
IBM al CES 2019 con il primo computer quantistico commerciale
I computer quantistici sono così importanti perché i calcolatori tradizionali non sono più in grado di elaborare l’enorme mole di dati di cui si può disporre oggi. Al classico bit si è sostituito il quantum bit, applicando le leggi della meccanica quantistica all’analisi delle informazioni. Sono nati così degli approcci data-driven attraverso cui si possono analizzare enormi quantità di dati e risolvere, seguendo una prospettiva scientifica, problemi di interesse sociale legati all’economia o all’ottimizzazione dei sistemi complessi.
 
Il Centro di Ricerca Enrico Fermi, nel prossimo piano triennale, s’impegnerà in una collaborazione con l’Università La Sapienza volta alla creazione e all’utilizzo di nuovi calcolatori ibridi classici/tradizionali. Del resto, l’illustre fisico da cui prende il nome il Centro di Ricerca fu uno dei pionieri per quanto riguarda la realizzazione e l’utilizzo di macchine calcolatrici. Oggi il CREF si pone la stessa sfida: perseguire lo sviluppo di macchine computazionali ibride che utilizzino sistemi quantistici fotonici per l’accelerazione della computazione, ma che forniscano il risultato del calcolo in una forma classica robusta, che non sia soggetta a decoerenza e, quindi, sia immediatamente interfacciabile con calcolatori tradizionali. Tutto questo avverrà arricchendo le fasi di sperimentazione ed analisi con l’intelligenza artificiale, pronta ad orientare ricercatori e decisori nella direzione più promettente.
Scopri di più cliccando sul link del nostro piano triennale:
 

 





This work represents a development of the study of the collapses of purely self-gravitating systems (see https://physics.aps.org/articles/v12/s19) to the case in which a dissipational gas component is also present. These latter systems show much richer morphological and kinematical structures that may have important observational implications to understand the kinematic and dynamics of the Milky Way as revealed by ongoing surveys such as the Gaia Mission.




 by Francesco Sylos Labini, Luis Diego Pinto, Roberto Capuzzo-Dolcetta 

Il metodo della Fitness economica è un buon modello per affrontare le sfide della complessità poste dalla pandemia da Covid19”. Lo sostiene il presidente del CNEL, Tiziano Treu, come metodo per l’individuazione dei progetti che l'Italia dovrà presentare per accedere alle risorse del Recovery Fund. "Il metodo della Fitness economica è riconosciuto a livello mondiale e in questo momento sarebbe particolarmente importante per lo sviluppo locale. Si tratta di una valutazione economica basata su dati oggettivi molto sofisticata che alla base ha l'idea di guardare alle capacità e alle attitudini che caratterizzano i diversi territori", continua Treu. "Molti dei progetti per il Recovery fund saranno di sviluppo locale e quindi dovranno essere molto precisi. Spesso siamo accusati di fare cose generiche; con questo metodo non ricadremmo in tale errore".


Secondo il presidente del CNEL, i Comuni italiani si sono dimostrati capaci di investire e di spendere bene i fondi e con il metodo della Fitness economica potrebbero potenziare lo sviluppo locale. Il Cnel vorrebbe testare il sistema in territori 'difficili' come la Sicilia orientale, il Lazio meridionale e l'area di Marghera. “La Fitness economica per l’approccio ai sistemi complessi ha funzionato in altre aree del mondo e ha avuto una valutazione positiva della Banca mondiale. Sarebbe un bene adottare il metodo ora che l'Europa ci chiede di essere concreti” aggiunge.


Il metodo EFC (Economic Fitness and Complexity) è presentato nell’ultimo numero dei “Quaderni del CNEL” dal titolo “La fitness economica dell'Italia e delle sue regioni: competitività e opportunità” dai suoi stessi autori, il prof. Luciano Pietronero, Andrea Gabrielli, Andrea Napoletano, Andrea Tacchella e Andrea Zaccaria e rappresenta un approccio radicalmente nuovo per l'analisi strategica della competitività industriale dei paesi e delle regioni ed è basato su elementi scientifici e testabili; implica un nuovo approccio al problema dei Big Data ispirato ai concetti e metodi della fisica Statistica e della Scienza della complessità.


Secondo gli economisti, al tempo del Covid-19 è necessario reinventare le teorie e le pratiche economiche. I tragici eventi dovuti al virus hanno portato ad una situazione in cui "l'intervento dei governi sarà inevitabilmente protagonista della ricostruzione socio-economica" quindi è necessario "un cambio di paradigma in cui si parte da una dettagliata analisi della situazione e si considerano le possibili traiettorie per il suo sviluppo".


Gli studiosi ritengono che il Covid-19 implichi "un ripensamento del nostro stile di vita" e rappresenti anche "una opportunità per migliorare le proprietà di resilienza. Questa nuova situazione mostra infatti l'importanza di valori comuni che vanno oltre quelli di efficienza e di competizione. Anche tutte le altre problematiche che necessitano cooperazione come la sostenibilità, il green deal, le disuguaglianze, il clima e la perdita di biodiversità appaiono ora molto più attuali, anche se le proposte concrete per questi problemi sono spesso controverse". In particolare, il "Quaderno del Cnel" indica che per l'Italia "c'è una particolare opportunità di sviluppo del settore IT" e quindi "si dovrebbe organizzare una strategia per cogliere al meglio questa opportunità".


Il nuovo approccio si concretizza in una analisi innovativa ed interdisciplinare basata su dati e metodi scientifici moderni dell'area dei Sistemi Complessi (networks, algoritmi, Machine Learning etc.) per definire oggettivamente lo stato di una economia e i suoi possibili sviluppi. L'obiettivo della Fitness per la Complessità Economica è individuare gli interventi economici appropriati per un determinato paese, un settore industriale ed un dato periodo. "La ripresa economica dal Covid-19 - sostengono gli autori della ricerca - può essere ottimizzata con queste metodologie che possono fornire delle analisi scientifiche e consapevoli e trasparenti per il decisore politico e per la società in generale"


Scarica il Quaderno CNEL “La fitness economica dell'Italia e delle sue regioni”

La rivista scientifica Nature Physics pubblica oggi, 7 settembre, uno studio congiunto, teorico e sperimentale, realizzato da un team a cui partecipano ricercatori del Centro Ricerche Enrico Fermi, dell’Istituto Nazionale di Fisica Nucleare e dell’Università di Trieste.
La pubblicazione, “Underground test of gravity-related wave function collapse”, presenta i risultati di una ricerca dedicata alla verifica del modello di collasso quantistico proposto da Lajos Diósi e Roger Penrose (modello DP) negli anni ‘80-’90 ed è stata condotta, per la fase di misure, con un rilevatore a germanio ultra-puro nei Laboratori Nazionali del Gran Sasso dell'INFN, mentre l’analisi teorica è stata coordinata dall’Università degli Studi di Trieste. Il limite sul segnale rivelato dall’esperimento in due mesi di misure è mille volte più basso di quanto previsto dalla teoria DP, risultato che porta ad affermare che il modello, nella sua formulazione originale, è da escludere.
La Meccanica Quantistica è la teoria che descrive il mondo microscopico delle particelle e degli atomi. La caratteristica fondamentale dei sistemi quantistici, ampiamente verificata sperimentalmente, è la possibilità di vivere nella sovrapposizione di stati differenti, come “qui” e “là”. Questa strana proprietà, evidentemente, non si osserva alla nostra scala macroscopica, ma il motivo per cui ciò accade, il cosiddetto “problema della misura”, è ancora da capire ed è oggetto di intense ricerche che hanno ricadute anche nel campo delle tecnologie quantistiche.
Il fisico Roger Penrose propone che la soluzione al dilemma sia legata alla gravità. In particolare, il suo modello prevede che una sovrapposizione spaziale quantistica diventi instabile e decada, per effetto della gravità, in un tempo che Penrose stima essere tanto più breve quanto più l’oggetto è massiccio. La dipendenza della velocità del collasso dalla massa dell’oggetto spiegherebbe perché non osserviamo mai stati macroscopici in sovrapposizione: semplicemente la sovrapposizione collassa quasi istantaneamente in uno dei possibili stati.
Il punto importante in relazione alla ricerca pubblicata su Nature Physics, è che il collasso, nel far decadere le sovrapposizioni, genera un moto casuale – un tremolio di fondo che dovrebbe accompagnare il moto di tutte le particelle di materia – che nel caso di elettroni e protoni si accompagna all’emissione di una caratteristica, seppur debole, radiazione elettromagnetica.
Il team di ricerca, che vede un’importante partecipazione italiana, è andato alla caccia di questa radiazione, con uno sforzo congiunto teorico e sperimentale. Si tratta del primo esperimento potenzialmente in grado di rilevare il debole segnale elettromagnetico previsto dal modello DP. Dopo due mesi di presa dati ed un intenso lavoro teorico, l’esperimento ha potuto concludere che il segnale rivelato è mille volte più basso di quanto previsto dal modello DP. La misura stabilisce quindi un record in questo tipo di studi e, soprattutto, per la prima volta, esclude la teoria di Penrose nella sua formulazione originale, decenni dopo la sua proposta. Il team intende lavorare su modelli più sofisticati, aprendo dunque un nuovo campo di ricerca nello studio fra la gravità e la meccanica quantistica.
Il team
Il gruppo teorico composto da A. Bassi dell'Università di Trieste, L. Diósi del Wigner Research Center di Budapest e S. Donadi del Frankfurt Institute for Advanced Studies, ha calcolato il tasso aspettato di emissione della radiazione DP. Il gruppo sperimentale composto da C. Curceanu, M. Laubenstein dell'INFN e K. Piscicchia del Centro Ricerche Enrico Fermi ha eseguito una misura dedicata di questa radiazione in condizioni di rumore di fondo ultra-basso nel Laboratorio Nazionale sotterraneo del Gran Sasso dell'INFN.
link articolo

Still from interactive video installation, courtesy of camerAnebbia