Loading...

Complimenti agli studenti che hanno ottenuto le borse di dottorato finanziate dal CREF.





Giordano De Marzo e Matteo Straccamore hanno vinto il concorso presso La Sapienza Universita' di Roma - Dipartimento di Fisica.





Antonio Desiderio e Lavinia Rossi Mori vinto il concorso presso il Dipartimento di Fisica Università degli Studi di Roma "Tor Vergata".




In bocca al lupo per questa nuova esperienza.




Benvenuti al CREF!

La Terapia con Particelle (PT), o Adroterapia, è una tecnica oncologica per il trattamento dei tumori solidi altamente localizzati che sfrutta fasci terapeutici. La completa caratterizzazione dello spettro di emissione dei prodotti secondari ha un duplice interesse: la produzione di particelle secondarie deve essere studiata, con precisione per consentire al sistema di pianificazione del trattamento (Treatment Planning System - TPS) di tenere in considerazione la dose addizionale ad essi legata, spesso non trascurabile, specialmente con fasci terapeutici di ioni.
I prodotti di frammentazione secondari però possono anche essere sfruttati per monitorare, possibilmente online, il trattamento e verificando la conformità della dose assorbita con quella ottimizzata dal TPS. Il Dose Profiler è un rivelatore tracciante per particelle secondarie cariche dedicato al controllo della dose somministrata al paziente. Attualmente è in sperimentazione al CNAO (Centro Nazionale Adroterapia Oncologica, Pavia) attraverso un clinical trial che vede coinvolti 40 pazienti oncologici trattati con fasci di protoni e ioni carbonio.
Contrariamente ai prodotti di frammentazione carichi per i quali in questi anni si sono fatte intense campagne di misura e i modelli nucleari hanno potuto allinearsi con le misure sperimentali, la conoscenza della produzione di neutroni secondari è ancora molto approssimativa. Allo stesso tempo però la dose addizionale veicolata dai neutroni è particolarmente dannosa poiché responsabile di rilasci di energia anche in zone lontane dal volume irraggiato (in- and out- of field).
Il rivelatore MONDO è un tracciatore a fibre scintillanti, ad oggi in costruzione dedicato alla caratterizzazione (in termini di energia e direzione) dei neutroni secondari prodotti in PT. Il primo sensore al silicio – SBAM1 - che permette di leggere fibre scintillanti con un readout compatto è stato realizzato nel 2019 ed è ora in fase di test. Nei prossimi tre anni al Cref verrà portato avanti un progetto individuale finalizzato allo studio della tecnica dell’Adroterapia.
Nel luglio del 1938 cominciò la campagna antisemita in Italia. Il regime fascista, dopo la pubblicazione del manifesto della razza, a settembre aveva annunciato l’istituzione delle leggi razziali. Per Enrico Fermi diventava impossibile continuare a vivere in Italia. Da un lato per la salute della sua famiglia, sua moglie, Laura Capon era di origine ebraica, dall’altra per gli ostacoli che, ripetutamente, venivano presentati ai suoi lavori negli ultimi tempi.
Più o meno nello stesso periodo erano morti Corbino e Marconi, Fermi era, così, entrato in una sorta di isolamento scientifico incentivato dal regime. Qualche tempo prima Enrico Fermi era stato ospitato nei laboratori di Berkley e rimase affascinando dall’attrezzatura di cui disponevano gli scienziati. Invidiava la libertà nella quale venivano svolti i progetti scientifici.
Quando il 10 novembre arrivò la notizia che all’età di soli 37 anni avrebbe ricevuto il Premio Nobel, Enrico Fermi decise che dopo la cerimonia a Stoccolma non sarebbe più tornato in Italia. Erano, purtroppo, finiti i momenti dei Ragazzi di Via Panisperna, la guerra era prossima e Mussolini assecondava la follia di Hitler. Così, per evitare di mettere in pericolo la sua famiglia e di buttare via le proprie ricerche, Fermi decise di fuggire in America.
Alla premiazione, tenutasi a Stoccolma il 2 dicembre 1938, Enrico si recò con la moglie e i figli. Ricevette il premio indossando un semplice frac e non l’uniforme voluta dal regime. Non fece neanche il saluto fascista, come, invece, era imposto ai cittadini italiani. Fu questa la sua ribellione contro un potere politico che lo aveva costretto ad abbandonare Roma, la sua città.
Dopo la cerimonia Fermi si recò a Copenaghen da Bohr. Rimase lì qualche settimana, successivamente si imbarcò su un transatlantico diretto a New York, dove si stabilì in un primo momento per poter collaborare con la Columbia University.
Grazie agli sviluppi tecnologici (super-computer) e nuove tecniche di indagini sperimentali, si è sviluppato e sta rapidamente crescendo l’interesse scientifico nello studio delle caratteristiche fisiche della materia “soffice”. L’attività di ricerca in questo settore prende il nome, forse riduttivo, di “Soft Matter” e non riguarda solo la fisica ma è fortemente interdisciplinare coinvolgendo biologia, chimica, ecologia, geofisica medicina e scienze sociali.
All’interno della Fisica propriamente detta il termine “Soft Matter” si applica a sistemi quali il comportamento dei fluidi complessi, i materiali amorfi (emulsioni, vetri, sistemi granulari, ecc. . . ). Fra Biologia a Fisica, si inseriscono gli studi relativi al comportamento chimico-fisico delle macromolecole e delle membrane delle cellule, alla dinamica delle popolazioni e relativa evoluzione genetica, allo sviluppo di modelli di reti neurali.
Nell’ambito della Soft Matter, il CREF intende perseguire lo sviluppo e l’applicazione delle simulazioni numeriche idonee a riprodurre alcuni dei fenomeni più rilevanti e possibilmente di predirne di nuovi. È bene sottolineare che alcune delle tecniche di simulazione sviluppate negli ultimi vent’anni sono state ideate e messe a punto dai gruppi di eccellenza nella ricerca scientifica che operano in Atenei e/o Istituti Italiani e in particolare nell’area romana. La collaborazione con questi gruppi di ricerca è quindi il primo passo da attuare per dare concretezza a quest’attività.
La recente epidemia di COVID19 ha aperto enormi sfide alla riorganizzazione dei servizi di trasporto, che sono legate al massiccio cambiamento potenziale delle abitudini individuali. La necessità di distanza fisica tra gli individui è una variabile che non era mai entrata prima d’ora nei manuali di trasporto, architettura, pianificazione urbana o organizzazione del lavoro.
Oggi, il significato di questo vincolo sta estendendo il significato del termine "sicurezza" dei fenomeni di trasporto. Il termine sicurezza acquisisce ora anche il significato di "possibilità di minimizzare il rischio di contatto fisico con individui potenzialmente infetti". La sicurezza della salute pubblica è un fattore di cambiamento per gli ecosistemi di mobilità.
Ripensare la mobilità nell’estate del 2020 significa anche concepire un’era "post-covidica" in cui il tema del movimento si intreccerà con la sicurezza sanitaria pubblica. L’interazione tra trasporti innovativi e potenziali nuovi comportamenti rivoluzionerà il modo in cui gli individui si muovono all’interno della città e rimodellerà la struttura socioeconomica della città stessa. La regolamentazione e la supervisione di tale transizione è una sfida significativa che richiede uno sforzo interdisciplinare sostanziale e tempestivo.
Gli strumenti di pianificazione possono oggi sfruttare una grande quantità di dati GPS longitudinali, consentendo un monitoraggio ad alta risoluzione e in tempo reale delle abitudini individuali, assieme agli indicatori socio-economici ed allo stato delle infrastrutture. Parallelamente, gli schemi di modellazione hanno raggiunto la maturità per supportare la concezione di nuovi scenari.
In questo quadro, la prospettiva del CREF mira ad avere un ruolo centrale nell’implementazione di questa agenda, sviluppando strumenti algoritmici e analitici in grado di fondere le informazioni provenienti da fonti di dati eterogenee per consentire l’orchestrazione di scenari validati per l’ormai ineludibile transizione verso nuovi sistemi di mobilità sia per i paesi in via di sviluppo che per quelli sviluppati.
Il laboratorio attualmente in fase di sviluppo presso il CREF è dedicato allo studio di reperti di interesse storico-artistico tramite strumentazione avanzata ed un approccio integrato per la soluzione di problematiche di carattere archeologico e conservativo. Il laboratorio, ospitato nei locali del seminterrato della Palazzina di via Panisperna, vuole fornire una combinazione di strumentazione portatile e consolidata esperienza nell’utilizzo di Large Scale Facilities Europee attraverso programmi di accesso a strumentazione avanzata di neutroni e radiazione di sincrotrone.
Dati gli attuali sviluppi del Machine Learning applicati ai beni culturali, il CREF ha inoltre avviato collaborazioni con organizzazioni internazionali che operano nel settore, per affrontare le sfide del patrimonio culturale in modo innovativo.
L’intelligenza artificiale (AI) ha un impatto crescente in diverse aree tecnologiche come il riconoscimento vocale, l’automazione, l’economia, ecc. Machine Learning (ML) è un’applicazione corrente di AI basata sul concetto per il quale il sistema è in grado di apprendere da esempi ed esperienze, senza essere esplicitamente programmato. L’approccio consiste nel fornire dati ad un algoritmo generico e l’algoritmo/macchina crea la logica in base ai dati forniti. Gli algoritmi di Machine Learning sono generalmente tramite l’utilizzo di grandi set di dati (noti anche come Big Data), e concepiti per apprendere tramite le associazioni sul set di dati e possono essere applicati anche per la soluzione di problematiche inerenti al patrimonio culturale.
Il CREF, in linea con le attuali tendenze della ricerca multidisciplinare per i beni culturali, ha iniziato a collaborare con organizzazioni internazionali che lavorano nei settori del Machine Learning, dell’intelligenza artificiale, della complessità, del Data Science.
La creatività è considerata sempre più come il motore del progresso in tutti i settori delle attività umane: arte, scienza, tecnologia, economia, business e politiche sociali. La creatività è chiaramente connessa a come le persone esplorano, individualmente o collettivamente, lo spazio delle possibilità accessibili. Questo metodo di esplorazione è il nuovo modo di creare valore aggiunto per sé stessi e per la comunità.
L’obiettivo di questo istituto è di combinare questi elementi creativi con il massimo rigore scientifico superando le barriere delle singole discipline. Questa situazione di creatività aumentata può essere vista come la combinazione della intelligenza umana con quella artificiale. Allo stesso tempo, infatti, la sola Intelligenza Artificiale è estremamente potente per problemi “difficili” e ben posti, ma è difficile immaginare strategie che possano essere efficaci in un ambiente volatile ed in continua evoluzione. Ancora più difficile è immaginare l’applicazione di metodi di AI in situazioni in cui lo spazio delle possibilità non è solo molto vasto e complesso ma anche, in qualche misura, indefinito.
Questo implica un cambio di paradigma: inventare nuove soluzioni invece di cercare nuove soluzioni. È evidente che questa situazione è del tutto comune per i problemi delle società complesse, per la ricerca scientifica, per lo sviluppo di nuovi prodotti e servizi e chiaramente per lo sviluppo economico. In questo senso la nostra proposta si configura come originale rispetto a quelle di USA, Cina, Germania, Francia e molti altri paesi a cui vengono assegnate enormi risorse ma in una visione di AI relativamente tradizionale. Riteniamo quindi che l’Italia abbia tutti gli elementi per creare qualcosa di originale in questo campo anche con risorse limitate, come è avvenuto con le previsioni economiche del metodo della Fitness rispetto a quelle del Fondo Monetario Internazionale (IMF).
Ieri, sul Sole 24 Ore, è stato pubblicato un articolo di Luciano Pietronero. Il Presidente del Centro Ricerche Enrico Fermi riflette sull’importanza che l’Intelligenza Artificiale può rivestire nella definizione dei progetti del Recovery Fund. All’interno di un sistema complesso è difficile fare previsioni e non si può pensare di studiarlo seguendo un approccio deterministico. L’Intelligenza Artificiale può aiutare, in questo senso, a valutare tutte le interconnessioni tra i vari settori, mettere in risalto i loro punti di forza e di debolezza.
Ecco di seguito il testo dell’articolo.

Intelligenza Artificiale per i progetti del Recovery Fund


I progetti del Recovery Fund costituiscono una opportunità unica per cercare di aumentare la competitività strategica di lungo periodo dell’Italia tenendo conto anche di elementi come la sostenibilità, la green economy, le disuguaglianze e, in generale, il benessere dei cittadini.
Ma queste buone intenzioni non ci dicono però cosa fare esattamente, quanto un certo programma sia realistico o difficile e quali saranno concretamente i benefici ottenuti nei vari ambiti. Il passaggio da una visione qualitativa ad una quantitiativa e concreta implica di dover considerare dei dati, degli algoritmi, delle previsioni e un approccio per quanto possibile scientifico a questi problemi. Questa problematica ci porta in modo naturale in un contesto di Big Data, Network Complessi, Algoritmi e in generale nell’area che viene usualmente definita come Intelligenza Artificiale (AI).
Tutta la potenza di AI è di analizzare molti dati con opportuni algoritmi. I dati non parlano da soli e se uno mettesse una enorme quantità di dati informi nel miglior algoritmo di AI si otterrebbe solo una grande confusione. La selezione e l’utilizzo strategico dei dati disponibili rappresentano quindi un problema importante quanto gli algoritmi e vanno considerati come parte integrante del processo di test ed ottimizzazione. Questi metodi vanno analizzati facendo degli studi sul passato. In questo modo possiamo capire se il nostro algoritmo ci porta davvero verso gli obiettivi desiderati. Se così non fosse però possiamo imparare dagli errori e modificare e ottimizzare l’algortimo. In questo modo si possono esaminare realisticamente vari scenari di sviluppo di tipo “what if”. Il tutto in termini di probabilità e di analisi dei margini di errore perché lo sviluppo di un sistema così complesso non potrà mai essere deterministico. Quindi dobbiamo abbandonare le certezze di alcuni economisti e accettare le incertezze della scienza controllandole e analizzandole con un monitoraggio continuo.
Questa è la strada che abbiamo percorso negli ultimi anni per sviluppare il metodo della Fitness Economica che, tra l’altro, permette di valutare e prevedere lo sviluppo economico dei paesi e fare previsioni migliori dei metodi standard. Negli ultimi anni la Fitness Economica è stata adottata ufficialmente dalla World Bank di Washington e dalla Commissione EU (JRC). La Fitness è molto diversa dal famoso PIL perché mira a descrivere la capacità intrinseca di produrre prodotti e servizi, cioè è nella linea del capitale umano (capacità) più che dello sfruttamento delle risorse naturali. In questo senso rappresenta anche un valore ambientale ed ecologico. Recentemente, insieme con il CNEL e l’ISTAT abbiamo fatto uno studio abbastanza dettagliato dell’Italia anche a livello di Regioni e Province.  Emergono opportunità e rischi non del tutto evidenti all’analisi tradizionale.
Ad esempio, esaminando il settore ICT e Digitalizzazione si osserva che al momento la competitività dell’Italia è abbastanza bassa, però l’Intelligenza Artificiale (Machine Learning) ci permette di dire che è piuttosto probabile che entro cinque anni l’Italia possa arrivare nella Top Ten. Chiaramente non è ovvio ma è un obiettivo realistico e possibile. Poi possiamo andare anche più in dettaglio e identificare le traiettorie specifiche di questo sviluppo anche a livello dei singoli prodotti.
Ad esempio, questa analisi ci dice che l’Italia ha una buona probabilità nel campo di “reflectors and radar” (p = 0.77) ma anche in “radio navigational aid” (p = 0.63) e “radio remote control” (p = 0.40). Al contrario ha ben poche opportunità in cose tipo smartphone (p = 0.04) e le macchine legate alla trasmissione audio-video (p = 0.01). In questo modo si può andare ad un livello di dettaglio anche molto fine e considerare circa 5000 prodotti o settori industriali diversi. Altri settori ad alta potenzialità (finora inespressa) di sviluppo per l’Italia sono l’ottica di precisione e il Biotech in cui si potrebbe fere lo stesso tipo di analisi dettagliata.
Una volta acquisita la competitività strategica in questi e altri campi si avranno anche le risorse per implementare gli indicatori del Benessere che ovviamente sono benvenuti ma, da soli, non ci dicono molto sulla nostra competitività e sul modo di acquisire le necessarie risorse. Sostenibilità e ambiente ma anche le disuguaglianze sono elementi strategici che possono essere certamente considerati nelle scelte delle possibili traiettorie di evoluzione. La politica deve decidere in che misura farlo. Ma anche in questo caso considerare la sostenibilità senza la competitività potrebbe portare a risultati deludenti e molto diversi da quelli attesi.
Tutti gli elementi del sistema socio-economico sono connessi e solo un approccio Complesso come ad esempio quello della Fitness Economica può cercare tenere conto di tutte le interrelazioni tra i vari elementi ed evitare grandi delusioni anche se motivate dalle migliori intenzioni. Un approccio settoriale è del tutto inadeguato alle complesse implicazioni di competitività, ambiente, sostenibilità, diseguaglianze, perdita e rinnovo dei posti di lavoro etc. Questa strategia e la relativa metodologia permettono di definire una strategia per i progetti del Recovery Fund come base di informazione consapevole e quanto più oggettiva possibile per le decisioni politiche.
Riteniamo che questo approccio di ausilio scientifico alle decisioni politiche rappresenti un valore che va ben oltre il Recovery Fund e può essere implementato come base strategica permanente per lo sviluppo di un paese. In questa ottica stiamo organizzando il Centro Ricerche Enrico Fermi come un Hub internazionale per queste nuove metodologie che, oltre ad avere uno specifico valore scientifico, forniscono indicazioni concrete e realistiche.
Articolo comparso sul Sole 24 Ore 08/11/2020.
Il grande accumulo di dati in tutti i campi rappresenta un nuovo fenomeno con un grande potenziale ma che a volte porta ad aspettative eccessive e perfino mitiche. La nostra strategia originale alla base di questa proposta è di sviluppare strumenti quantitativi che superino il Machine Learning standard per aumentare la capacità di comprendere ed avvalerci di queste immense quantità di informazioni.
L’idea è di sviluppare un approccio scientifico, trasparente e testabile. Questa filosofia ha già trovato una concreta applicazione nello sviluppo del metodo Fitness Economica. L’uso di algoritmi e di metodi di Machine Learning va adattato e ottimizzato per ogni classe di problemi per identificare e comprendere gli elementi essenziali dei vari fenomeni.
In generale i dati non parlano da soli e non c’è una ricetta di validità generale. Il punto fondamentale è di superare il mero accumulo dei dati e, piuttosto, focalizzarsi sulla analisi ottimale dei dati disponibili nella prospettiva del rapporto tra segnale e rumore. Infatti, l’idea che più dati diano necessariamente luogo ad analisi e previsioni migliori è, in generale, non valida. Questo fenomeno è ben noto nella Fisica dei sistemi dinamici in cui l’aumento della dimensionalità dello spazio implica un aumento esponenziale dei dati necessari.
In pratica questo è un problema molto generale: se si sommano dati eterogenei che descrivono la struttura produttiva di una nazione, come ad esempio educazione e inquinamento, si devono assegnare inevitabilmente dei pesi arbitrari. La strategia sarà di valutare scientificamente queste problematiche. Questo rappresenta un elemento originale ma essenziale del nostro approccio per introdurre elementi scientifici verificabili nell’ambito dei Big Data. In pratica l’idea è di ridurre o eliminare gli elementi soggettivi e arbitrari e trattare i dati in modo gerarchico e sistematico. Questo porta a notevoli vantaggi in termini di scientificità e capacità predittiva come dimostrato dal metodo della Fitness Economica.
L’analisi della diffusione dell’informazione è particolarmente impegnativa sia da un punto di vista teorico che empirico. L’esistenza di molte piattaforme di social media, ognuna caratterizzata da funzionalità diverse e spesso variabili nel tempo, fornisce una grandissima quantità di dati ma lascia aperte le questioni dell’universalità e della riproducibilità.
Dal punto di vista della modellizzazione, l’identificazione di un numero limitato di meccanismi rilevanti e di osservabili cruciali è altamente non banale. In questo contesto, ha una grande rilevanza lo studio di come si diffondano nelle reti sociali unità elementari di informazione come meme, tweet o hashtags. Per tali fenomeni di propagazione il paradigma naturale per l’inquadramento del problema è quello dei processi di diffusione epidemica di patogeni biologici. Questo schema concettuale è molto efficace e ha portato, come ad esempio durante la attuale emergenza sanitaria, alla formulazione del concetto di infodemia.
Non possono però essere sottovalutati gli aspetti peculiari che distinguono la diffusione dell’informazione dalla propagazione epidemica delle malattie: la trasmissione di un’informazione è un atto deliberato e non spontaneo, operato da individui che agiscono influenzati da una miriade di elementi psicologici, sociali e tecnologici; una quantità enorme di informazioni compete simultaneamente per la limitata capacità di attenzione dei singoli individui (information overload).
L’attività di ricerca si svilupperà quindi nell’analisi degli effetti di tali caratteristiche sui fenomeni di diffusione su reti sociali. In questo ambito sarà studiato il ruolo delle diverse topologie di rete sociale e la loro relazione con possibili fenomeni di universalità, che saranno ricercati nei dati empirici mediante nuovi tipi di analisi. Un’altra direzione di ricerca investigherà i fenomeni di propagazione dell’informazione in termini di burst di attività collettiva generati da meccanismi di autoeccitazione del tipo di quelli modellizzati dai processi di Hawkes, analogamente a quanto fatto per sistemi geologici e neuronali.