La principale ricerca di interesse attuale è lo
studio delle collisioni protone-protone al LHC con il
rivelatore CMS.
Le camere a deriva (Drift Tubes) del rivelatore di muoni di
CMS, alla cui realizzazione i fisici di Bologna in CMS
hanno contribuito, sono state installate
nell'esperimento e messe in funzione. Continua la attività
dedicata allo allineamento, alla calibrazione, ai test del
trigger elettronico dei muoni.
Anche nel 2009 è continuata la presa dati con raggi cosmici con
campo magnetico del rivelatore a 3.8 Tesla (CRAFT09).
Nella settimana 7-11 di Settembre 2009 si è svolta a Bologna la
Physics Week di CMS. Lo scopo di questo Convegno internazionale era
quello di discutere il livello di preparazione dell'esperimento per
fare fisica con le prime collisioni di LHC.
Le prime collisioni protone protone di LHC con fasci di 450 GeV
ciascuno sono state osservate in data 23 Novembre 2009.
A parte l'esperimento CMS, negli ultimi anni sono state
portate a termine alcune analisi di OPAL al LEP. La presa dati
dell'esperimento è terminata nel 2000.
Le analisi per OPAL riguardano dati ottenuti con LEP e le
analisi per CMS, allo stato attuale, riguardano dati da raggi
cosmici con campo magnetico del rivelatore acceso (CRAFT09).
L'attività d'analisi di OPAL riguarda Higgs, bosoni intermedi
W, QCQ e Top. Il trattamento dei dati in CMS affronta anche
aspetti che vanno dalla preparazione dei job di analisi allo
sviluppo dei servizi necessari per accedere i dati.
Il rivelatore di muoni dell'esperimento CMS (Compact Muon
Solenoid) e' stato installato al CERN di Ginevra, dove nel
2010 inizierà a prendere dati dalle collisioni protone-protone
a inizialmente a 7 TeV e successivamente 10 TeV del collisionatore
LHC (Large Hadron Collider). Le prime collisioni protone protone di
LHC con fasci di 450 GeV ciascuno sono state osservate in data 23
Novembre 2009.
Nell'estate del 2009 durante una lunga presa dati di raggi
cosmici con campo magnetico (CRAFT, Cosmic Run at Four Tesla), le
camere DT (drift tubes) del rivelatore di muoni selezionarono
alcune centinaia di milioni di cosmici con il magnete acceso a
3.8 Tesla. Sebbene le DT fossero utilizzate in una configurazione
dedicata e con una sincronizzazione ad hoc per raggi cosmici,
furono anche effettuati tests specifici per valutare la prestazione
aspettata nella configurazione di presa dati da LHC. Durante
la presa dati CRAFT le camere DT e il trigger locale hanno mostrato
un buon funzionamento e stabilità.
Nella settimana 7-11 di Settembre 2009 si è svolta a Bologna la
Physics Week di CMS. Lo scopo di questo Convegno internazionale era
quello di discutere il livello di preparazione dell'esperimento per
fare fisica con le prime collisioni di LHC.
Gli esperimenti i cui dati sono stati analizzati nel 2009 sono
OPAL e CMS.
Per il primo si tratta delle analisi finali a esperimento ormai
concluso, mentre per il secondo l'attività di analisi è in
piena crescita. In particolare per OPAL si tratta di analisi
relative alla ricerca di nuove particelle (bosoni di Higgs carichi,
predetti in estensioni del Modello Standard, e particelle
supersimmetriche che violano la R-parità).
L'attività di analisi di CMS ha riguardato studi dei dati da
raggi cosmici volti principalmente a valutare l'efficienza dei
vari sottorivelatori e trigger. Infine numerosi sono stati
gli esercizi di analisi (riguardanti ad es. la fisica del Top, la
QCD, la fisica dei B, alcuni aspetti dell'Higgs MSSM ecc.)
effettuati anche al fine di testare la funzionalità dell'accesso ai
dati reali e a quelli da montecarlo.
In effetti, la simulazione e l'accesso ai dati di CMS avviene in
ambiente distribuito “alla Grid” (WLCG, World-wide LHC Computing
Grid project) attraverso una serie di strumenti e servizi software
e middleware sia proprietari di CMS che condivisi con i vari
progetti Grid europeei, nazionali e globali. L'attività di ricerca
in questo campo riguarderà lo sviluppo, messa in funzione
operativa ed utilizzo di strumenti di accesso ed analisi dei dati
in ambiente distribuito. Nello specifico strumenti per:
• lo spostamento dei dati in particolare dal CERN
al Tier1 italiano di CMS e di seguito ai Tier2
italiani;
• la preparazione di job di analisi mascherando la complessità
del sistema distribuito di calcolo (Grid) all'analizzatore;
• la gestione quotidiana e la verifica del grado di affidabilità
dei vari servizi distribuiti nei diversi Tiers;
• la gestione e produzione dei dati simulati.