L'idea della materia oscura è nata per spiegare anomalie nel moto di oggetti astrofisici. Come accade ogni volta, nel momento in cui vengono rivelate tali anomalie, le possibili vie di ricerca per spiegarle sono due: modificare la legge di gravitazione universale, o identificare masse ancora mai osservate.
Le osservazioni che hanno palesato le citate anomalie sono molteplici a partire dagli anni 30:
Ammassi di galassie 1933, con le prime misure di redshift in galassie e ammassi di galassie, Zwicky scopre, investigando il Coma cluster una discrepanza dal valore di massa ottenuto dalla luminosità $L$ della materia visibile e la totale massa del cluster, con un rapporto $\frac{M_{33}\; g}{L_{33}\; erg/s} = 500$. Nel 1936 Smith con il Virgo cluster ottiene $M/L = 300$. Cioè in pratica con la spettroscopia hanno misurato red/blueshift del moto lungo la linea di vista, e usando le galassie nella zona più esterna dell'ammasso, avevano visto per la prima volta che materia (visibile) delle galassie più esterne aveva certe velocità, ma poi, vedendo le misure di luminosità, erano troppo più basse della massa dell'ammasso stimata dalle velocità osservate. Quindi perché i clusters stessero assieme con tali velocità era necessario che ci fosse un sacco di massa non visibile. (Questo è il primo indizio ma non determinante: molta materia emette poco o pochissimo con temperature di pochi kelvin, quindi dal punto di vista di Zwicky e Smith è possibile che semplicemente al tempo non si riuscisse a osservare?) nel caso dei cluster si vede anche gravitational lensing dovuto a DM diffusa, ma di questo ne parleremo dopo (hubble con abell 1689, altre survey?)
Galassie dopo gli ammassi, si cominciò a investigare galassie singole, osservando la velocità rotazionale. 1939-40 Babcock e Oort ottengono con varie galassie valori $M/L\sim 10^2$, (nel caso di galassie ellittiche 5 volte maggiore di quelle a spirale)
Per un oggetto di massa m, la sua velocità angolare dipende $$m \omega^2 r = G \frac{mM}{r^2}$$ come funziona se gran parte della massa è a distanze grandi? se aumenti la massa centrale la omega aumenta, e fin qui ci sono, ma qui aumenti la massa ai confini in slide rahatlou si dice che la zona crescente core della galassia, entro 1kpc
Ulteriori osservazioni su altre galassie hanno mostrato persistentemente una curva che a grandi distanze diventa piatta, compatibile con $M/L \sim 100$ nelle regioni periferiche, portando alla conclusione dell'esistenza di un alone di materia oscura nelle galassie. Recenti misure hanno portato a determinare la curva rotazionale fino a 80 - 100 kpc. Nel caso di via Lattea la stima di massa dell'alone è dell'ordine di $10^{12} M_\odot$, contro un $\sim 7*10^{11} M_\odot$ di materia "visibile". Invece, nella Via Lattea come in tutte le galassie osservate, la massa di materia oscura nel centro galattico è di $\sim 0.1 M_\odot$, in pratica compatibile con 0. Nel disco della Via Lattea la DM al rappresenta una parte minoritaria della massa totale (15% circa). (Si stima che nelle galassie a spirale l'alone si spinga fino a $\sim$200 kpc.) Più lontano si va, più il rapporto M/L. Guardando le galassie vicine, dove la DM è quasi tutta nelle periferie galattiche, questo è giustificato con il fatto che più la galassia è giovane, meno ha disperso materia oscura Questo perché, dato che la DM ha pochissima probabilità di disperdere energia cinetica, avendo sezione d'urto di interazione con altre particelle (anche di DM, altrimenti avremmo più DM dentro la galassia) bassissima, è molto più favorita nel rimanere lontano dal disco (in particolare sopra-sotto). Non dissipando non può formare una struttura appiattita e rimane a sfera. Questo nelle più lontane e quindi giovani galassie ellittiche e sopratutto nane sferiche è massimamente vero ma non ho capito perché. (Altre info sulla distribuzione di massa nelle zone più esterne della Via Lattea si hanno osservando la cinematica dei flussi di stelle, di gas, di ammassi globulari e di galassie satellite) *(Per galassie molto lontane, le osservazioni in banda X sono utili per ottenere dati cinematici dai gas caldi circondanti, oltre alle curve rotazionali. Per le galassie vicine la maggior parte dell'informazione viene dallo studio del moto stellare)
Una parte importante della ricerca astrofisica della materia oscura sta nello studio del gravitational lensing dovuto a effetti general-relativistici: la DM è soggetta a interazione gravitazionale, quindi grandi quantità di massa di DM producono sensibili effetti lente. Ciò è stato visto nel Bullet Cluster e nell'ammasso MACS J00?.
in pratica vedi video carino
persino con l'Abell supercluster, dove è stato visto un filamento DM che connette le due parti principali del sistema, tramite un debole effetto lente.
Dal punto di vista cosmologico, evidenze della presenza di DM vengono da osservazioni di supernove 1a distanti (candele standard) (solo studio redshift cosmologico o anche qualcosa di dinamica? eg da AGN si possono avere entrambe le info, chiedere a Fiore di DM signatures in AGN o GRB) e delle oscillazioni acustiche della materia barionica sulle strutture a grande scala (righelli standard) da un lato, del cosmic microwave background dall'altro. Da queste misure si hanno informazioni sul parametro di Hubble (e sulla metrica dell'universo)
Il parametro di Hubble $H$ si può esprimere, secondo le equazioni di Friedmann, usando i contributi delle varie componenti di energia e materia alla costante $\Omega$, il rapporto tra densità radiazione-materia dell'universo stimata su quella critica data dalle equazioni di Friedmann (che ne definisce la geometria, nb equazioni di Friedmann sono soluzioni alle equazioni di Einstein che descrivono una metrica omogenea, isotropa e in espansione): $$H^2 = H_0^2 \left[\Omega_\Lambda a^{-3(1+w)} + \Omega_r a^{-4}+ (\Omega_{bar}+\Omega_{DM}) a^{-3}+\Omega_k a^{-2}\right]$$
Con $H_0$ il valore della costante di Hubble al giorno d'oggi e H (BOH!??!) Tralasciando la spiegazione di questa equazione, la costante di Hubble dipende quindi dai parametri di densità $\Omega_x := \rho_{x,0}/\rho_{c,0}$ (in realtà $\Omega_k = -k/H_0^2$ semplicemente è il termine di curvatura, sotto 0 chiuso sfera, sopra aperto sella, a 0 piatto euclideo) delle varie componenti dell'universo rispetto alla densità critica $\rho_c = 3H_0^2/8\pi G$ (e anche dalla pressione negativa osservata che dà una equazione di stato $w = P/\rho < -1/3$ dovuta alla dark energy. NB omega dark energy è il termine relativo alla costante cosmologica se e soltanto se w=-1!), misurati all'istante presente.
Confrontando le stime di H, della parte nota di materia e radiazione, si ottengono stime di $\Omega$ delle varie componenti
NB: da non confondere $\Omega_{bar}$ con la sola $\Omega_{luminosa}$, che rappresenta solo lo $0.4%$, dato che grossa parte dei barioni non emette in maniera significativa luce (mezzo intergalattico diffuso) o per nulla (buchi neri).
Ricerca diretta deve partire da "cosa stiamo cercando"? Possibili candidati:
neutrini: improbabile, secondo gli attuali modelli di evoluzione cosmologica, osservazioni sulle strutture di larga e piccola scala portano constraints al contributo della massa neutrinica $\Omega_\nu$ al più al 3% della totale massa dell'universo. Infatti, sempre da considerazioni cosmologiche, la DM non può essere calda, quindi deve essere non relativistica (in senso stretto), difficile allora che neutrini con massa sotto l'EV, quindi molto relativistici o meno siano DM. Se così fosse, tutta questa materia ultrarelativistica avrebbe impedito la formazione di qualsiasi struttura.
WIMP, nome generico per svariati tipi di oggetto, dalle particelle supersimmetriche (eg neutralini), assioni, condensati di bose, buchi neri elementari, etc, oppure un mix di tutte queste cose, di molte altre, e di altre ancora non modellizzate. Se la materia nota, rappresentante solo l'1% della densità dell'universo è composta da così tante particelle dalla natura più varia, nulla vieta che ci siano tante possibili componenti della DM.
Ovviamente qui stiamo escludendo la possibilità di una quinta forza o di una gravimodi. Si sa solo che devono interagire gravitazionalmente, e anche debolmente altrimenti non possono avere massa senza accoppiamento higgs. Detto questo, le possibili interazioni con la materia, e cioè in modi con cui ricercare la DM sono tre:
sintesi (EG in acceleratori), tali esperimenti possono naturalmente rivelare, e anche provare (se si riesce ad avere un risultato solidamente nodel indipendent)l'esistenza di qualche possibile DM candidate, ma non si potrà affermare che una determinata particella rivelata sia una soluzione per il problema DM, e sopratutto che non sia l'unica. In più dei tanti scenari ipotizzati, gli acceleratori non possono coprirli tutti.
annichilazione (cioè una rivelazione indiretta: vengono rilevate particelle sintetizzate a seguito di annichilazione di darkmatter (annichilazione con antidarkmatter o qualche altro procedimento ipotizzato?)). Questi procedimenti indiretti sono fortemente model dependent, indagati con esperimenti sotto terra/acqua/ghiaccio o in orbita con lo scopo di ricercare particelle prodotte dalla annichilazione di due DM particelle. Ovviamente questo richiede un'ipotesi sulla natura e sullo scenario di indagine, per poter modellare il background e escluderlo.
scattering, eg su nuclei, cioè rivelazione diretta da recoiling di nuclei colpiti da una particella dark
NB: è impossibile fare un confronto diretto tra risultati ottenuti da vari esperimenti model dipendent, sia tra loro, sia con esperimenti model indipendent! Infatti, per esempio il rate di conteggi nella riceca diretta è proporzionale alla sezione d'urto di rivelazione, cioè di scattering con le particelle bersaglio. Invece quello dei metodi indiretti dipende anche dalla sezione d'urto prevista di scattering DM-DM e dai BR di produzione delle particelle rilevabili secondo i modelli di particelle DM. Quindi le sezioni d'urto complessive dei processi indiretti sono correlabili con quelle dei processi diretti, ma dipendono sempre dal modello utilizzato nei processi indiretti. Di base non esistono constraint possibili utilizzabili da processi indiretti per la ricerca diretta.
Anche i processi diretti hanno alcuni problemi. Per esempio il primo approccio era misurare la distribuzione energetica (di cosa??) in certi intervalli con delle distribuzioni attese a seconda dello scenario considerato (astrofisico, particellare...), unico adottabile per esperimenti di piccola scala e piccolo ciclo operativo. Hanno dato alcuni constraint a $m_{WIMP}$ e $\sigma_{n-W}$ a seconda degli scenari. Il problema è che questo approccio non è mod ind, dato che la stima dell'expected dipende da modelli (oltre che all'affidabilità delle procedure sperimentali e dei parametri fissati), e quindi necessitano un'assunzione a priori della natura/interazioni/caratteristiche della DM candidate (cioè gli exclusion plot dipendono dai parametri in gioco, oltre che dal modello nello scenario considerato). Altro problema, è che l'errore sistematico delle misurazioni può essere elevato, e le ipotesi che permettono di escluderlo dipendono sempre dai modelli, cioè dall'assunzione a priori della natura e le interazioni del DM candidate per capire cosa è davvero nuclear recoil come piace a noi e cosa invece è errore sistematico, quindi ancora una volta gli exclusion plot dipendono dai modelli.
(saltatti due esempi di problemi di rivelazione in assunzione spin depending, saltati possibili esperimenti per vedere nuclear recoil anisotropico)
Il problema di tutti questi metodi è che sono finora tutti model dependent, eccetto quello diretto che sfrutta lo scattering su nuclei di particelle provenienti dall'alone galattico, sfruttando la modulazione annuale dovuta al moto della terra attorno al Sole. È necessario infatti avere un esperimento model indipendent, con un background molto basso data la rarità dell'evento ricercato (attualmente si stima che la sezione d'urto di un WIMP con la materia sia all'incirca quella dei neutrini (elettronici) TODO da prendere biblioref), e quindi anche tempi di esposizione molto lunghi con il pieno controllo di tutte le condizioni e parametri in gioco.
(a quanto ho capito anche i processi diretti possono avere problemi, il motivo per cui quello di dama è ok è perché non cerca il count, ma la differenza di count annuale)
Il nuclear recoil avviene in seguito a un interazione di un WIMP con un nucleo. Molto difficile perché bisogna scegliere la scala di energia giusta, e bisogna avere un estremo controllo di background data la alta sensibilità. A seconda del materiale che compone il rivelatore, i recoil possono essere misurati sotto forma di fononi (calore o vibrazione) o carica/ionizzazione (nei rivelatori a semiconduttore), oppure sotto forma di luce in materiali scintillatori, per esempio con ioduro di sodio $NaI$. Il rate differenziale in funzione dell'energia è $$\frac{dR}{dE_{recoil}} = \frac{\sigma(q)\rho_{DM}}{2\mu_{DM}\mu^2}\int_{v_{min}(E_{recoil})}^\infty dv^3 \frac{f(v,t)}{v} $$ dove $\mu_{DM}$ è il parametro di massa di DM e $\mu$ è la massa ridotta DM-nucleo, $\sigma$ è la sezione d'urto di scattering in funzione del momento trasferito $q$, $\rho_{DM}$ è la densità di DM e $f(v,t)$ è la distribuzione di velocità della DM, con $v_min(E_{recoil})$ la minima velocità che può avere un WIMP per provocare un recoil di energia E_{recoil}.
Il sole, assieme al sistema solare, si muove nel frame galattico a una velocità di $v_\odot = \sim 230 km/s$ (questa velocità è composta da $v_0 + 220 \pm 50 km/s$ dato da curve rotazionali di via lattea, che quindi si presume sia la velocità rotazionale della DM, più 12 km/s di velocità del sole verso il local standard rest). La terra ruota attorno al sole con una velocità di $v_\oplus=\sim 30 km/s$, con il piano di rotazione inclinato di $60°$ rispetto a $v_\odot$. Questo provoca il fatto che nell'arco di un anno, la terra si muoverà con una componente di velocità parallela a $\vec{v}_\odot$ maggiore e minore a seconda dei periodi dell'anno, provocando il fatto un rivelatore sulla terra ha un maggior numero di rivelazioni quando il verso della componente orbitale lungo $v_\odot$ sia concorde e minore quando è discorde (da notare che i massimi e minimi si compiono al 2 giugno e al 2 dicembre, quindi scorrelate con le stagioni che hanno periodi e fasi diverse). Proiettando quindi la velocità della terra sul piano galattico, si ha $$v_e (t) = v_\odot + v_\oplus cos\theta cos(\omega(t-t_0))$$ con $\omega = 2\pi/T$ con $T = 1 yr$. Il rate differenziale aspettato, in funzione dell'energia, dipenderà quindi da questi fattori, quindi da $v_e(t)$: $dR(v_e(t))/dt$, e il suo integrale in un certo intervallo di energia scelto $\Delta E$ sarà, in approssimazione al primo ordine, il segnale S a una certa energia fissata E, sarà $$S(v_e(t)) = \int_{\Delta E} \frac{dR}{dE}dE \sim S_0 + S_m cos(\omega(t-t_0))$$, con $S_0=S(v_0)=S(v_e(0+kT))$ e $S_m = \partial S/\partial v_e|_{v_0}\Delta v_e$.
(Scrivendo tutto in unità di v_0: $\bar{v}(t)=$... tralascio per risparmiare passaggi)
Quindi il segnale deve presentare questi requisiti:
La cosa importante di questo fenomeno è che non si misura S: la parte costante del segnale è trascurata, ci interessa solo la modulazione in funzione dell'energia. In questo modo si evitano molti possibili effetti sistematici e si evita la necessità di modellizzare alcunchè sul tipo di interazioni e natura del DM candidate (nb dato che stiamo parlando di roba random, il S_0 lo si leva da analisi dati)
Per poter rivelare questo fenomeno, quindi è necessario un esperimento molto sensibile e con un background bassissimo
È un esperimento volto a osservare processi rari mediante l'uso di scintillatori molto poco radioattivi, molto sensibili, in condizioni di background molto basso. La parte che si occupa principalente di misurare la modulazione annuale di DM è DAMA/LIBRA. La versione precedente, DAMA/NaI usava uno scintillatore composto da 100kg di ioduro di sodio drogato con tallio (NAI(TL)) e ha preso dati per 7 cicli annuali sino al 2002. Quella attuale, DAMA/LIBRA ha incrementato i 100 a 250kg di NAI(Tl). I pro di questo materiale sono che
Grazie alla frammentabilità, DAMA/NaI era composto da 9 scintillatori da 9.70kg, posti in alloggiamenti in rame (anch'esso molto radiopuro) e ricoperti da uno scudo passivo per diminuire il background. In DAMA/LIBRA si è passati a 25 scintillatori messi in 5 righe x 5 colonne. (tutte le operazioni di smontaggio di NaI e montaggio di LIBRA sono state fatte in atmosfera di puro azoto radiopuro) In pratica si è fatta una griglia di scintillatori, in cui ogni rivelatore aveva un ID unico; questa distinsione permette di avere un rivelatore complessivo granulare, in cui si può escludere qualsiasi evento che avvenga in più di un solo "mattoncino" (eventi multiple-hit) e tenere solo quelli che hanno interessato SOLO UN rivelatore (single-hit). Come sono composti i singoli mattoncini: il cristallo è fatto accrescere con il metodo Kryopoulos (?) in un crogiuolo di platino, poi il cristallo viene avvolto in fogli di teflon e inserito nei rivestimenti di rame (radiopuro, senza ossigeno e ad alta conduzione). A sua volta i singoli detector vengono inseriti tutti assieme in un altro alloggiamento di rame e collegati a 10cm di guida di luce di quarzo radiopuro, che serve anche come finestra visiva ai rivelatori, dato che è collegato direttamente al cristallo. In ogni rivelatore quindi le guide di luce sono accoppiate alle due facce del cristallo e subito dopo a due fotomoltiplicatori a basso background (hanno guadagno $\sim 10^6$, quantum efficiency $\sim 30\%$ a 380 nm cioè 3 eV, picco su valle di un fattore 2, cioè ha una buona risoluzione sull'impulso del singolo fotoelettrone, le correnti di leakage fanno molto poco rumore, cioè dark noise rate sui 0.1kHz). Se entrambi i fotomoltiplicatori, collegati al cristallo dalle guide di luce, rivelano contemporaneamente si ha il trigger del singolo rivelatore. La sensibilità dei fotomolti è settata per rilevare anche un singolo fotoelettrone. A parte le guide di luce, i fotomolti sono isolati dai cristalli da rivestimenti di rame. Il tutto a sua volta è messo in a scatola di rame al centro di uno shield composito di vari materiali (rame, piombo, cadmio, polietilene, paraffina), e a chiudere il tutto, 1 metro di mattoni ricopre quasi completamente lo scudo passivo. Tutto ciò serve da moderatore di neutroni, principale rischio di bg assieme ai neutrini. La scatola di rame è avvolta in un atmosfera di azoto e tenuto a maggiore pressione dell'ambiente esterno, che comunque ha un'atmosfera tenuta a T costante da condizionatori. La grossa capacità termica dello scudo, di massa di svariati gigagrammi, assicura abbastanza stabilità alla temperatura, ma a questo si affiancano due sistemi di condizionamento, uno a acqua e uno a gas. Il tutto serve per assicurare all'elettronica sempre la stessa temperatura operativa. (sopra c'è una scatola con guanti, appropriatamente isolata e scudata come sopra per metterci sorgenti per la calibrazione)
I segnali vengono mandati dai fotomoltiplicatori a dei preamplificatori e poi copiati e mandati in 3 parti:
Per evitare afterglow, impulsi cerenkov dalle guide e $\beta+\alpha$ subito dopo il triggering, altri trigger sono bloccati per il successivo mezzo millisecondo (che da calcoli introduce un errore sistematico minore dello $10^{-4}$ quindi trascurabile). L'informazione dell'avvenuto pretrigger viene mandata a uno scaler.
Questi segnali DA TUTTI e 25 i pretrigger di tutti i rivelatori poi vengono mandati al main trigger, anch'esso con i $500\mu s$ di blocco ma con logica OR e con un altro scaler che serve a misurare il tempo morto. Il segnale viene splittato in 3 (uno dei 3 va in un trigger analizzatore di forma d'onda, dotato di analizzatore a singolo canale (?) che seleziona solo i segnali dell'intervallo energetico scelto, cosa che è stata messa per velocizzare il DAQ (non ho capito bene perché)).
Il DAQ è composto da un pc con redhat interfacciato all'hardware con BUS. Quando si ha un trigger, esso registra
Inoltre registra tutti i parametri del sistema di monitoraggio dell'apparato.
La calibrazione dell'apparato è stata effettuata con varie sorgenti a svariate energie, sia basse (da 1 a 100 keV) sia alte (sopra i 100 keV), benché l'apparato sia ottimizzato per energie basse. A energie basse si sono utilizzati principalmente raggi x e elettroni auger (da fluorescenza? non spiega bene) di alcuni materiali, a alte emissioni da decadimenti nucleari, EG cattura elettronica etc. Le forme counts/canali sono state confrontate con delle simulazioni che tenessero conto della geometria del sistema. I valori dei picchi misurati con le varie sorgenti sono state fittate con una retta, mostrando con sufficiente confidenza la linearità del sistema di misura
I dati di DAMA comprendono sia i 7 cicli annuali di NaI ($0.29\cdot10^3 Kg\cdot anno$) sia i 6 di LIBRA ($0.87\cdot10^3 Kg\cdot anno$). Gli unici trattamenti fatti ai dati sono, come spiegato precedentemente, la rimozione di effetti indesiderati nella parte guide di luce-fotomoltiplicatori. Dai grafici count vs giorni degli eventi single-hit si osserva l'effetto della modulazione annuale solo nell'intervallo di energia sotto i 6 KeV (NB: sopra i 6 KeV si hanno dati ma non sono visibili modulazioni, MA SOTTO I 2 KEV NON SI HANNO DATI!). Dai dati grezzi di rate $r(t)_{jk}$ (cioè rate al tempo $t$, dal detector $j$ e di energia in intervallo $k$) ne viene sottratta la parte costante $c_{jk}$ e si ha quindi il rate residuo $< r(t)_{jk}-c_{jk} >_{jk}$, cioè media su tutti i rivelatori e tutte le energie.
L'ipotesi di assenza di modulazione è da scartare: ha un chi ridotto $\overline{\chi}^2 = 140/80=1.75 \Rightarrow p \sim 5\cdot 10^{-5}$.
La distribuzione del rate residuo può venire fittata con la curva ipotizzata per la modulazione annuale $Acos(\omega(t-t_0))$; imponendo $T = 2\pi/\omega = 1 anno$, $t_0 = 152.5° giorno$ (2 giugno) e lasciando A libero si ha nell'intervallo 2-6 keV SEMPRE $\overline{\chi}^2 = 65/79 = 0.82 \Rightarrow p \sim 0.8 \Rightarrow 8.8\sigma C.L.$
Da notare che questo tipo di modulazione è presente a energie solo tra 2 e 6: infatti i rate residui a energie tra 6 e 14 keV hanno oscillazione quasi zero, come vedremo con l'analisi della likelihood.
(nb questi risultati sono calcolati con i dati cumulativi di nai e libra)
Per andarci sul sicuro, sono state cercate modulazioni anche ad alte energie. Infatti a basse energie il background principale è costituito da elettroni compton-diffusi, fotoni X/elettroni Auger, eventi da muoni, etc (eventi da neutrini e neutroni), tutti correlati con eventuali fenomeni registrabili nella parte alta dello spettro. Quindi, se dovesse esserci una modulazione annuale dovuta al BG, questa deve palesarsi anche ad alte energie. È stato quindi studiato il rate oltre i 90 keV, che mostra oscillazioni random gaussiane compatibili con 0.
Fin qui sempre single-hit. Si è dimostrato quindi che esiste modulazione solo e soltatno per single-hit, cioè che niente del background la può riprodurre, che i single sono solo DM e che tutto il resto non può esserlo (per questioni probabilistiche). Quindi multi-hit sono solo BG: dimostriamolo. Facendo un grafico dei rate residui di tutti i cicli, mediando assieme i punti "vicini" (cerchi bianchi) e confrontando quelli dei single hit con i multi hit si vede che i single hit mostrano la modulazione attesa, mentre i multi hit hanno parametri di fit della modulazione compatibili con 0. Quindi, multi hit sono SOLO BG cvd.
Mediante il calcolo del power spectrum density si possono vedere i dati dal dominio del tempo a quello delle frequenze, e quindi studiare le (Q)PO, per esempio, in diversi intervalli di energia. Si può vedere così che l'unica feature significativa tra i 2 e i 6 kev (curva nera continua) è quella della modulazione annuale (linea verde), mentre tra i 6 e i 14 keV non si ha nulla (curva rossa tratteggiata). Nell'altro grafico si vede come tutte le altre feature oscillanti siano sotto la confidenza di 2 sigma.
L'ampiezza della modulazione annuale $S_m$ (signal modulation?) può essere studiata da un metodo di massima verosimiglianza in funzione dell'energia, imponendo per ora il periodo a 1 anno e la fase a 152.5° giorno. Si ha quindi per la k-esima energia $$L(E) = \prod_{t,j}\frac{\mu_{tj}(E)^{N_{tj}(E)}e^{-\mu_{tj}(E)}}{N_{tj}(E)!}$$ con:
Dato che abbiamo distinto la parte costante dalla parte modulata, il segnale complessivamente può essere scritto
$$S(t, E) = S_{cost}(E) + S_{mod}(E)\cdot cos(\omega(t-t_0)).$$Si minimizza quindi $y = -2log(L(E)) - cost$ con parametri liberi $bg_j(E) + S_{mod}(E)$ e $S_{mod}(E)$. Fissiamo ora E per non impazzire e omettiamolo: tutti i risultati dipendono da E. Da questa analisi si ricava che si ha segnale non compatibile con zero solo sotto i 6keV, mentre sopra è tutto a 0 con fluttuazioni random: il chiquadro ridotto è 27.5/28 per ipotesi di fluttuazioni attorno a 0. Questa analisi può essere fatta per ogni singolo rivelatore, ottenendo informazioni sulla statistica degli eventi per ogni rivelatore, mostrando una uniforme casualità lungo tutti i rivelatori per tutto l'arco dei 6 anni di LIBRA. Da sottolineare che da questo tipo di analisi non risultano differenze di statistica tra i 9 detector più interni e i 16 più esterni del "cubo" totale. (Infatti, eccetto un solo detector che probabilmente si è rotto, tutti hanno un S-Smedio/sigma compatibile con 0 e con counts comparabili)
Per ultima cosa, lasciamo il parametro $t_0$ libero nella procedura di maximum likelihood delle ampiezze di modulazione. In questo caso si è usata una espressione del segnale $$S(t, E) = S_{c}(E) + S_{m}(E)\cdot cos(\omega(t-t_0)) + Z_{m}(E)\cdot sin(\omega(t-t_0))$$ e $$S(t, E) = S_{c}(E) + Y_{m}(E)\cdot cos(\omega(t-t*))$$
dove secondo la maggior parte di modelli di alone galattico ci si aspetta che Z = 0 a causa dell'ortogonalità tra le funzioni sin e cos, $S_m = Y_m$ e $t* = t_0$, a meno di possibili componenti non termalizzate di materia oscura (a causa degli ipotizzati flussi provenienti dalla galassia nana ellittica del sagittario, o per modelli alternativi che prevedono caratteristiche non termalizzate (caustics/caustic model)).
Due plot interessanti mostrano le aree di confidenza a $2\sigma$ Z vs S (Z è compatibile con 0 sempre, S è compatibile con 0 per energie tra 6 e 14 kev, ma NON per energie tra 2 e 6) e $t*$ vs Y ($t*$ è assolutamente indeterminato per 6-14, mentre ha un valore attorno a 150 per 2-6, mentre Y è uguale a S in valore e incertezza). In particolare Z è compatibile con 0, con p values entro confidenza di 95% tra 2 e 20 keV, $t*$ oscilla tra $150.5\pm7.0°$ giorno. (mettere grafico figo
Tutte le possibili fonti di segnale che non siano DM, con le caratteristiche stringenti prima esposte sono state analizzate e scartate. In particolare variazioni dei flussi di muoni non possono portare a effetti in DAMA, sia perché sarebbero comunque quantitativamente trascurabili (2.5 muoni al giorno in dama possibili), ma anche perché non possono imitare la firma della DM modulation, perché indurrebbero effetti in tutto lo spettro energetico NON OSSERVATI, indurrebbero effetti modulatori anche nei multi hit NON OSSERVATI, porterebbe a variazioni i fase t0 e ampiezza S DIVERSI DAGLI OSSERVATI (in particolare t0 è spostato di circa un mese); infine, ponendo che tutto quanto detto fosse falso, se si osservasse una modulazione di muoni uguale a quella di DAMA, questa avrebbe deviazioni standard molto maggiori di quelle osservate. Qualcuno ha proposto un contributo unito di muoni e neutrini, ma benché possa simulare la modulazione in ampiezza e fase, rimane il resto di quanto detto sopra. Inoltre, in particolare, sono state escluse tutte le possibili modulazioni di lungo periodo (v grafico che mostra assenza in power spectrum di picchi pluriennali), e anche le oscillazioni brevi (sotto il mese circa) come già si è visto dai grafici prima
NB l'osservabile dell'esperimento NON È IL RATE, NON HA RATE COSTANTE, ma solo la componente modulata del rate. Questo rende importante l'esperimento, questo lo rende indipentente da qualsiasi ipotesi di cosa possa provocare i singoli recoils, lo rende libero da complessi meccanismi di selezione dati che hanno fatto perdere un sacco di tempo integrato di esperimento a altri esperimenti costretti a tener conto bg a livelli ancora più estremi, lo rende model indipendent
Purtroppo l'esperimento non è conclusivo: 1 molti modelli di molti scenari risultano compatibili con le misure di DAMALIBRA, sopratutto per il fatto che non si hanno misurazioni sotto i 2 keV, dove la maggior parte delle distinsioni si palesano. Su questo si focalizzerà particolarmente la fase 2. Inoltre si farà aumento di sensibilità e statistica, quindi ancora più stabilità di condizioni, più tempo integrato, in modo da poter indagare:
(grafico di main review mostra alcune ipotesi, includendo o meno l'effetto channeling di ioni poco energetici lungo l'asse cristallografico e lungo i piani del cristallo NaI drogato di Tl, considerando quenching factors dei cristalli, e le confronta con un risultato ristretto di CoGeNT con alta confidenza di negazione ipotesi no-mod) confronto con altri esperimenti per confinamenti della possibile massa a possibili sezione d'urto, sottolineare che non ha senso il confronto dato che non è escluso che diversi esperimenti rilevino DIVERSE particelle DM, WIMP o non WIMP.
In [19]:
%matplotlib inline
import numpy
import matplotlib # TODO bug in ipython? (sometime can't call the module directly)
from matplotlib import pyplot
import scipy
from scipy import stats
from scipy import optimize
matplotlib.pyplot.figure(figsize=(20,12))
x = numpy.linspace(0,365,150) # 100 linearly spaced numbers
omega = 2*3.1415/365
y = 0.7*numpy.cos(omega*x) # computing the values of sin(x)/x
matplotlib.pyplot.plot(x,y)
Out[19]:
A very large exposure and the full control of running conditions, with ultra low bg, are mandatory to pursue a widely sensitive direct detection of DM particles in the galactic halo
Indeed, most activities in the field release marginal exposures even after many years underground; they do not offer suitable information e.g. about operational stability and procedures during the running periods, and generally base their analysis on a particular a priori assumption on the nature of the DM particle and its interaction, and of all the used parameters. In particular, the applied rejection and subtraction procedures to reduce the experimental counting rate, in order to derive a set of recoil-like candidates, is pursued by experiments as CDMS, EDELWEISS, CRESST, XENON, LUX, etc.. It is worth noting that the applied subtraction procedures are statistical and cannot offer an unambiguous identification of the presence of DM particle elastic scatterings because of the known existing recoil-like indistinguishable background; tails of the subtracted populations can play a role as well.
Finally, the electromagnetic component of the counting rate, statistically “rejected” in this approach, can contain either the signal or part of it, and it will be lost.
In the double read-out bolometric technique, the heat signal and the ionization signal are used in order to discriminate between electromagnetic and recoil-like events. EG CDMS-II detector consisted of 19 Ge bolometers of about 230 g each one and of 11 Si bolometers of about 100 g each one. The experiment released data for an exposure of about 194 kg × day using only 10 Ge detectors in the analysis (discarding all the data collected with the other ones) and considering selected time periods for each detector. EDELWEISS employed a target fiducial mass of about 2 kg of Ge and has released data for an exposure of 384 kg × day collected in two different periods with a 17% reduction of exposure due to run selection. These two experiments claim an “event by event” discrimination between noise + electromagnetic background and recoil + recoil-like (neutrons, end-range alphas, fission fragments,...) events by comparing the bolometer and the ionizing signals for each event.
Thus, their results are,actually, largely based on huge data selections
The stability, the nonlinear response and the robustness of the reconstruction procedure are key points, as well as the associated systematical errors.
The search for time dependence require to face the objective difficulty to control all the operating conditions – at the needed level (< 1%) and owing to the limitation arising from the low duty cycle. CDMS-II to search for annual modulation in Ge target, marginal exposure by using only 8 detectors over 30 and using – among others – data that are not continuous over the whole annual periods considered in the analysis; detectors having different background rate within the signal box does not allow one to get any reliable result in the investigation of an effect at few percent level.
A statistical discrimination of nuclear recoil-like events from electromagnetic radiation
67 nuclear recoil-like events were observed in the Oxygen band. The background contribution estimated by authors ranges from 37 to 43 events, and does not account for all the observed events. The remaining number of events and their energy distribution could be interpreted – under certain assumptions – in terms of a DM candidate with spin-independent interaction and a mass in the range of 10-30 GeV. Not confirmed in the last run [34, 35], where a more marginal exposure has been used (52 kg ×day and energy threshold of 307 eV), confirming the difficulties to manage the systematics in such experiments.
articoli che non riesco ad aprire da casa:
http://www.worldscientific.com/toc/ijmpa/31/31
http://www.worldscientific.com/doi/abs/10.1142/S0217751X1642001X
http://www.worldscientific.com/doi/abs/10.1142/S0218271816300135
http://www.worldscientific.com/doi/abs/10.1142/S0218271816300184
http://iopscience.iop.org/article/10.1088/1748-0221/7/03/P03009/meta
In [ ]: