synchrotron is an accelerator where the particles follow a closed orbit while being accelerated via multiple passes through accelerating stations; this requires that the magnetic fields constraining the particles to their orbits and the RF fields accelerat- ing the particles vary synchronously with the change in particle momentum.
È la quantità fondamentale per quantificare le performance.
Per ogni bunch cross, $N_1$ particelle viaggeranno dentro il volume delle $N_2$; prendendo una distanza piccola di cross $x$ la probabilità di interazione per le particelle 1 è $P_1(x)=1-e^{\rho_2 \sigma x} \simeq \rho \sigma x = N_2/V \cdot \sigma x = N_2 \sigma x/S\ell$. Quindi il numero medio di interazoni per cross completo è $<n> = N_1P_1(\ell) = N_1 N_2 \sigma \ell / \ell S = N_1 N_2 \sigma /S$ e quindi non dipende da $\ell$. Se il numero di bunch in circolo è k e la frequenza di rivoluzione è $\omega$ il crossing rate sarà $\nu = k\omega$, allora il rate di interazione è $R = L \sigma =<n>\nu = N_1 N_2 k \omega \sigma /S$ e quindi sarà $$L = \frac{N_1 N_2 k\omega}{S}$$ che non dipende dalla sezione d'urto perché contiene solo parametri della macchina, mentre $\sigma$ riflette la dinamica delle particelle. Una sorta di rate di interazione per unità di sezione d'urto .
Modello semplice ma porta a alcune conclusioni corrette:
In più, non considerato ancora, dipende dallo spostamento del centroide rispetto all'asse nominale e alla vita del fascio.
the total number of interactions seems to grow ∝ k 2 ; however, in a given interaction point, it grows ∝ k. NON CAPITO TODO
$\Sigma_{\ell}/2\Sigma_{T}$, e implica che se il bunch è più lungo (e stretto) si perde luminosità, altro pro di bunch stretti sono miglior definizione di punto di interazione a scapito di molti eventi sovrapposti nello stesso cross. LHC ha $\theta \sim 0.3 mrad$ e $f\sim 0.8$
Effetto di $\theta$ su $\sqrt{s}$ e $p_T$. Nel sistema LAB si ha $p^\mu \sim(2E,0,-E\alpha,0)$, diverso da CM (2E,0,0,0), si ha $\sqrt{s} \sim 2E(1-\theta^2/8) \Rightarrow $ differenza rispetto a fronte di qualcosa come $10^{-7} TeV$ e $|p_T| \sim E\alpha \sim 2 GeV$ rispetto allo 0 del CM, entrambi trascurabili $\Rightarrow$ a LHC LAB$\approx$CM.
Si basa sull'analogia di una pallina che rotola lungo una grondaia inclinata. Due forze in gioco, la gravità lungo z che dà l'accelerazione netta e le forze ortogonali a z che dipendono dalla forma locale della grondaia. Per approssimazione la seconda consideriamola elastica, cioè $F_{x}\propto x$. In questa analogia, usando $\epsilon$ e $\beta$, $x = \sqrt{\epsilon \beta} sen(z/\beta + \phi)$ e $x' = \partial x/\partial z = \sqrt{\epsilon/\beta} cos(z/\beta + \phi)$, con $\phi$ la fase. Si può quindi definire un'ellisse dalla relazione $cos^2\theta+sen^2\theta =1$, $(x\sqrt{\epsilon \beta})+(x'/\sqrt{\epsilon/\beta})^2=1$, di area
$\pi \sqrt{\epsilon \beta} \sqrt{\epsilon / \beta} = \pi \epsilon$
, e $\beta$ che è il rapporto tra i semiassi x e x'. Le oscillazioni quindi avranno un'ampiezza $\sqrt{\epsilon \beta}$ e un periodo $2\pi\beta$
Considerando un fluido ideale di palline sulla grondaia, per il teorema di Liouville il volume dell'ellisse (trasposto dall'analogia al caso reale l'ipervolume dell'ellissoide nello spazio delle fasi) rimane costante. Quindi $\beta$ può cambiare da punto a punto, nel modello cambiando la forma della grondaia, ottenendo una minor dispersione spaziale in favore di quella angolare e viceversa. Al contrario $\epsilon$, che misura la qualità del fascio, in assenza di forze non conservative è lasciato costante quando $\beta$ varia; mentre una forza conservativa aumenta $\epsilon$ degradando il fascio.
Molti effetti deteriorano la luminosità durante una presa dati lunga. Le variazioni nel tempo si parametriccano come $dL/dt = -L/\tau_i$, dove le i sono i vari fenomeni: collisioni $\tau \sim 29 h$ a LHC, aumento di emittanza 80h, gas residuo 100h e molti altri effetti minori. Integrando si ha quindi un decadimento esponenziale della L in funzione del tempo $L(t) = L_{max}e^{-t/\tau}$, con $1/\tau = \sum_j 1/\tau_j \sim 15h$. Integrando per una presa dati in un tempo T si ha la luminosità integrata $\mathcal{L}(T)=\int_0^T L(t)dt \sim L_{max}\tau(1-e^{-\frac{T}{\tau}})$ e il numero di eventi sarà $N_{tot/x}(T) = \mathcal{L}(T)\sigma_{tot/x}$.
Dopo un certo tempo quindi si dumpa il fascio e si fa una nuova iniezione e accelerazione, per esempio quando la luminosità è scesa del 50% rispetto al massimo. La decisione è importante, nei ppbar sopratutto per la scarsità dei pbar.
La rapidità $\phi := tanh^{-1}(v/c)$ è una grandezza introdotta da Minkowski in relatività ristretta per avere una grandezza additiva che relazionasse due sistemi di riferimento a diverse velocità (considerando un boost di lorentz come una rotazione iperbolica delle coordiante spaziotemporali); a basse velocità si riduce a v/c. In fisica delle particelle viene usata una variabile simile $y$, chiamata anch'essa rapidità o y di Feynmann (non ha nulla a che fare con l'inelasticità y), per il moto di particelle con $m\neq 0$ rispetto a un asse z (quello del fascio):
$$y = \frac{1}{2} log\frac{E+p_z}{E-p_z}$$Altre variabili utili sono la x di Feynmann, cioè il momento longitudinale per unità di energia; la massa o energia trasversa cioè la formula relativistica dell'energia con il momento trasverso invece di quello totale.
NB chiamiamo $p_{||} = p_z$ momento longitudinale perché lungo il fascio, $p_T = p_x^2+p_y^2$ momento trasverso
Una grandezza importante è la pseudorapidità $\eta := -log(tan\frac{\theta}{2})$, con $\theta$ l'angolo polare. Rappresenta una misura dell'angolo polare con 0 a $\pi/2$ e che aumenta asintoticamente per $\theta \rightarrow 0$ (positivamente) e $\theta \rightarrow \pi$ (negativamente)
Il motivo per cui le interazioni adronihe sono spesso analizzate in termini di $\eta$ e $y$ è perché le variabili angolari dipendono ognuna dall'altra: trasformazioni jacobiane relazionano ogni distribuzione. Invece y risulta più semplice, sopratutto nei plot che produce. Dal punto di vista alla Feynman a alti pT l'interazione reale avviene a livello partonico, e benché il valore delle quantità di moto dei partoni varia a ogni evento, sono in prima approssimazione sempre lungo z, quindi y è una buona variabile dato che dipende solo da E e la componente z di $p$. Dal punto di vista di Rutherford, nel centro di massa partonico, lo scattering è dominato da processi di canale t, cioè i processi dominanti non risultano essere piatti in y ma dipendenti da $t^{-2}$. Dato che la sezione d'urto risulta da una mistura di processi, con molte dipendenze da t diverse, e indistinguibili singolarmente, la rapidità e la pseudorapidità, che espandono la scala per $\theta \approx 0$ è buona cosa dato che la distribuzione di eventi in y a piccoli angoli e quindi bassi pT è piatta e comoda per calcoli veloci di bg così si possono distinguere meglio quelle dipendenze da quelle di interesse? perché è bello che sia piatta? perché la puoi eliminare? non capisco TODO rivedere quando dominano canali t e quando dominano canali s, per esempio se produzione single top in adro e lepto colliders è dominata da s o da t. Quindi il punto di vista di Feynman è ad alto pT, quello di Rutherford è a basso pT.
A sua volta, $\eta$ è usata quasi sempre al posto di y, perché, benché y ha proprietà fisiche importanti, è difficile da misurare dato che coinvolge piccole differenza tra due grandi quantità: E e p_z. Invece $\eta$ è fondametnalmente un angolo quindi semplice da misurare. E poi dato che si lavora sempre in approssimazione ultrarelativistica, attribuire a $\eta$ le proprietà di $y$ è in buona approssimazione corretta.
$\sqrt{s} = E_{CM} = E_{e^+} + E_{e^-} = 2E$
Bassa energia: $\sqrt{s} = E_{\gamma*} << m_Z$. Il processo più rilevante è l'annichilazione degli e+e- in un fotone virtuale.
Se $\sqrt{s} \lesssim m_Z$ potrebbe essere formato un Z (più probabilmente virtuale); se $\sqrt{s} \approx m_Z$ il processo di e+e- in un Z reale risuona e diventa dominante.
Lo stato iniziale è: carica elettrica (leptonica e tutte altre cariche additive) nulla, spin intero, la cinematica sarà
Alcuni processi QED possibili (con e+e- in stato iniziale e ove presente, scambio di fotoni solo virtuali), all'ordine più basso sono:
Il 5 è simile al 4 a livello partonico (sempre di due fermioni carichi in due fermioni carichi stiamo parlando, anche se bisogna tener conto sia della diversa carica Q, sia della presenza del colore per i q), ma è più complicato ricostruire lo stato finale, dato che quark liberi non esistono in natura: i quark adronizzano molto velocemente e producono jet collimati di adroni (sottintendendo che gli adroni sono singoletti di colore e colori liberi non possono esistere). L'unica differenza è il top che decade prima di poter adronizzare.
Poniamoci, sempre in regime bassa energia, in approssimazione ultrarel $\sqrt{s} >> m_e, m_\mu, m_q < m_Z \Rightarrow p \simeq E = \sqrt{s}/2$. Stato iniziale:
Stato finale:
La sezione d'urto in $\mu^+\mu^-$ sarà: $\sigma_{\mu\mu} = 4\pi\alpha^2/3s$. Nel caso dei quark a questo valore va moltiplicato il numero di colori (3) e il quadrato della carica del quark considerato, che può essere $2/3$ (uptype uct) o $-1/3$ (downtype dsb): $\sigma_{q\bar{q}} = \sigma_{\mu\mu}c Q^2$. Ricordando che nei collider $\sqrt{s} = 2E$, le sezioni d'urto saranno quindi:
Definendo un rapporto tra sez urto produzione qqbar e sez urto produzione mu+mu- si semplifica $\sigma_{\mu\mu}$ e rimane $R(\sqrt{s}) = 3\cdot \sum_i Q^2_i$, sommato su tutti i quark che possono essere prodotti a quella energia, cioè tali che $2m_q < \sqrt{s}$. Semplificando quindi il rate sarà una funzione a gradini, di cui ogni gradino è nell'intervallo $\sqrt{s} \in [0, 2m_c];[2m_c, 2m_b];[2m_b;2m_t]$ in cui sono "sbloccati" rispettivamente i quark uds, poi c, poi b. L'ultimo intervallo in realtà si blocca a m_Z dato che $m_Z<<2m_t$ e siamo in limite di basse energie. In realtà le transizioni non sono così nette: l'indeterminazione in E data dallo spazio delle fasi arrotonda i gradini; le risonanze sono formate a $\sqrt{s}\approx 2m_q$ "oscurando il punto del gradino e i loro modi di decadimento modificano il Rate TODO PRIMA, DOPO O ENTRAMBI? SE ENTRAMBI QUALE LATO DI PIÙ?. Come già detto, a $\sqrt{s}\approx m_Z$ e poi $\approx 2m_W$ TODO PERCHÉ 2m_W e non m_W? COSA CAMBIA? l'interazione debole cambia totalmente lo scenario, per $\sqrt{s}\geq 50 GeV$ R ha un significato diverso, dato che benché non possano essere prodotti Z reali, le interazioni deboli con scambi di W e Z virtuali diventano significative.
NB $m_Z = 91 GeV$, $m_W = 80 GeV$
In un grafico $R(\sqrt{s})$ da 200 MeV a 200 GeV quindi ci saranno all'inizio le risonanze u-d ($\rho$ e $\omega$, $m\sim 0.8 GeV$) e ssbar ($\phi$, $m \sim 1 GeV$), poi a $2m_c$ c'è il primo gradino, in corrispondenza della risonanza ccbar (in realtà poco dopo il livello 2S della $j/\Psi$, $m \approx 4 GeV$) (con i vari altri livelli energetici poi), altro step a $2m_b$ ($\Upsilon$, $m \approx 9.5 GeV$) TODO FARE CONFRONTO LARGHEZZA DECAY E TEMPO VITA MEDIO DI B E JPSI, CONRONTO e infine un lento aumento approssimandosi a $\sqrt{s} > 50 GeV$ approssimandosi alla risonanza del Z a 90 GeV che cade fin oltre i 200.
Da quello che ho capito dai grafici, il fattore moltiplicativo 3 dei colori porta a un incremento di R rispetto al modello a quark "statico", cosa confermata dagli esperimenti.
Lo scattering e+e- in e+e- è diverso perché ha due diagrammi: un canale s analogo al processo in mu+mu-, un canale t e le interferenze tra i due. La distribuzione angolare riflette queste differenze. In questi casi i due diagrammi non possono essere distinti osservando un singolo evento, ma diverse regioni dello spazio dei parametri dello stato finale sono dominate da uno dei due (eg $\sqrt{s}$). Nelle regioni a dominanza s si parla dia fisica "canale s", per esempio formazione di risonanze; in quelle a dominanza t la fisica "canale t" ha per esempio lo scattering BhaBha, a basso $\theta$ (cioè Rutherford-like), elastico.
TODO non ho ancora ben capito perché si chiamano risonanze
Le collisioni adroniche hanno caratteristiche dinamiche e cinematiche comuni a tutti i colliders, differenti da quelle e+e-. Prima di tutto a ifferenza dei colliders leptonici dove si vedono solo interazioni tra particelle puntiformi dominate dai canali s, gli adroni sono compositi, quindi a basso $p_T$ si ha scattering coerente pp(bar), mentre a alto $p_T$ si ha scattering qq(bar)+q(bar)g+gg, dominato dal canale t dello scattering gg. In spps e LHC si è andati aumentando $p_T$ e diminuendo le sezioni d'urto dei fenomeni d'interesse ricercati: dalla sezione d'urto totale si cercano prima nel regime basso $p_T$, poi alto $p_T$ adronico e poi elettrodebole (sezioni d'urto più basse). Invece in lep si è andati semplicemente aumentando l'energia del fascio studiando prima la fisica EW dal Z-pole TODO Z pole sarebbe la risonanza di Z?, poi la creazione di coppie diboson sia WW che ZZ?TODO, limiti sul top e sull'Higgs.
La dinamica è invariante sotto boost di Lorentz, quindi il processo dipende soltanto dal moto relativo tra le particelle, quindi da questo punto di vista esperimenti fixed e colliders sono equivalenti. Però le regioni cinematiche esplorare, e gli esperimenti stessi, sono molto diversi. Differenze:
Una carica accelerata emette radiazione secondo la formula di larmor. In un giro completo un elettrone emetterà energia pari a $\sim 10^{-4} (E_e/1GeV)^4/(R/1km) MeV$, un protone invece $\sim 10^{-2} (E_p/1TeV)^4/(R/1km) KeV$, questo porta a LEP ad avere dai 121 MeV ai 2.5 GeV a giro tra $\sqrt{s}$ 90 e 200, mentre a LHC con 14 TeV si hanno solo 7KeV a giro. Il miglior raggio per i colliders e+e- aumenta con s, cioè con il quadrato dell'energia! Per questo è impraticabile ormai fare anelli e+e- e si pensa di puntare su colliders mu+mu- (molta più massa quindi molto meno brem, quindi accelerazione a energie molto più alte a parità di raggio) e colliders lineari e+e-
Lo scattering elettromagnetico è un caso molto particolare con un potenziale derivato da una teoria ben nota e testata, un modello basato su simmetrie e la costante di accoppiamento adimensionale $\alpha<<1$ (quindi approccio perturbativo molto buono). Il caso delle interazioni nucleari è più complesso: non c'è un analogo classico, l'Hamiltoniana di interazione era sconosciuta, e l'accoppiamento è molto più largo che in EM, quindi l'approccio perturbativo non sempre da risultati affidabili. Ma molte informazioni sperimentali vengono da reazioni nucleari e sopratutto dallo scattering. Il caso più semplice è quello di due particelle di massa $m_1$ e $m_2$ entrambe con spin = 0, in approssimazione non relativistica che collidono tramite un potenziale che dipende solo dalla loro posizione relativa $\Rightarrow V(x,y,z)\equiv V(\vec{r})$. Le particelle sono osservate lontano dalla regione di collisione, cioè quando $V\approx 0$. Dato che il potenzile dipende solo da $\vec{r}_{1,2}$, lo scattering in framework di prima quantizzazione segue una equazione di Schrodinger del sistema si divide in due parti, una del moto del CM con funzione d'onda $\Psi_{CM}(\vec{R})$ che si comporta come una particella libera con massa M e energia $E_R$, una con funzione d'onda $\Psi(\vec{r})$ che si comporta come una particella di massa ridotta e energia $E_r$ sottosposta al potenziale.
Il metodo standard per calcolare la sezione d'urto totale nei collider adronici usa il teorema ottico, che dice che $\sigma_{tot} \propto$ alla parte immaginaria dell'ampiezza di scattering elastico in avanti, cioè con angolo di scattering $\theta = 0$. Scrivendo la sezione d'urto differenziale per lo scattering elastico $d\sigma_{el}/d\Omega = d^\sigma_{el}/ d\varphi dcos\theta = |f_{el}(\theta)|^2$, noi la vogliamo esprimere in termini di variabili di Mandelstam, quindi costituendo $t = -s(1-cos\theta)/2$ e integrando su $\varphi$, si avrà $d\sigma_{el}/dt = 4\pi/s \cdot |f_{el}(s,t)|^2$. Usando il teorema ottico si avrà $\sigma_tot = 4\pi/k \cdot Im[f_{el}(\theta = 0)] = 4\pi/k \cdot Im[f_{el}(t = 0, s)]$, dove k è il vettore d'onda della funzione d'onda dello stato finale? TODO Scrivendo $\rho := Re[f_{el}(t = 0, s)]/Im[f_{el}(t = 0, s)]$, allora $|f_{el}(t = 0, s)|^2 = |Re[f_{el}(t = 0, s)]|^2+|Im[f_{el}(t = 0, s)]|^2 = (\sigma_{tot}\sqrt{s}/8\pi)^2(1+\rho^2)$. Sostituendo nella formula di $d\sigma_{el}/dt$ e usando $R_i = L \sigma_i \Rightarrow \sigma_i^2 = R_i\sigma_i/L$ si ha la formula della sezione d'urto totale
$$\sigma_{tot} = \frac{16\pi(\hbar c)^2)}{1+\rho^2}\cdot \frac{1}{R_{tot}}\frac{dR(t=0)_{el}}{dt}|$$TODO da scrivere a mano questo calcolo!!
Tranne $\rho$ è tutto direttamente misurabile. I due rates tramite i numeri di eventi totali e elastici, integrati sullo stesso intervallo temporale (sufficientemente lungo) danno piccoli errori statistici, mentre gli errori sistematici sono dovuti a tempo morto, errori nella presa dei dati e altro che abbassano i rates; la derivata in t mandelstam del rate elastico (in t= 0) la si estrapola plottando rate elastico vs t, cercando di misurare più vicino possibile a t = 0 e estrapolando la curva per t che tende a 0 (R(t=0) non è misurabile), il plot necessita particelle dello stato iniziale con pT ben noto, pertanto sarebbe preferibile un beta non troppo basso, anche a discapito di L; $\rho$ viene calcolato da principi primi, ma non è tanto importante perché risulta essere piccolo ($\sim 0.14$ a LHC) quindi l'errore relativo sulle sez urto $\Delta\sigma \approx 2\rho\Delta\rho \leq 1\%$, quindi benché poco precisamente capito e conosciuto non inficia i risultati.
Vedi MQR
Si basa sul fatto che si ha un limite all'aumentare della sezione d'urto per una qualsiasi coppia di particelle $ab$ collidenti quando $\sqrt{s}$ aumenta: $\lim_{s\rightarrow \infty} \leq cost \cdot log^2s$. Cioè a energie sufficientemente alte la sezione d'urto totale non può aumentare più velocemente del logaritmo quadro di s. Un altro limite, che viene da un teorema di teoria dei campi è che $\lim_{s\rightarrow \infty}(\sigma_{ab}/\sigma_{\bar{a}b \;o\;a\bar{b}}) = 1$. Cioè a alte energie la sezione d'urto tra due particelle è la stessa che se una delle due è la relativa antiparticella. Dal punto di vista di $\eta$ questo si traduce nel fatto che i caratteristici plateaus attorno al valore 0 della distrubzione di particelle cariche accennate nel paragrafo prima, aumenta lentamente con l'aumentre di $\sqrt{s}$. Si ha infatti che $y_{max} \propto logs$, e che il rettangolo approssimato sotteso al plato ha area corrispondente alla sez urto totale: $\sigma_{tot} = \int_{-y_{max}}^{y_{max}}(d\sigma/dy)dy \propto (d\sigma/dy)\cdot logs$. Cioè se il plato cresce come logs, allora la sez urto totale cresce come log quadro di s. Cioè sia l'altezza che la larghezza del rettangolo del plato crescono con logs. La cosa fenomenologica che $d\sigma/dy\propto ln s$, e che sia così per tutti gli stati iniziali è la vera domanda da spiegare. In sintesi la risposta è all'interno dell'interazione a molti corpi che avviene quando collidono due particelle composite come protoni e/o antiprotoni, all'interno della QCD (in larga parte non perturbativa). Forse formalizzato da Feynman in un fenomeno di scaling.
Differenze tra collider leptonici ee e adronici pp:
in ee l'energia "partonica" $\sqrt{s}$ è fissata dalla macchina e conosciuta precisamente (non c'è differenza tra $\hat{s}$ e $s$), ma $\sqrt{s}$ è fortemente limitata dal bremsstrahlung; in pp l'energia partonica $\sqrt{\hat{s}}$ cambia di evento in evento più di un ordine di grandezza. Questo implica che l'energia "vera" per pp è molto più bassa di $\sqrt{s}$
in ee i fit cinematici sono in 4D e si ottengono limiti fino a 10^{-5}; in pp sono in 2D a causa degli spettatori di cui non puoi determinare quando p longitundinale si portano via, e i limiti sono a livello del %
in ee si ha una piccola sez urto tot, attorno al pb e $\propto 1/s$ (lontano dal polo, cioè dalla risonanza di Z), quindi ci sono pochi eventi, con un rate di circa 1 Hz, tutti interessanti, quindi il trigger è basato sulla selezione di eventi; in pp la sez urto tot è molto maggiore, attorno al mb ed è dello stesso ordine di grandezza lungo 10 decadi in $\sqrt{s}$, ma è dominata da processi a basso $Q^2$, principalmente canali t (cioè scattering Rutherford), quindi si hanno molti eventi, con un rate di circa 1 GHz e molti pochi tra essi interessanti, quindi i trigger sono basati su tagli ad alto pT.
Per esempio a LEP2, con $\sqrt{s} = 200 GeV$, $\sigma(e+e- in adroni) \sim 100 pb$; a LHC con $\sqrt{s} = 14 TeV$, $\sigma_{tot} \sim 100 mb$, mentre $\sigma(pp in jet+X)$, con un jet avente $E_T > 250 GeV$, è $\sim 100 nb$. Si ha quindi un rapporto tra le tre sez urto di $\sim 1:10^9:10^3$, cioè i nucleoni coerenti sono un miliardo di volte più "larghi" degli elettroni, invece i suoi partoni individuali lo sono solo mille volte circa (il valore effettivo dipende da $Q^2$). Questo fattore 1000 è dovuto principalmente al fatto che la costante di accoppiamento dell'interazione forte $\alpha_s$ in QCD è molto più grande di quella dell'interazione EM in QED $\alpha$ (costante di struttura fine).
$dL_i/d\hat{s}$: integrata per intervalli di $\hat{s}$ è piccola; diminuisce per per $\hat{s} \rightarrow s$ a causa delle PDF, dato che se hats tende a s significa che le due x tendono a 1, quindi sono processi a basso pT quindi a basso Q^2 e le PDF avvicinandosi a 1 vanno a zero dato che si perde l'adrone come particella composita e diventa unica, quindi la luminosità partonica deve per forza andare a 0.
Un adrone è un piccolo pacchetto di molti diversi partoni tra valenza, mare e gluoni. Quindi con un solo stato iniziale adronico pp, puoi avere molti stati iniziali partonici compresi nel pacchetto. A causa di questo però, l'analisi è molto più difficile
Per esempio s in LEP non è troppo dissimile da $\hat{s}$ in SppS e LHC, per esempio sia SppS come obiettivo avevano lo studio di W e Z
Differenze tra pp e ppbar:
Pertanto, a dispetto dei grandi successi ottenuti in passato da macchine ppbar sia a CERN che a Fermilab, la richiesta di energie più alte e conseguentemente luminosità più alte fa di pp un'opzione decisamente superiore.
TODO in pratica aumentando l'energia si aumenta la sezione d'urto, ma si aumenta sopratutto la parte poco interessante, non è un cane che si morde la coda? la sezione d'urto dei processi interessanti ho capito bene diminuisce? o aumenta anche se di poco?
Abbiamo visto che colliders a ppbar e e+e- hanno alcune similarità: un canale magnetico e collisioni headon. I ppbar hanno il pro dell'assenza di brem, quindi si può accelerare a molti più GeV (a SppS fino a 450 GeV, a LHC fino a 14 TeV, per LEP, stesso anello ma con e+e-, massimo un centinaio di GeV). Ma hanno il contro della struttura composta, cioè perdita di una fattore (1-x) del quadrimomento del fascio, una energia effettiva nel centro di massa del partone interagente $\sqrt{\hat{s}} = \sqrt{sx_1x_2}$. E anche il contro che gli pbar vanno fabbricati con lunghi tempi e costi.
Nei ppbar i protoni vengono preaccelerati e poi iniettati nel main ring dove vengono accelerati a una energia di circa 100 GeV, da questa energia vengono estratti e mandati su un bersaglio per produrre collisioni ad alta intensità, i pbar prodotti vendono accumulati in un apposito anello (a bassa energia per ridurre le interazioni immagino). Dopo ore o giorni si hanno abbastanza pbar per poterli iniettare nel main ring. Lì ci sarà l'accelerazione finale e la collisione.
La parte di selezione e conservazione dei pbar è difficile. La selezione fa uso di un disegno modificato dei corni di Van der Meer (praticamente capovolto) e dell'anello accumulatore, dove i pbar vengono raccolti, raffreddati e conservati per qualche giorno.
La produzione di pbar veniva fatta con collisioni di $10^13$ protoni a 26GeV su un bersaglio di tungsteno ($_74W$) ogni 2.4 secondi. Il rate di produzione di pbar era nell'ordine di 1 su 1mln di p. L'accumulazione veniva fatta a energie del fascio di pbar di 3.5 GeV, scelta perché il miglior valore per la sezione d'urto di produzione di ppbar e la migliore accettanza per i corni.
Il target era una barra di tungsteno lunga 11cm, più precisamente una riga di 11 barrette lunghe 1cm e di diametro 3mm. La barra era inserita in grafite e posizionata in un involucro esterno di acciaio inossidabile, con alette per il raffreddamento ad aria compressa.
Il problema più difficile è "raffreddare" i pbar. Il termine cooling è usato in analogia con la teoria cinetica dei gas. Temperature maggiori significano più alte velocità quadratiche medie, quindi raffreddre un gas significa ridurre le velocità relative tra le particelle.
Una particella che circola nell'anello non compie un'orbita circolare ma oscilla attorno alla traiettoria ideale (betatron oscillations). Un elettrodo posto in un punto dell'anello, detto di pickup, rivela la posizione rispetto all'orbita nominale. Il valore propriamente amplificato viene mandato a un "kicker", posizionato a un certo numero (n/2+1/4) di lunghezze d'onda, che corregge l'orbita. Lo spostamento spazile produce una correzione di angolo. In realtà pickup e kicker non vengono attraversati da una particella per volta, ma da un numero grande e incoerente di particelle allo stesso tempo, ma se il loro spostamento medio non è zero, loro ottengono una correzione e diventano più vicine alla orbita ideale.
Per il teorema di Liouville la funzione di distribuzone nello spazio delle fasi è costante lungo le traiettorie del sistema, cioè il volume nello spazio delle fasi è costante. Fondamentale nell'ottica di fascio, cioè nella forte focalizzazione del fascio mediante i quadrupoli. MA, il raffreddamento dei pbar in uno spazio delle fasi ridotto sembra confliggere con il teorema: uno squeeze in momento trasverso deve risultare in un aumento in dimensioni spaziali! In realtà però il raffreddamento è stocastico. Cioè il sistema non è uniforme nello spazio delle fasi, ma ci sono spazi vuoti tra una particella e l'altra. Il raffreddamento quindi consiste nel spingere le particelle assieme levando gli spazi vuoti. La densità in piccola scala nello spazio delle fasi è conservata, ma in senso macroscopico la densità delle particelle aumenta. Cioè modificare la traiettoria individuale di una particella agisce su un piccolo pacchetto, piccolo abbastanza in modo che la sua traiettoria media è sensibilmente differente dalla orbita ideale. Cioè lo spazio delle fasi accessibile a ogni singola particella rimane sempre lo stesso, si modifica solo lo spazio inaccessibile tra una e l'altra.
Il processo di accumulazione e raffreddamento procede come segue:
Nel 1983 ci furono buone performances che poi comunque migliorarono, ma quell'anno vennero scoperti W e Z
Energia a circa 550GeV che poi l'anno dopo andò a 630. La luminosità di circa $10^29 cm^{-2} s^{-1}$. Con una lumi integr di circa $150nb^{-1}$, quindi 8 miliardi di eventi ppbar, si ebbero un centinaio di eventi di W e 16 di Z (90/12 con decadimento leptonico in e+neutrino, 14/4 in UA1 soltanto in mu+neutrino) Da notare che negli ultimi anni riuscirono a decuplicare la luminosità nonostante avessero tolto 40mld di particelle dal bunch di protoni, avendone aggiunti solo 20 di antiprotoni il primo anno (poi ne aggiunsero altri)
Al tempo non era ben stabilito il quark parton model. La firma attesa dalla teoria era la caratteristica a jets degli eventi adronici. Se valgono qp model e QCD, ci si aspetta un cambiamento in funzione di $Q^2$: a bassi $Q^2$ collisioni coerenti tra p e pbar e quindi adroni dello stato finale distribuiti sfericamente, a alti $Q^2$ collisioni partone-partone e quindi due jet (relativamente) sottili. Se invece non valessero, allora ci si aspetterebbero eventi di qualsiasi tipo, ma in media con distribuzione sferica (a quanto pare si suppone distr probabilità eventi comunque isotropa), a qualsiasi $Q^2$.
Al tempo la difficoltà sperimentale era dimostrare che i jets non fossero un bias dal trigger (cioè vedevano i jet perché erano programmati per riconoscerli ma in realtà non esistevano). Per esempio bisognava separare bene dinamica da cinematica, dato che conservazione della quantità di moto, in un singolo evento, può simulare un aspetto a jet. Inoltre bisognava provare che un numero significativo (la maggioranza?) di eventi a alto $Q^2$ erano a forma di jet.
La soluzione a questo problema è stata:
Da notare, in eventi con 1 jet, ad alti $Q^2$ il momento trasverso del jet è circa $\sqrt{Q^2}$, in eventi dijet con eta compresi in +-0.85 $m(j+j) = \sqrt{s}$ A pag 16 cap 9a c'è uno scarto tra i dati e le previsioni QCD del tempo, non capisco perché. Calcoli NLO-NNLO non fatti?
Definiamo la varibile angolare a parton level $\chi = \hat{u}\hat{t} = 1+cos\theta*/1-cos\theta* $ ($\chi$ larghi corrispondono a $\theta*$ piccoli). Se la sezione d'urto differenziale è esattamente alla Rutherford $d\sigma /d cos\theta* \propto 1/\hat{t}^2 \propto 1/(1-cos\theta*)^2$ e allora la distribuzione di $\chi$ è piata TODO calcolo su carta PAG 17 CAP 9A. I dati mostrano questo comportamento, stabilendo un buon accordo con il modello parton-QCD
in realtà l'accordo non è perfetto, per esempio chi grandi implicano angoli piccoli che implicano momento trasferito piccolo che porta a un $\alpha_s$ grande e quindi sezioni d'urto nei dati maggiori di quelle attese
**TODO non ho capito perché si studiano angoli piccolo a parton level
Nato come processo QED di annichilazione qqbar mediato da fotone virtuale e sintesi di due leptoni. La sezione d'urto dipende dalle masse dei quark, dalle loro x e dalle loro PDF. TODO scrivere su carta la formula CAP 9 PAG 18
Per estensione, DY ora viene usato in generale per ogni processo qqbar che va in due leptoni, o più in generale in una qualsiasi coppia fermione + antifemione, mediato da un qualsiasi bosone vettore EW (eg d + ubar in W- in l- e corrispondente antineutrino oppure uubar in Z in l+l-).
DY è calcolabile nello schema quark parton; quando il fotone è sostituito da una altro bosone vettore a livello partonico, invece della sezione d'urto QED va usata l'appropriata sez urto EW
Consideriamo solo quark di valenza per semplicità e il processo di produzione ubar+d/u+dbar in W-+ in e-+ + $\bar{\nu}_e$/$\nu_e$.
I modi di decadimento adorni sono dominanti ma indistinguibili a SppS, eccetto un tentativo da UA2 TODO EH?!!?
Il momento trasverso del W è molto minore di quello longitudinale: quando viene prodotto rimane sulla retta di interazione TODO WAT MA COME, poi il decadimento ha alto momento trasverso. La selezione dell'evento è basata su (qui caso elettronico ma caso muonico è simile):
L'analisi invece consiste nel selezionare un campione di decadimenti di W puliti e correlare la mT con la mW attraverso simulazioni. **TODO CALCOLI DI ANALISI SU CARTA PG 21 CAP 9A
La selezione viene fatta con il metodo del picco jacobiano, cioè dato che la sezione d'urto alias gli eventi in funzione di $cos\theta*$, dove * indica il sistema di riferimento del bosone W, segue un'iperbole, la si scrive in funzione di pT del leptone, ottenendo un jacobiano che produce un picco netto a pT dell'elettrone di circa mW/2, modulato dalla larghezza del W intrinseca e da quella imputabile al detector. TODO come il detector aumenti la larghezza del picco dipende da come è fatto, invece la larghezza intrinseca dipende dal principio di indeterminazione: energia e tempo sono variabili coniugate
La misura della massa al tempo fu di circa 80 GeV e della larghezza sotto i 6 GeV. Ora m è circa 80.4 GeV e $\Gamma$ circa 2.1 GeV.
Assumiamo che il processo sia valenza-valenza. Il largo valore della massa di W rende le altre masse in gioco trascurabili. Pertanto eccetto W$^\pm$ tutte le particelle hanno elicità -ve e le antiparticelle +ve TODO che significa ve?. La struttura V-A delle correnti cariche elttrodeboli favorisce la collinearità (e-,p), (e+, pbar), cioè $cos\theta\approx 1$.
Come in molti processi simili $d\sigma/dcos\theta* \propto (1+cos\theta)^2$, quindi il processo è semplice ma un potente test della teoria.
Professore chiede se il processo distingue correnti V-A da correnti V+A, ma TODO imho v+a non sono possibili data la massa 0 e il fatto che la lagrangiana EW ha proiettori $(1-\gamma^5)$ e non il contrario.
Questo fenomeno di fatto era visibile solo a SppS, essendo un ppbar e a energie non troppo alte. Infatti, poniamo $m^2_W = s x_1 x_2$, con l'aumentare di $\sqrt{s}$ il valore medio di x1 e x2 diminuisce e quindi la frazione valenza-valenza diminuisce in favore di mare (e gluoni). L'apporto di W+ è più abbondante, specialmente a grandi x, dove i quark di valenza sono dominanti.
In più in un pp non hai l'antiquark di valenza a disposizione nello stato iniziale per poter avere facilmente un annichilazione qqbar. Quindi la simmetria dello stato iniziale rimuove completamente l'asimmetria W+ W-.
A LHC però le energie più alte permettono sezioni d'urto più alte e quindi misure di larghezza e massa più precise.
Un metodo per poter misurare, anche se con effetti ridotti questo fenomeno è selezionare eventi a basso pT di W+- (cioè qqbar in W+-) confrontandoli con quelli a alto pT (q(bar)g in W+- e jet).
effetto si vede anche in decadimenti di top? cosa ha a che fare con fwbw asimmetry? TODO
Il canale di produzione è uubar o ddbar in Z in l+l-. Sia selezione che analisi è più facile che nel caso di W, a dispetto della sez urto più bassa. Richiede due leptoni di stessa famiglia e carica opposita, non c'è MET. Il bg è quasi totalmente assente, al più misid o fake e-mu.
Si calcola la massa m(l+l-) $\approx \sqrt{2E_+E_-(1-cos\theta)} = 2\sqrt(E_+E_-)sin(\theta/2)$
Poi per calcolare la larghezza i usano le der parziali di m: $\partial m$ in $\partial E_+$, $\partial E_-$ $\partial \theta$ TODO da scrivere i calcoli, pg 26 cap 9a. Ponendo $E_+\approx E_-,\; \theta \approx 180° \Rightarrow \Delta m /m \approx 1/\sqrt{2}\cdot \Delta E/E \Rightarrow \sqrt{2} \Delta E$ e quindi si ha per Z che $\Delta m_exp \approx \Gamma_{TOT}$ che è tipicamente di circa 2 GeV per un singolo evento.
I risultati furono di circa 92 GeV di massa e 3 di larghezza, ora sono di 91.2 GeV di massa e 2.5 di larghezza.
Dalle scoperte di SppS si aprirono studio su mW/mZ, su $sin\theta_W$, ma sopratutto test dello SM, predizioni dello SM come la massa del top o dell'higgs e eventuali misure di precisione per verificare beyond sm, ma a lep fondamentalmente.
A SppS si studiarono decadimenti non leptonici ma adronici, ma il background di dijet da QCD era troppo alto, unico tentativo fu fatto da UA2 con scarsi risultati ma fu il primo tentativo di fare spettroscopia da jet.
Check del qp model con W e Z sono stati fatti verificando la distribuzione della $x = 2 |p_\ell|/\sqrt{s}$, stessa variabile delle funzioni di struttura nel qp model, che è ben predetta sia per W che Z (cioè studiavano se W e Z avevano sottostruttura?). I plot eventi vs x mostrano un andamento simil gaussiano sembra in accordo con predizioni. Altro studio è stata la distribuzione di pT. In qp model non è predetto, è circa 0, ma ci si aspetta che pT sia piccolo, benché affetto pesantemente dalla misura fatta dal detector (quindi la predizione è un mix di teoria e esperimento). Pure discreto accordo.
Uno dei vantaggi maggiori di e+e- è la chiarezza delle condizioni sperimentali, è la macchina corretta per fare alta precisione.
A LEP si studiano e+e- in e+e- per la luminosità, ma anche e+e- in altri leptoni, in adroni, in fotoni e anche in roba sconosciuta o energia mancante per bSM&exotics. L'analisi viene fatta studiando la sezione d'urto differenziale, e la lineshape, cioè sez urto in funzione di $\sqrt{s}$. Ai fini di studiare praticamente di tutto, ma in particolare a LEP studio di produzione, proprietà e decadimento di Z, delle correnti cariche e neutre EW.
A LEP come in ogni esperimento un numero di eventi osservati va tradotto in una sezione d'urto del segnale considerato, idem per la distribuzione in angolo solido. Tuttavia ci sono due problemi almeno: gli algoritmi di selezione e i trigger perdono eventi veri (efficienza mai 1) e prendono eventi falsi (falsi positivi, purezza mai 1), inoltre va misurata con precisione la L e la L integrata per poter trasformare un numero di eventi in una sezione d'urto. Quindi un esperimento deve misurare oltre al numero di eventi N, anche la sezione d'urto degli eventi di bg, l'efficienza di selezione del segnale e del bg, errori statistici (su N) e errori sistematici (sulle efficienze), e la luminosità integrata. Quindi si ottiene $\sigma_s = (N/\mathscr{L} - \epsilon_b/sigma_b)/\epsilon_s$ e simile discordo per $d\sigma_s/d\Omega$ con $\Omega$ che di solito è $cos\theta$.TODO ancora non sono sicuro di saper giustificare perché non c'è una variabilità su phi, cioè perché gli eventi sono isotropi su phi
NB qui noi stiamo misurando la luminosità non con il rate di eventi, ma con il numero di eventi, quindi non è una lumi ma una luminosità integrata $\mathscr{L}$
La luminosità è la stessa sia per segnale ce per bg. LEP misura $\mathscr{L}$ da un preciso processo chiamato lumi con una sezione d'urto ben calcolabile, triggerato e acquisito in diretta con gli altri dati (così inefficienze del DAQ si annullano TODO PERCHÉ!?!?): $\mathscr{L} = N_{lumi} / (\epsilon\sigma+\epsilon_b\sigma_b)_{lumi}$. Però ora sono comparti tre nuovi errori che entrano in $\mathscr{L}$ e quindi in $\sigma_s$: quello statistico su $N_{lumi} = \sqrt{N_{lumi}}$, quello sistematico relativo all'incertezza sulle efficienze e sulla sezione d'urto del bg stimata, quello teorico relativo all'incertezza sull'effettiva sezione d'urto di lumi stimata.
Il processo usato per lumi è lo scattering bhabha, ben noto da QED: scatering elastico di canale t e+e- in e+e-. Il metodo consiste in:
Tipicamente a LEP gli angoli di lumi sono presi tra 25 e 60 mrad e si arriva a misure di lumi precise di circa il 2$\permil$ sistematico e trascurabile quello statistico.
Una stima dell'errore statistico viene dal paragone tra sezione d'urto e+e- in adroni a $\sqrt{s} = m_Z$ (circa 30 nb) e e+e- in e+e- tra 25 e 60 mrad (lumi, circa 100nb). La prima è la sezione d'urto più grande tra tutti i processi LEP, eccetto il lumi, che ne ha più del triplo! Quindi vengono raccolti una marea di eventi lumi quindi la sezione d'urto è assolutamente trascurabile.
il processo adronico alla risonanza di Z ha un errore statistico di but for the hadronic cross section at √s = m Z , where it is ~(3/10)^1⁄2 of the statistical error on the hadron data [but for this process the stat. error is irrelevant wrt systematics].TODO non ci ho capito niente
Le fonti principali di errore statistico sono l'incertezza sull'angolo dovuto al posizionamento e alle dimensioni precise del lumicalo, allineamenti vari, etc; un'altra parte viene da incertezze dalla teoria e dalla simulazione, e ordini più alti non considerati, come eg e+e- in e+e-+fotone non visto.
Alcune misure di LEP, come il numero di neutrini, asimmetrie, non dipendono dall'errore sulla $\mathscr{L}$, dato che possono essere espressi in rapporti $\sigma_1/\sigma_2 = N_1/ N_2$ tra due processi di qualche tipo, quindi eliminando l'errore sulle $\mathscr{L}$ dato che la $\mathscr{L}$ è uguale per tutti i processi.
L'energia persa lungo un'orbita da una particella carica dipende, oltre che dalla carica al quadrato, sopratutto dalla quarta potenza di $\gamma = ?$, inversamente proporzionale al raggio. Nel caso di LEP con un raggio medio di circa 4km diventa
$$ \Delta E^e_{orbit} \sim 10^{-4} [E(GeV)]^4 \cdot [R(Km)]^{-1} MeV $$Cioè con $\sqrt{s} = 200 GeV$ (quindi 100 GeV di E per ognuno dei due fasci) l'energia persa per brem è di 2 GeV ogni orbita. L'effetto non è deterministico ma random, la formula dà il valor medio. Un effetto da aggiungere è l'aumento dell'emittanza sia in spazio che in momento; questo effetto è più grande sul piano orizzontale, dove è attivo il piegamento magnetico TODO non ho ben capito la questione ma mi pare di capire che per questo il bunch he schiacciato e allungato orizzontalmente; immagino che vicino al crossing si focussi di più
Ponendo una luminosità di $2\cdot10^{31} cm^{-2} s^{-1}$ e $\sqrt{s}= m_Z$, allora la sezione d'urto totale di e+e- che vanno in Z sarà circa 40nb. Il rate di produzione di Z sarà quindi $R_Z = L \cdot \sigma_Z \sim = 1 Hz$. 60mila eventi al giorno, circa 10 milioni all'anno. MA la luminosità indicata è solitamente quella di picco, cioè i primi minuti dopo accelerazione e squeezing; questa però decade esponenzialmente per effetti stocastici, con magari qualche aggiustamento ottico che la ritira su. Di base la luminosità media effettiva è circa la metà del picco; a questo si aggiungono rotture, mantenimento, errori etc che diminuiscono ancora L. Alla fine l'efficienza globale è circa a 1/4. A questo va aggiunto che altri intervalli in cui la lum integr aumenta ben poco sono datataking a $\sqrt{s}$ < e >, fuori dalla risonanza $m_Z$, per misurare la "lineshape", dove la sez urto è molto più bassa.
Sintetizzando, a LEP1 si ebbero circa 4mln di eventi adronici, moltiplicando per i 4 esperimenti, in totale 15.5mln eventi adronici + relativi leptoni.
Quindi un trigger sul singolo crossing (se contiene un evento candidato) con efficienze ci circa 1/1000 e tempo morto trascurabile TODO capito poco pg 28 12b
I collider circolari leptonici e+e- hano un costo propto raggio, ma l'energia da fornire a ogni giro è propto E^4/R. Minimizzare i costi rispetto al raggio significa che R propto E^2 e quindi anche costi. Quelli lineari hanno costi e raggio propto E. Ciò implica che a circa 150-200 GeV, con le attuali tecnologie, i collider lineari diventano più convenienti rispetto a quelli circolari a parità di E (il primo ha andamento lineare, il secondo quadratico)
Già con il caso dei muoni il discorso è molto diverso: molto meno brem, ma costo per sintesi, cooling, e per compensare i decadimenti.
Esempio: e+e- in mu+mu-. Il segnale è rappresentato dagli eventi veri e il processo dipende dalla massa del Z, dalla larghezza del Z e del mu, assumendo che siano sonosciuti e da misurare. Il bg viene da altre sorgenti ma con uno stato finale simile, sia perché è davvero identico o perché così appare nei detector, per esempio decadimento in tau invece che in mu, ma con i tau che decadono in mu (la differenza nello stato finale sta nei neutrini, che difficilmente riesci a estrapolare), oppure e+e- che va in e+e- E in mu+mu-, ma che per qualche motivo i due elettroni non vengono rilevati perché a basso pt e rimangono nella camera del fascio quindi confusi con lumi. Alla fine si ottiene $N_{obs} = \mathscr{L}(\epsilon_s\sigma_s + \epsilon_b\sigma_b)$ dove Nobs è solo il campione selezionato e il vero risultato è quello di $\sigma_s$.
A LEP misura significa quindi: selezionare un campione di eventi di un certo tipo il più puro possibile, misurare il peso statistico del campione, cioè la $\mathscr{L}$ alla quale sono stati presi quesi dati, misurare o calcolare le associate efficienze e purezze, calcolare la sez urto sperimentale e tutte le sez urto differenziali d'interesse, e poi confrontarla con la sez urto calcolata dalla teoria.
Quando nel 1989 partì LEP il SM era completamente formulato e ben calcolato. Gli unici due pezzi mancanti erano t e H, troppo alti in massa perché abbiano un ruolo nel decadimento di Z (at LO). Dopo 12 anni nessuna grande sorpresa, ma un sacco di misure ultraprecise, come la conferma del numero di neutrini leggeri e le predizioni sulle masse del t e dell'H.
Fondamentalmente le misure fatte sono state di tre tipi: sez urto assoluta, sezioni urto differenziali, andamento della sez urto assoluta e delle sez urto differenziali in funzione di $\sqrt{s}$. Questo per un sacco di processi d'interesse per testare le predizioni del SM, oltre che sulle sez urto, anche sulla correttezza di correzioni radiative e approssimazioni. L'analisi e l'interpretazione dei dati viene fatta usando un fit globale dei risultati dei 4 esperimenti confrontandoli con SM riguardo:
I processi di canale s e+e- in fermioni con fotone virtuale domina con $\sqrt{s}<<m_Z$, quello con Z reale è risonante a $\sqrt{s}= m_Z$ ($\sigma_{zrisonante}(e^+e^- \rightarrow f\bar{f}) \propto \Gamma_f/[(s-m_z^2)^2 + m_z^2\Gamma_Z^2] $), mentre i canali t in e+e-, sia con Z che con fotone dominano a angoli molto piccoli. Per ogni coppia fermionica, ci sono due diagrammi (uno per il $\gamma$ e uno per il Z) più interferenze (per gli e+e- 4 dato che ci sono sia i 2 canali t che i 2 s.
Quindi a bassa energia solo QED, a energia paragonabile a massa del Z domina la risonanza del Z, ma a energie più alte ci sono vari fenomeni, come processi con scambio di W, diboson nello stato finale, etc.
Le sezioni d'urto all'ordine più basso di e+e- in ffbar, con f$\neq$e è somma del contributo del canale s con Z, quello del canale s con fotone e il termine di interferenza. Nell'approsimazione $m_f<<m_Z$ il termine con Z dipende dalla sola massa del Z, oltre che dalle larghezze del Z, del e e dei h coinvolti; il termine QED dipende dalle cariche dei fermioni coinvolti; il termine di interferenza oltre che da massa e larghezza di Z, dipende dal prodotto degli accoppiamenti nei vertici, con le costanti di accoppiamento assiale e vettoriale. Tutti i termini dipendono da $\sqrt{s}$, e nel caso specifico in cui sia uguale a mZ, Z domina totalmente e canale QED e relativa interferenza sono trascurabili: la sezione d'urto sarà semplicemente $12\pi \Gamma_e\Gamma_f/m^_Z \Gamma_Z^2$
Tutte le varie larghezze sono calcolate, con i risultati rilevanti per cui $\Gamma_Z \approx 2.4 GeV;\; \Gamma_\nu \approx 0.5 GeV$ e che le proporzioni in larghezza dei vari fermioni dello stato finale sono $\nu:\ell:u:d \approx 2:1:3.4:4.4$ e che $hadr:\ell:\nu \approx 70:10:20$
L'analisi viene mostrata in grafici con dati sperimentali, aree delimitate dalle stime di bg e gli eccessi che mostrano il segnale.
Uno studio interessante è vedere la forma della sezione d'urto avvicinandosi alla risonanza e oltrepassandola variando l'energia dei fasci (sempre tutti in accordo con i dati)
La distribuzione angolare della sezione d'urto mostra la violazione di parità: nel termine di interferenza tra canali QED e EW un termine in $cos\theta$ è antisimmetrico, cioè non contribuisce alla sez urto assoluta, ma solo alla asimmetria fwbw dovuta alla violazione di parità. Alla risonanza di Z un termine scompare, l'asimmetria cioè il termine on $cos\theta$ diventa proporzionale solo a $g_{e_V}$ che è molto piccolo per ogni fermione. Nel caso mu+mu- diventa ancora più piccolo dato che anche l'altra costante di accoppiamento vettoriale è piccola.
L'asimmetria si traduce in una differenza di sezioni d'urto (pesata dalla somma delle stesse) con il cos dell'angolo maggiore e con il cos dell'angolo minore di 0, e al polo diventa solo un prodotto di costanti di accoppiamento vettoriale e assiale.
Benché l'asimmetria sia molto piccola per elettrone e muone, con i jets è molto difficile da misurare, essendo impossibile misurare la carica per i quark leggeri e molto difficile per quelli pesanti.
Il caso particolare di e+e- in Z in e+e- è più difficile per la presenza sia dei diagrammi t che s. In totale sono 4 diagrammi, cioè dieci termini: i 4 diretti Z/$\gamma*$ s/t e in più sei interferenze. Qualitativamente alla risonanza e con angoli grandi domina Z del canale s; a angoli piccoli il fotone del canale t domina per tutte le energie; a energie molto sotto la risonanza e a angoli grandi i due canali fotonici sono entrambi importanti.
Importnte: sono solo i canali s quelli che mostrano le risonanze
L'analisi viene quindi fatta selezionando angoli abbastanza alti, tra 45 e 135, cioè un $|cos\theta| <0.72$
I diagrammi non-tree sono di moltissimo tipo. Alcuni esempi: radiazioni da stato iniziale o finale, scambi da stato iniziale o finale, diagrammi con loop di vari tipi, e a ordini ancora più alti molte più combinazioni (eg scambio in un loop).
Le correzioni radiative sono i calcoli usati per tenere conto di ordini più alti. Dipendono da tutti i parametri del SM, e sono di solito divisi in QED, WI, QCD e bSM, oppure in radiazione iniziale o finale. Entrano in gioco anche particelle cinematicamente non permesse a una data $\sqrt{s}$ (a LEP per esempio H e t). In principio sono tutte calcolabili se i parametri sono noti, ma in pratica si va per successive approssimazioni.
Sono molto utili perché danno un accesso indiretto a fenomeni di energie più alte, rendendo osservabili di energie più basse come la massa del Z dipendenti da parametri di energie più alte, come la massa di H. In pratica "aumentano" la $\sqrt{s}$ accessibile, e rappresentano un accurato e potente test della teoria. Oppure, se parliamo di correzioni radiative previste da qualche teoria bSM, prima non si includono e si cercano discrepanze; se si trovano si includono le previsioni e si cerca se quelle teorie riproducono le discrepanze osservate rispetto a SM.
Una delle più semplici è l'emissione per bremsstrahlung di una fotone reale da uno degli stati iniziali di e. (cinematica su carta) L'interazione avviene però così a una energia $s' = sz$ effettiva minore a seconda dell'energia del fotone emessa. L'energia del fotone sarà, se $s>s'\eq m_Z^2$, fissata al valore $E_\gamma s-m_Z^2/2\sqrt{s}$.
A LEP1, con energia comparabile a mZ, l'energia del fotone è comparabiile con la larghezza del Z, quindi si hanno grandi $\Delta E_\gamma /E_\gamma$. L'angolo di emissione è piccolo (per la dinamica del bremsstrahlung) e quindi la maggior parte dei fotoni finiscono nel tubo. relazione a pag 33 che non capisco TODO
A LEP2 $\sqrt{s}>> m_Z$ il fotone è energetico e molto monocromatico: la sua energia è molto maggiore della larghezza del Z. L'angolo è piccolo sempre per dinamica del bremsstrahlung e i fotoni finiscono sempre nel tubo, i Z avranno alto momento longitudinale, e l'evento risulta molto sbilanciato TODO perché?. Questo effetto è importante perché riduce l'ammontare di eventi utili.
L'analisi viene fatta assumento che ISR e formazione Z siano fattorizzati. La formazione del Z è equivalente alla formazione senza ISR, ma con una energia equivalente $\sqrt{s'}$, quindi la sezione d'urto della ISR a $\sqrt{s}$ sarà il prodotto di una funzione detta radiatore che descrive la probabilità della ISR da brem e la sez urto del Z. R si calcola in QED. I tagli su z per evitare il brem sono $z<0.85$ tipicamente
Gli effetti delle correzioni sui parametri di massa e larghezza del Z si riflettono sia in una modifica della sezione d'urto, sia della sua forma in funzione di $\sqrt{s}$. L'effetto per esempio l'inclusione della ISR abbassa la curva la allarga e la sposta in avanti la massa del Z: aumenta sia massa che larghezza anche se diminuisce sez urto alla risonanza.
Abbiamo visto che le correzioni hanno effetti sulle masse di Z e anche di W: i valori di mZ e mW non sono infatti indipendenti, definendo $sin^2 \theta_W = 1-m^2_W/m^2_Z$ si ha $m^2_W sin^2 \theta_W = \pi \alpha / \sqrt{2}G_F$.
Definiamo quindi i parametri di:
Allora le correzioni radiative modificano la formula copra mettendo al rapporto tra le due cost di accoppiamento un prodotto per $1/1-\Delta r = 1/1-\Delta\alpha \cdot 1/1-\Delta r_W$.
TODO e correzioni radiative QCD?
Il $\Delta \alpha$ perà è riassorbito dal fatto che $\alpha$ è funzione di $\sqrt{s}$ e quindi si ha $\Delta \alpha = \alpha(s)-\alpha(0)/\alpha(s)$. Da QED si ha che $\alpha(m^2_Z) \approx 0.07$ e quindi da 1/137 diventa 1/129 cioè cambiamento trascurabile. Quindi nell'equazione rimane solo il termine con $\Delta r_W$. Questo viene espanso in parti conosciute calcolabili e altre non conosciute al tempo dipendenti da massa del top $\propto m_t^2$ e da massa dell'Higgs $\propto log(m_H^2/m_W^2)$
Si ha quindi
$$\Delta r_W = \Delta r_{W_0}\right|_{calc}+ \frac{\partial\Delta r_W}{\partial m_t } \delta m_t + \frac{\partial\Delta r_W}{\partial m_H } \delta m_H$$Dove i primi due termini hanno avuto assegnato il termine di massa del top quando è stato scoperto nel 1994 con amssa circa 175 GeV.
Assumiamo quindi noto mt. Numericamente la sensibilità è che la derivata del secondo termine contribuisce a circa il 2 per mille (negativamente) e quella del terzo al 5 per mille. I due termini quindi hanno segno opposto e dimensioni abbastanza diverse. Le misure sulle masse di W, Z e t più i calcoli a ordini più alti del SM permettono una misura di mH indiretta. In realtà gli osservabili sono molti di più e il fit tiene conto di tutti.
nei plot, come gA vs gV o $sin^2\theta$ vs $\Gamma_\ell$ si vede come senza le correzioni radiative EW (solo con quelle QED) i valori previsti stanno lontanissimi dai dati e dalle previsioni SM. In questi grafici si possono vedere come i valori siano correlati a mH e mt con delle "finestre" che si sovrappongono ai dati.
A LEP 1 il processo era: prendere un singolo canale, misurare la singola sezione d'urto e poi ripetere il tutto a molte energie per ottenere la lineshape; fare lo stesso per molti canali; fare lo stesso per molte distribuzioni della sezione differenziale per varie cose; tutti e 4 esperimenti eseguivano questa procedura, poi si raccoglievano i dati e si facevano i fit ew e si ricavavano tutti i parametri di ew.
Lineshape significa sez urto di e+e- in fermioni passando per Z in funzione di energia, per un certo tipo di coppia di fermioni. La lineshape mostra la forma a lorentziana delle risonanze. Sia altezza che larghezza della lorentziana dipendono dai parametri ew. La strategia è: per prima cosa misurare massa e larghezze parziali e totale delZ, poi fittare il numero di neutrini leggeri, cioè il numero di famiglie fermioniche, e gli accoppiamenti EW.
Se si esclude l'ipotesi di universalità leptonica bisogna usare tutti i possibili rate di larghezza o sezione d'urto adronica su leptonica, più generale ma errori maggiori. In totale 9 parametri. Con l'universalità invece solo 5 parametri con più piccoli errori, ma non testi la veridicità dell'ipotesi.
Ipotizziamo che ipotetiche ulteriori famiglie abbiano anch'esse come elementi più leggeri dei neutrini: questi dovrebbero essere la prima evidenza delle ulteriori famiglie. Il decadimento di Z in due neutrini è quantitativamente importante (20% di BR) ma non è osservabile direttamente. Però contribuisce alla larghezza. L'idea è di misurare la $\Gamma_Z$, sottrarre la larghezza parziale visibile e dalla $\Gamma_{invisibile}$ calcolare il numero di neutrini leggeri (dove leggero non è proprio una gran definizione: $2m_nu <m_Z$ BOH) TODO $n_\nu = \Gamma_{invisibile}/\Gamma_\nu^{SM} = (\Gamma_{invisibile}/\Gamma_Z)_obs(\Gamma_Z/\Gamma_\nu)_{SM}$
Fondamentale diminuire errori statistici e sistematici, dato che, per esempio ogni evento perso o non misurato o tagliato dal trigger va a aumentare la larghezza invisibile
Si ottiene n molto vicino a 3.
n rappresenta la larghezza di decadimenti invisibili normalizzata sulla larghezza del neutrino (quale neutrino?), cioè potrebbe ottenere contributi da fisica bSM. In questo caso n non è necessariamente in numero intero (cioè esisterebbe una frazione, piccola almeno a LEP, di n che viene da decadimenti invisibili non neutrinici e che contribuisce a Gamma invis).
Mentre LEP1 era dominata dal polo Z, LEP2 ha molti stati finali possibili: due fotoni che producono due coppie e+e-/qqbar ( e due mu? TODO), Z o fotone che decadono in due fermioni (come in LEP1), W+W- che decadono ciascuno adronicamente o leptonicamente con quindi 4 fermioni in stato finale (caso speciale: ricerca H), due fotoni reali.
La coppia W+W- che decade in 4 fermioni domina il campione a 4 fermioni. A ordine più basso, ci sono 3 diagrammi di Feynmann per produrre un doppio W, con tutti i vertici EW: canale t con scambio di un neutrino, canale s che passa da un Z o da un fotone virtuale.
$m_W = 80.4 GeV$, $\Gamma_W = 2.15 GeV$
La sezione d'urto complessiva viene dalla cancellazione tra i sei termini: 3 ampiezze di prob modulo quadro + 3 interferenze. Eventuali deviazioni da predizioni pertanto sarebbero molto evidenti: tutte queste somme propagano l'errore.
Il calcolo della massa viene fatto calcolando la sezione d'urto al variare di mW, si calcola la miglior $\sqrt{s}$ combinando:
Si misura la lineshape e si vede come la curva è in accordo con sez urto calcolata.
Limiti cinematici aiutano l'analisi, fornendo criteri di selezione che permettono di rigettare cattive misure o eventi classificabili come altri processi e aumentando la risoluzione. In questo caso per esempio si fa analisi di likelihood su massa e larghezza di W. Poi si confrontano analisi e fit con dati reali rispetto alle stesse procedure usate con pseudo eventi generati con simulazioni di fisica + detector. La larghezza di W è fortemente anticorrelata con la risoluzione sperimentale (per esempio una simulazione del detector pessimistica porta alla stima della sezione d'urto misurata troppo grande e quindi la larghezza troppo piccola: la lorentziana risulta più piccata e la FWHM più larga). Gli errori sistematici principali sono da parametrizzazione di radiazione di stato iniziale e finale, algoritmi di ricostruzione degli shower (specialmente nel caso di jets come per esempio a causa di riconnessione di colore tra jets). La procedura è testata, per esempio in questo caso con analoghi processi in doppio Z che danno meno errori statistici su larghezza e massa.
Nello spazio dei parametri si hanno $n = 4n_{corpi}$ gradi di libertà. Se si fanno N misure, per esempio energia o momento per jets e leptoni, avendo K equazioni cinematiche per i corpi (4 momenti + le masse, tra cui mW+=mW- e m$\nu \approx 0$), si avranno $C = N+K-n$ vincoli. Per esempio con e+e- in W+W- in 4f si ha n=16, ma se:
Se C è maggiore di 0 il fit cinematico è possibile, altrimenti NO
L'effetto di fit cinematici consiste in : più è alto C, più vincoli si hanno, migliore sarà il fit (lo fai con più parametri), migliore sarà la risoluzione.
Nello SM W decade attraverso correnti cariche (V-A). Pertanto per universalità l'accoppiamento è uguale per ogni coppia di fermioni, e se la massa della coppia è maggiore di quella del W non si avrà un decadimento in forma di canale t. Il quark mixing secondo CKM deve essere usato. Trascurandolo per ora (e $m_f\approx 0$ la CKM è circa diagonale), il $W^\pm$ decade in $\ell\pm + \nu\vee \bar{\nu}$, con $\ell$ e, mu o tau, u dbar$\vee$ubar d, c sbar$\vee$cbar s (tb è vietato). Pertanto le BR dei canali sono le stesse, a meno del fattore 3 di colore.
Da teoria elettrodebole la larghezza di W in coppia di fermioni è $Γ(W→ƒƒ’) = G_F m_W^3/6\sqrt{2} \approx 226$. Dato che ci sono 3 coppie leptoniche + 2 quarks x 3 colori, la larghezza va moltiplicata per 3+2$*$3 = 9: $226*9 \approx 2.05 GeV$ e la BR in una certa coppia leptonica è 1/9 e quella in una coppia quark è 3$*$1/9 = 1/3.
Se è usato il corretto quark mixing, vanno usati i rispettivi elementi di matrice CKM $V_{qq'}$. La larghezza in $q\bar{q}'$ sarà $\Gamma (W\righarrow q\bar{q}') = |V_{qq'}|^2 Γ(W→ƒƒ’)$. La larghezza totale NON CAMBIA, cambia solo il BR in qq' che risulta $BR(W+ →qq̄') ≈ |V qq’|^2/3$
Leggere pg 58-68
A LHC si fanno principalmente lavori di ripetizione e miglioramenti quantitativi, dall fisica di jet morbidi a W/Z a top quark. Si occupa di consolidare la scoperta di H e migliorare le misure. Si occupa di cercare nuova fisica oltre lo SM.
Ci occupiamo dei metodi generali di analisi di LHC e dei problemi dell'alta luminosità, e di come è stato scoperto H.
È sui $10^34 cm^{-2} s^{-1}$. Perché così tanta. La sezione d'urto per un processo di canale s è $\sigma \approx cost \cdot g^2/s$, con cost un fattore adimensionale del tipo $4\pi/3$, g la costante di accoppiamento specifica del processo e s l'energia del centro di massa al quadrato. Un esempio di processo s è la formazione di risonanza, ponendo g circa 1/100 e $\sqrt{s}=m_X=100 GeV$, si ha $\sigma \approx K g^2 /m^2 \approx 4 \cdot 10^{-36} cm^2 = 4\dot pb$.
Valore che si riduce sempre a casua di PDF, BR di decadimento diversi, accettanza del detector e inefficienza di trigger e analisi.
In più la sezione d'urto della canale s diminuisce con l'aumentare dell'energia del centro di massa come una powerlaw e il rapporto sez urto totale su sez urto canale s aumenta come una powerlaw. Pertanto la luminosità necessaria per vedere un processo interessante con un rate di 0.01 Hz, aumenta come una powerlaw con l'aumentare della massa della risonanza che vogliamo vedere. Quindi è necessaria altissima per vedere risonanze di grande massa.
Differentemente dai collider e+e- la sez urto adronica è molto alta, con un rate di eventi $R = L \sigma$ dal MHz al GHz, troppo alto e fatto principalmente di eventi non interessanti, il trigger fisico, cioè soglie su variabili cinematiche (sopratutto al liv 1) per selezionare una piccola frazione di evneti che esibiscono peculiari caratteristiche. Il trigger finale richiede presenza quindi di oggetti con alto pT, o multileptoni o alta MET, etc. Sia x una variabile cinematica di un certo tipo ($E_T$ o adro, p_T leptonica etc), la soglia è applicata su essa dopo una misura rozza e veloce dai trigger del detector. Quindi elementi chiave dell'esperimento sono il potere reiettante del trigger, sua efficienza e tempi morti, la larghezza di banda del frontend e readout e trasferimenti di info vari, conciliando il tutto con la fisica.
Data una certa efficienza del trigger per eventi di un certo tipo, il numero di quelli osservati sarà N prodotti * l'efficienza. La grossa parte dei dati è vicino la soglia eg in p_T, dove l'efficienza di triggering è incerta perché è proprio vicino alla soglia, dove c'è la caduta del taglio (e dove la fisica è meno interessante)
Tipicamente a LHC si viaggia con lumi di $10^34$ e una L integr di 100 fb inversi. La sez urto totale è di circa 100mb.
In un anno sono stimati $10^16$ eventi di cui solo 1 milione sono higgs.
La frequenza di bunch cross è circa $10^7$ cross per secondo quindi il rate di interazione è di 1 THz con 25 interazioni per bc, di cui 20 anelastici e per bc ci sono circa 1000 particelle cariche. In pratica nel detector ci sono onde di circa 1000 pioni più altrettanti fotoni ogni 25 ns. Le onde sono sfere concentriche di 7.5m di differenza di raggio tra loro, cioè nel momento in cui le camere muoniche rivelano segnale, il tracciatore interno vede il nuovo bc. Cioè i detector devono avere abbastanza banda per trasmettere tutti questi dati così velocemente, e sopratutto all'interno grande resistenza alle radiazioni
Atlas ha 3 livelli, da 40MHz di segnale va a 100 kHZ, poi 3 e infine registra a 100 Hz. CMS con due livelli salta il passaggio da 100 a 3.
Poniamo $m_H$ come è stato fatto per la scoperta. In SM c'è almeno un H, ma non al più. Nel minimal SM ce n'è solo uno, in teorie beyond ce n'è anche parecchi, come in susy ben 5. Ha carica 0, spin 0, $J^P = 0^+$ TODO CHE SIGNIFICAA. È accoppiato con tutte le particelle con massa.
La massa di H è un parametro libero del SM, ma la non violazione dell'unitarietà impone che almeno abbia un limite superiore di 1 TeV unitarietà de che? TODO. La richiesta che lo standard model sia consistenta al più entro una scala di energia $\Lambda$ impone un altro limite superiore a mH funzione di $\Lambda$, mentre la stabilita del vuoto che significa? TODO impone un limite inferiore (sempre funzione di $\Lambda$).
A livello di albero, la larghezza parziale del decadimento di H in una coppia di leptoni (q o l), o in bosoni gauge reali è data dalle masse in gioco, oltre che da $G_F$. TODO SCRIVERE, PG 21 CAP 12A
Si ha quindi che se mH > 2 mV, allora la più grande BR sarebbe in diboson. Invece nel range tra 100 e 180 GeV si ha che i decadimenti in un V reale e un V virtuale sarebbero importanti, ma la formula di prima con i fattori $\beta$ assume V reali, quindi il calcolo è diverso.
Quando mH aumenta si aprono nuovi canali di decadimento, in più le larghezze parziali aumentano, quindi la larghezza totale, somma delle larghezze parzieli di decadimenti in coppie f e in coppie V (che si aprono e allargano a aumentare di mH) è una forte funzione di mH, e quindi anche le sue BR.
RB BR(X in Y) = \Gamma(X in Y)/\Gamma(X in tutto)
In più ci sono processi a ordine più alto di quelli ad albero, che coinvolgono gluoni e fotoni, sopratutto H in gg o in $\gamma \gamma$ (e in minor parte in $Z\gamma$).
Il decadimento in gg è grande ma difficile da identificare a causa del bg da multijet QCD; il decadimenti in $\gamma \gamma$ è meno largo ma ha alta efficienza di trigger e rivelazione e piccolo bg. TODO FORMULE DA SCRIVERE PG 22 CAP 12A
Nel canale gg interviene un quark pesante come il t nel loop (di meno il b), in quello $\gamma \gamma$ intervengono W o T (di meno il b) (con in più interferenze tra W e t grandi e *negative!?!? TODO)
Il decadimento di H in top reali si apre soltanto a mH maggiori di 2mt
A differenza di LEP2, nel range energetico disponibile a LHC, i modi di decadimenti del bosone di Higgs sono molto variabili (con massa non fissata ovviamente).
Il BR maggiore si ha con il decadimenti in bbbar, ma non è vedibile perché non si usa bbbar? TODO mia ipotesi è perché ci sono troppi eventi ttbar che lo riempono di BG indistinguibile, dato che massa non è troppo diversa, anche se ci sarebbero i decadimenti di W a differenziare gli eventi
Studiando la larghezza totale è da notare che ha un boom dovuto ai diboson e ai ttbar, e poi arriva a 1 TeV di m assieme a 1 TeV di larghezza. Cosi H non è più una particella.
TODO mH è molto correlata con mW e mT a causa del forte accoppiamento? La massa del W è fortemente correlata a quella di H. Il famoso grafico bandablu richiederebbe un H molto leggero; include tutte le informazioni note, tutti i parametri conosciuti fino a fine LEP, ma non la ricerca diretta, le bande sotto invece riportano i risultati delle esclusioni da ricerca diretta (si sono spostate molte volte nel tempo man mano che arrivavano nuovi constraints). Non c'è correlazione sperimentale tra le aree gialle e le bande blu.
I limiti dal LEP li abbiamo visti. Dal Tevatron si ebbe una esclusione a 2-3 sigma nel 2009 tra circa 160 e 180 GeV di massa. Cioè avevano una buona probabilità di rivelare un Higgs se questo avesse avuto 160-180 GeV di massa. Ma in realtà i loro dati di log likelihood ratio -2 log(segnale/rumore) erano in pieno accordo con l'ipotesi di solo bg quasi sempre entro 1 sigma, quindi non capisco TODO.
La produzione di H complessiva è sensibilmente influenzata dall'energia dei fasci. Raddoppiando $\sqrt{s}$ la sezione d'urto passa da circa 10 a circa 50 pb, per una massa di 125 GeV. L'incremento è ancora più pronunciato per masse più grandi. Vi sono molti canali di decadimento ma alcuni immisurabili. L'unica osservabile è numero eventi = sez urto per branching ratio, quindi questo va a diminuire i singoli eventi osservabili, essendoci tanti canali quindi br non altissime (eccetto decadimento in bbbar).
Per comodità non distinguiamo W e Z reali da virtuali in questo paragrafo
I principali canali di decadimento sono in ordine decrescente: gluon fusion con loop di top, la produzione associata a quarks (eg ttbar+H), la vector boson fusione (due quark che irradiano un V che si fondono), la produzione associata a V
Unendo questo ai br, risulta che tra i canali più popolati sono a basse masse V fusion e poi decadimento di H in due tau, e produzione associata a W con decadimento leptonico del W e in due b dell'H. Con masse crescenti diventano dominanti tutti i canali che coinvolgono decadimenti in doppi bosoni vettori: WW e ZZ in decadimenti l+j e dilept, $\gamma \gamma$. I canali della scoperta sono stati $\gamma \gamma$ e ZZ che poi decadevano in doppio l+l-
Se guardiamo la formazione diretta di un canale s di due fermioni che producono un H (reale?) che poi decade in altro X (con X una qualsiasi particella in cui può decadere), la sezione d'urto dipende dalle larghezze del fermione considerato e della particella finale, oltre che da larghezza e massa dell'higgs al quadrato.
Nei collider leptonici questo è depresso a causa del fatto che la larghezza di un fermione dipende dal quadrato della massa del fermione, e per un elettrone diventa praticamente impossibile. Mentre un muone, che ha un fattore $(m_\mu/m_e)^2=40\:000$ diventa molto più possibile ed è una delle motivazioni principali di un collider a muoni: $\sigma \approx 6 pb$ con $\sqrt{s}= 126 GeV = m_H$
I valori di sezione d'urto ottenuti in rapporto a quelli previsti dal SM ($\mu = \sigma_{obs}/\sigma_{exp}$ detto anche "signal strength") sono abbastanza vicini a 1 e tutti ben localizzati sulla massa di 125, eccetto il canale H in WW che è molto slargato tra 125 e 155
Gli accoppiamenti di H con fermioni o bosoni vettori sono ben fissati dal modello standard nel momento in cui mH è fissata, ma sono comunque misurabili dalla produzione e decadimento di H, anche se difficile perché bisogna tenere conto e prevedere NLO e NNLO e loops a LO. Sono, ovviamente, forte funzione della massa con cui si accoppia H.
Spingendo su la luminosità integrata si hanno più eventi e quindi si ha più statistica per fare check migliori, cioè masse di fermioni sondate più piccole, ma al solito tutto in accordo con teoria. Essendo però un forte test della sm si cerca di aumentare l'accuratezza per test migliori e cercare discrepanze.
Strategia per il futuro è misurare il più possibile delle proprietà di H: rate di produzione e rate in funzione di energia dei fasci, canali di decadimento, accoppiamenti, distribuzione angolare dei decadimenti; poi comparare con SM e controllare discrepanze; cercare il restante dell'intervallo disponibile di $\sqrt{s}$ per la macchina in modo da cercare uno spettro dell'Higgs più ricco della singola particella del minimal SM.
Stesso discorso per ogni teoria bSM, e magari cercare strategie model indipendent ?.
In [ ]: