Recherche de neutrinos de Majorana exploitant la cryogénie du millikelvin avec CUORE

Analyse optimale du déclencheur et du seuil

Le flux de données continu de CUORE est déclenché avec le déclencheur optimal, un algorithme basé sur le filtre optimal51 caractérisé par un seuil inférieur à un déclencheur dérivé plus standard32. Un seuil plus bas nous permet non seulement de reconstruire la partie à basse énergie du spectre, mais donne également une plus grande efficacité dans la reconstruction des événements en coïncidence entre différents calorimètres, et par conséquent une compréhension plus précise des composants de fond correspondants.52,53.

La fonction de transfert de déclenchement optimale de chaque événement est adaptée à la forme de signal idéale, obtenue comme la moyenne d’impulsions de bonne qualité, de sorte que les composantes de fréquence avec un faible rapport signal/bruit sont supprimées. Un déclencheur est déclenché si l’amplitude du signal filtré dépasse un multiple fixe de la racine carrée moyenne du bruit (RMS), défini séparément pour chaque calorimètre et ensemble de données. Nous évaluons le seuil d’énergie en injectant de fausses impulsions d’amplitude variable, calculées en inversant la fonction d’étalonnage, dans le flux de données. Nous reconstruisons l’amplitude stabilisée des fausses impulsions, ajustons le rapport des événements correctement déclenchés aux événements générés avec une fonction d’erreur, et utilisons le quantile à 90 % comme facteur de mérite pour le seuil de déclenchement optimal. Cette approche permet de surveiller le seuil lors de la collecte de données et repose sur l’hypothèse que la forme du signal ne dépend pas de l’énergie, c’est-à-dire que l’impulsion moyenne obtenue à partir d’un signal à haute énergie c events est également un bon modèle pour les événements de quelques keV. La distribution du seuil d’énergie à 90 % d’efficacité de déclenchement est illustrée dans la Fig. 4.

Pour ce travail, nous avons fixé un seuil d’analyse commun de 40 keV, ce qui se traduit par une efficacité de déclenchement> 90% pour la majorité (97%) des calorimètres, tout en permettant en même temps la suppression des événements multi-Compton de la région d’intérêt grâce à la coupe anti-coïncidence.

Efficacité

L’efficacité totale est le produit des efficacités de reconstruction, d’anti-coïncidence, de discrimination de forme d’impulsion (PSD) et de confinement.

L’efficacité de reconstruction est la probabilité qu’un événement de signal soit déclenché, que l’énergie soit correctement reconstruite et qu’il ne soit pas rejeté par les coupures de qualité de base nécessitant une tension de pré-déclenchement stable et une seule impulsion dans la fenêtre de signal. Il est évalué pour chaque calorimètre à l’aide d’événements de chauffage signalés en externe54qui sont une bonne approximation des événements de type signal.

L’efficacité anti-coïncidence est la probabilité qu’un véritable événement monocristallin passe correctement notre coupe anti-coïncidence, au lieu d’être bloqué à tort en raison d’une coïncidence accidentelle avec un événement non lié. Il est extrait comme l’acceptation de l’entièrement absorbé c événements à 1 460 keV des désintégrations de capture d’électrons de 40K, qui fournissent un échantillon de référence d’événements monocristallins.

L’efficacité PSD est obtenue comme l’acceptation moyenne des événements dans le 60Co, 40K et 208Tl c les pics qui ont déjà dépassé la base et les coupes anti-coïncidence. En principe, l’efficacité PSD pourrait être différente pour chaque calorimètre, mais étant donné les statistiques limitées dans les données de physique, nous l’évaluons sur tous les canaux et sur l’ensemble de données complet. Pour tenir compte de la variation possible entre les calorimètres individuels, nous comparons l’efficacité PSD obtenue en additionnant directement leurs spectres individuels avec celle extraite d’une somme pondérée par l’exposition des spectres des calorimètres. Nous trouvons un écart moyen de ± 0,3% entre les deux valeurs et l’incluons comme une incertitude systématique globale dans le 0νββ en forme. Cela prend un prior gaussien au lieu du prior uniforme utilisé dans notre résultat précédent32dont l’incertitude provenait d’un décalage entre deux approches qui a depuis été résolu.

Enfin, l’efficacité du confinement est évaluée à l’aide de simulations Monte Carlo basées sur Geant455 et tient compte de la perte d’énergie due aux effets géométriques ainsi qu’au bremsstrahlung.

Analyse en composantes principales pour PSD

Dans cette analyse, nous utilisons un nouvel algorithme basé sur l’analyse en composantes principales (PCA) pour la discrimination de la forme des impulsions. La méthode a été développée et documentée pour CUPID-Mo56et a été adapté pour être utilisé dans CUORE57. Cette technique remplace l’algorithme utilisé dans les résultats précédents de CUORE, qui était basé sur six variables de forme d’impulsion30. La décomposition PCA des événements de type signal tirés de c les pics d’étalonnage donnent une composante principale similaire à une impulsion moyenne, qui à elle seule capture> 90 % de la variance entre les impulsions. Nous choisissons de traiter l’impulsion moyenne de chaque calorimètre dans un ensemble de données comme s’il s’agissait du principal composant PCA, en le normalisant comme un vecteur propre PCA. Nous pouvons alors projeter n’importe quel événement du même canal sur ce vecteur et tenter de reconstruire la forme d’onde 10 s en utilisant uniquement cette composante principale. Pour toute forme d’onde X et composant PCA de premier plan w avec longueur nnous définissons l’erreur de reconstruction comme suit :

$$ { rm {RE}} = sqrt { mathop { sum} limits_ {i = 1} ^ {n {{({{ bf {x}}} _ {i} – ({ bf {x}} cdot { bf {w}}) {{ bf {w}}} _ {i})} ^ {2}}. $$

(1)

Cette métrique d’erreur de reconstruction mesure dans quelle mesure une forme d’onde d’événement peut être reconstruite en utilisant uniquement l’impulsion moyenne traitée comme une composante PCA principale. Les événements qui s’écartent de la forme typique attendue d’une forme d’onde de signal sont mal reconstruits et présentent une erreur de reconstruction élevée. Nous normalisons les erreurs de reconstruction en tant que fonction polynomiale de second ordre de l’énergie sur la base d’un ensemble de données de calorimètre (voir Données étendues Fig. 5) et réduisons les valeurs normalisées en optimisant un facteur de mérite pour l’efficacité du signal sur le fond attendu dans la Qββ région d’intérêt. En utilisant cette méthode basée sur l’ACP, nous obtenons une efficacité globale de (96,4 ± 0,2) % par rapport aux (94,0 ± 0,2) % de l’analyse de la forme des impulsions utilisée dans nos résultats précédents, ainsi qu’une réduction de 50 % du PSD systématique. incertitude de 0,6 % à 0,3 %.

analyses statistiques

La statistique de haut niveau 0νββ l’analyse de la décroissance consiste en un ajustement bayésien non groupé sur les données combinées développées avec le progiciel BAT58. Les paramètres du modèle sont les 0νββ taux de décroissance (Γ0v), un arrière-plan incliné linéairement et le 60Avec amplitude de crête somme. Γ0v et le 60Les taux de co sont communs à tous les ensembles de données, avec le 60Co taux mis à l’échelle par un facteur prédéfini dépendant de l’ensemble de données pour tenir compte de sa décroissance attendue au fil du temps. Le taux de fond de base, exprimé en nombre de keV-1kg-1an-1dépend de l’ensemble de données, tandis que la pente linéaire vers l’arrière-plan est partagée entre tous les ensembles de données, car toute structure de la forme de l’arrière-plan ne doit pas varier entre les ensembles de données. Γ0vla 60Le taux de Co et les paramètres de taux de fond ont des a priori uniformes qui sont limités à des valeurs non négatives, tandis que la pente linéaire vers le fond a un a priori uniforme qui autorise à la fois des valeurs positives et négatives.

En plus de ces paramètres statistiques, nous considérons les effets systématiques induits par l’incertitude sur le biais énergétique et la résolution énergétique59,60la valeur de Qββl’abondance isotopique naturelle de 130Te, et les efficacités de reconstruction, anti-coïncidence, PSD et de confinement. Nous évaluons leurs effets séparés sur le 0νββ taux en ajoutant des paramètres de nuisance à l’ajustement un par un et en étudiant à la fois l’effet sur le mode global postérieur ({ chapeau {{ Gamma}}} _ {0 nu} ) et la limite marginalisée de l’IC à 90 % sur Γ0v.

Une liste de la systématique et des priors est rapportée dans le tableau de données étendu 1. Les efficacités et l’abondance isotopique sont des termes multiplicatifs sur notre signal attendu, de sorte que l’effet de chacun est rapporté comme un effet relatif sur Γ0v. En revanche, les incertitudes sur Qββ, le biais d’énergie et la mise à l’échelle de la résolution ont une relation non triviale avec le débit du signal ; par conséquent, nous rapportons l’effet absolu de chacun sur Γ0v. L’effet dominant est dû à l’incertitude sur le biais d’énergie et la mise à l’échelle de la résolution dans les données de physique. Nous tenons compte des corrélations possibles entre les paramètres de nuisance en les incluant tous simultanément dans l’ajustement.

Nous avons choisi un a priori uniforme sur notre observable physique d’intérêt Γ0v, ce qui signifie que nous traitons n’importe quel nombre d’événements de signal comme étant également probables. D’autres choix non informatifs possibles pourraient également être considérés comme appropriés. Étant donné que le résultat de toute analyse bayésienne dépend dans une certaine mesure du choix des priors, nous avons vérifié comment d’autres priors raisonnables affectent notre résultat57 . Nous avons envisagé : un uniforme avant ( sqrt {{{ Gamma}} _ {0 nu}} )équivalent à un uniforme antérieur sur mββ et également équivalent à l’utilisation du Jeffreys avant; un a priori uniforme invariant d’échelle sur logΓ0v; et un prieur en uniforme le 1/Γ0véquivalent à un uniforme antérieur sur ({T} _ {1/2} ^ {0 nu} ).

Ces priors sont tous indéfinis à Γ0v= 0, nous imposons donc un seuil inférieur de Γ0v> 10−27an-1, ce qui, avec l’exposition donnée, correspond à environ un événement de signal. L’affaire avec un uniforme avant sur ( sqrt {{{ Gamma}} _ {0 nu}} ) donne le moindre effet, et renforce la limite de 25%, alors que le flat prior sur 1/Γ0v fournit le plus grand effet, augmentant la limite sur ({T} _ {1/2} ^ {0 nu} ) par un facteur de 4. En fait, tous ces priors pèsent les petites valeurs de Γ0v Suite. Par conséquent, notre choix d’un appartement avant Γ0v donne le résultat le plus conservateur.

On calcule le 0νββ sensibilité d’exclusion en générant un ensemble de 104 jouets expérimentent avec le modèle d’arrière-plan, c’est-à-dire n’incluant que le 60Co et composants de fond linéaires. Les jouets sont divisés en 15 ensembles de données avec des taux d’exposition et de fond obtenus à partir des ajustements de fond uniquement à nos données réelles. Nous adaptons chaque jouet au modèle signal plus bruit de fond et extrayons la distribution des limites de l’IC à 90 %, illustrée dans la Fig. 4.

Nous effectuons l’analyse fréquentiste en utilisant la méthode de Rolke61obtenant une limite inférieure sur la demi-vie de procédé de ({T} _ {1/2} ^ {0 nu}> 2,6 fois {10} ^ {25} , { rm {année}} ) (IC à 90 %). La fonction de vraisemblance du profil pour Γ0v est extrait de la chaîne de Markov complète produite par l’outil d’analyse bayésienne. Les priors non uniformes sur les effets systématiques dans l’ajustement bayésien sont donc également incorporés dans le résultat fréquentiste. Nous extrayons un intervalle de confiance à 90% sur Γ0v en traitant −2log comme approximatif χ2distribution à un degré de liberté. La limite inférieure de ({T} _ {1/2} ^ {0 nu} ) provient du bord supérieur correspondant de l’intervalle de confiance sur Γ0v. En appliquant la même méthode aux expériences sur les jouets, nous trouvons une sensibilité d’exclusion médiane de ({T} _ {1/2} ^ {0 nu}> 2,9 fois {10} ^ {25} , { rm {année}} ).

Leave a Comment