LHCb : la stratégie du plein régime porte ses fruits

Le détecteur LHCb permet d’observer des collisions de protons au LHC sous un angle particulier. La collaboration étudie les désintégrations rares de la particule B afin de sonder les processus susceptibles de receler les clés d’une nouvelle physique. Conçu à l’origine pour une exploitation à luminosité modérée, LHCb s’est enhardi et, depuis un an, l’expérience fonctionne dans des conditions supérieures aux conditions nominales. La nouvelle stratégie porte ses fruits : d’importants résultats de physique se font jour…

 

Diagramme d'un événement présenté à la conférence EPS-HEP 2011 montrant un méson B0s se désintégrant en une paire μ+ et μ-.

À l’origine, le détecteur LHCb était conçu pour une exploitation à luminosité modérée et à faible empilement. En d’autres termes, à la différence des expériences CMS et ATLAS, le dispositif expérimental et l’infrastructure d’acquisition de données de LHCb ont été créés pour ne traiter qu’une seule interaction de protons à chaque croisement de paquets.

Cependant, depuis un an, tout cela est de l’histoire ancienne. Lorsqu’il a été clairement établi que nous allions d’abord augmenter le nombre de protons par paquet dans le LHC, puis, seulement, le nombre de paquets dans la machine, un changement de la stratégie de LHCb est devenu possible. « Si nous avions continué d’appliquer l’ancienne stratégie l’année dernière et cette année, nous aurions recueilli cinq fois moins de données, explique Richard Jacobsson, le coordinateur d’exploitation de LHCb. Très vite, nous nous sommes rendus compte que ce détecteur pouvait en fait supporter des conditions d’exploitation beaucoup plus dures et traiter plus d’une interaction par croisement de paquets. Grâce aux paquets riches en protons que le LHC nous envoyait, nous avons vu que nous pouvions même traiter jusqu’à six interactions par croisement. »

Le LHC ayant déjà atteint une luminosité par paquet de ce niveau élevé en juillet 2010, tous les sous-détecteurs de LHCb ont dû prouver, une fois de plus, leur capacité de répondre à nos exigences. « L'ensemble du détecteur était activé et nous étions saturés à tous les niveaux, jusqu'aux fibres optiques destinées à la transmission des données. En fait, pour relever le défi du déclenchement, il a fallu fournir des efforts surhumains lorsque notre ferme d’ordinateurs a, elle aussi, été saturée ! explique Richard Jacobsson. Cependant, nous avons aussi constaté que, dans l’ensemble, le détecteur était parfaitement capable de supporter ces conditions extrêmes. »

Le problème de la saturation a été particulièrement sensible pour la reconstitution des événements et leur analyse hors ligne. Plus l’empilement des événements est important, plus ces derniers sont « pollués ». C’est-à-dire que davantage de particules entrent en jeu à un moment donné, ce qui fait qu’il est plus difficile pour les chercheurs de distinguer les événements intéressants du bruit de fond. « Fin 2010, il est apparu clairement que nous étions en train d’atteindre nos limites. De toute évidence, la luminosité du LHC n’allait qu’augmenter en 2011, et nous devions trouver une solution stable », continue Richard Jacobsson.

Cette solution s'appelle « le nivellement de la luminosité » (voir encadré). Grâce à cette technique, l'expérience LHCb fonctionne en permanence à sa puissance maximale sans compromettre la sécurité ou la fiabilité. « Le système que nous utilisons actuellement pour maintenir la stabilité de notre luminosité est automatique. Il s’adapte aux variations normales de luminosité qui se produisent dans le LHC au cours d’une exploitation », précise-t-il.

Exploiter la machine à sa vitesse maximale en continu reste un grand défi pour le traitement en différé et les analystes de données, qui doivent reconstituer l’ensemble d’un événement (nature, énergie, trajectoire des particules, etc). Cependant, grâce à la nouvelle stratégie et à l’énorme quantité de données supplémentaires qu’elle a permis d’obtenir, l’expérience est bien partie pour fournir des résultats de physique de grande importance. « La stratégie actuelle d’exploitation à haute luminosité s’avère très favorable à l’observation de certaines désintégrations très intéressantes et extrêmement rares de la particule B, qui font intervenir des muons, indique Pierluigi Campana, porte-parole de LHCb. Si tout se passe comme prévu, nous aurons recueilli environ 1 fb-1 de données d’ici à la fin de cette année, ce qui devrait nous permettre de présenter nos résultats avec une précision sans précédent. »

Les résultats que la collaboration LHCb a commencé à communiquer concernent le taux et d’autres paramètres spécifiques liés à la désintégration de la particule Bs (composée d’un antiquark bottom et d’un quark étrange) et de la particule Bd (composée d’un antiquark bottom et d’un quark down). Certains de ces paramètres ont déjà été étudiés par la collaboration CDF à Fermilab et dans d’autres usines à B, et les valeurs actuelles indiquent des écarts possibles par rapport au Modèle standard. Cela nous encourage à les étudier de façon approfondie, avec une meilleure précision. « Entre autres choses, nous nous intéressons à la vitesse de désintégration de la particule Bs en deux muons. Ce mode de désintégration est si rare qu’on ne peut espérer en observer qu'une poignée sur un milliard de désintégrations de Bs, explique Pierluigi Campana. La théorie nous indique à quelle valeur nous pouvons nous attendre dans le cadre du Modèle standard. Récemment, la collaboration CDF a annoncé que, selon ses observations, ce taux pourrait peut-être avoir une valeur plus élevée, mais les données présentées par LHCb (et par CMS, mais avec moins de précision) à la Conférence EPS à Grenoble rendent cette possibilité assez improbable. Pour l'instant nous devrons nous en tenir au Modèle standard. »

Vers la fin de l’été, la collaboration LHCb prévoit également de terminer l’analyse des données issues de la désintégration de Bs en particules PSI et PHI, qui pourrait très bien intéresser la nouvelle physique. « La Conférence de Grenoble a marqué un nouveau triomphe du Modèle standard, a conclu Pierluigi Campana, car on n’a pas (encore) découvert de phénomènes nouveaux. Mais nous savons que la physique de précision vient juste de commencer au LHC. Très probablement, le diable (la nouvelle physique) sera dans le détail. »

 

Le nivellement de la luminosité : comment ça marche ?

Pour stabiliser le niveau de luminosité pendant toute la durée d'une exploitation au LHC, les faisceaux sont séparés artificiellement dans le sens vertical (d’environ 80 microns) à l’approche du point de collision de LHCb. D’après les données enregistrées jusqu’ici, cette séparation ne produit pas d’effets faisceau-faisceau néfastes susceptibles de réduire la qualité des faisceaux ou la longévité de la luminosité.

Le nivellement de la luminosité augmente automatiquement la luminosité visée en agissant sur tous les paramètres principaux de toute l’expérience LHCb : la performance de lecture, le taux de collision, la largeur de bande, la taille des événements, le nombre moyen d’interactions par croisement et la limite de luminosité, considérée comme la limite sûre pour le détecteur par rapport à la luminosité fournie par le LHC. La limite de luminosité est progressivement augmentée cette année à mesure que nous en savons plus sur la performance du détecteur.

 

par CERN Bulletin