Accès VIP pour Very Important Particles
Du 12 au 14 mars derniers, 100 spécialistes de l’acquisition de données d’ALICE, ATLAS, CMS et LHCb se sont réunis lors d’un atelier* pour partager leur expérience dans le domaine et échanger leurs idées. L’occasion pour le Bulletin de revenir sur quelques principes de l’acquisition de données.
Plus il y a de débris, mieux c’est. En tout cas, en ce qui concerne les collisions de particules. Si le LHC s’en sort à merveille de ce côté-là, ses quatre grandes expériences, elles, ont un autre objectif : la détection. Imaginons : chaque seconde, des millions de protons entrent en interaction avec des millions de leurs congénères, créant un flot chaotique de particules secondaires. La scène est d’une complexité extrême, à la grande joie des physiciens, qui s’empressent de pouvoir « peut-être » enregistrer l’événement...
Événement or not événement ?
Car là est toute la question. Acquérir des données, c’est bien ; acquérir les meilleures données, c’est mieux. Grâce au « système de déclenchement », il est heureusement possible de faire la part des choses. Dans un premier temps, toute nouvelle donnée est enregistrée. L’enregistrement est cependant très court – de l’ordre de quelques microsecondes – le temps pour le système central de déclenchement d’évaluer la qualité de l’événement. Et si celle-ci est jugée mauvaise, la donnée est supprimée ; sinon, elle passe une seconde phase de tri, plus fine. Et ainsi de suite, jusqu’à passer à travers les mailles du dernier filet, auquel cas, elle sera définitivement enregistrée.
Reconstituer le puzzle
Une fois les données triées vient l’étape de la reconstitution. Mais comment déterminer quels éléments sont issus du même événement ? Pour identifier les données, les chercheurs se basent sur l’horloge du LHC. D’une précision de 25 ns, celle-ci leur permet d’attribuer un « code barre » temporel à chaque donnée. Il ne reste ensuite plus qu’à regrouper les éléments portant le même code barre. Les ordinateurs se chargent alors de reconstituer l’événement correspondant. Ces informations sont ensuite envoyées au Centre de calcul du CERN, où elles sont stockées sur bandes.
Des détecteurs de plus en plus performants
Si, au cours du LS1, quelques améliorations seront apportées aux systèmes d’acquisition des quatre expériences, les grands changements auront surtout lieu en 2018 (LS2) et 2022 (LS3). Ainsi, pendant le LS2, ALICE passera à une lecture continue de ses plus importants détecteurs, ce qui correspondra à une augmentation du taux de lecture d’un facteur 100, autrement dit, l’expérience pourra analyser 100 fois plus d’événements qu’actuellement. En parallèle, elle augmentera ses capacités de stockage de données d’un facteur 20, atteignant ainsi 80 Mo/s. L’expérience LHCb augmentera son taux de lecture d’un facteur 40, et dépendra finalement entièrement d'algorithmes de déclenchement. Durant les LS2 et LS3, ATLAS et CMS devront faire face à une augmentation de la luminosité instantanée d’un facteur 10-20 et à l’augmentation correspondante du nombre d’interactions simultanées.
Pour suivre la cadence, les expériences ATLAS et CMS prévoient, entre autres, en s’appuyant sur l’amélioration de leurs trajectographes respectifs, d’incorporer les informations sur les trajectoires dans leur système de déclenchement amélioré, renforçant ainsi leur capacité à sélectionner les meilleures données. Elles souhaitent en outre augmenter leur taux de lecture d’un facteur 5, et accroître le taux d’enregistrement des collisions intéressantes dans la mémoire de masse. Ces changements nécessiteront d'importantes améliorations des systèmes d'acquisition de données, afin de pouvoir gérer le déplacement des données vers et depuis le second niveau de sélection, et enfin, vers la mémoire de masse.
*L’atelier a été organisé à l’Institut œcuménique du Château de Bossey à l’initiative des responsables de l’acquisition de données des quatre expériences (David Francis, Beat Jost, Frans Meijers et Pierre Vande Vyvre).
par Anaïs Schaeffer