LE RAPPORT DU CONSEIL NATIONAL DE RECHERCHE MET EN GARDE: L’INDUSTRIE DES SEMI-CONDUCTEURS MENACE LE DÉVELOPPEMENT DE LA SUPERINFORMATIQUE AUX ÉTATS-UNIS
Le rapport du Conseil national de recherche avertit que les changements techniques et économiques de l’industrie des semi-conducteurs menacent de freiner le développement américain de la prochaine génération d’ordinateurs haute performance. Avec la diminution de la loi de Moore et l’échelle des transistors, l’industrie se tourne vers les conceptions de puces qui ne fonctionnent pas pour la superinformatique utilisée dans les simulations massives. Le rapport met l’accent sur l’utilisation militaire pour modéliser la physique des armes nucléaires, mais les changements affecteraient également des simulations telles que celles utilisées pour la modélisation climatique et la prévision météorologique.
L’administration des États-Unis chargée de l’arsenal nucléaire “doit repenser fondamentalement sa recherche, son ingénierie, son acquisition, son déploiement et sa stratégie de partenariat en matière d’informatique avancée”, selon le rapport. L’administration a développé des codes massifs et sophistiqués qui fonctionnent sur des superordinateurs pour vérifier la sécurité continue et les performances des armes nucléaires conçues il y a des décennies. Les maintenir à jour nécessite de nouvelles générations de superordinateurs capables d’exécuter des modèles plus complexes plus rapidement que les mois requis sur les machines actuelles. Mais l’industrie, qui a déboursé des sommes considérables pour des fabs de pointe, cible des marchés importants et rentables tels que le cloud computing.
Les concepteurs d’armes nucléaires ont utilisé des ordinateurs pour comprendre la physique des armes nucléaires bien avant que les États-Unis n’arrêtent les essais nucléaires souterrains en 1992. Depuis lors, des modèles informatiques puissants sont leurs outils principaux pour maintenir la capacité nucléaire du pays via le programme de surveillance des stocks de l’administration.
Les dépenses fédérales pour les superordinateurs destinés au programme d’armement ont complété l’investissement de l’industrie dans la production de puces depuis des décennies. La machine la plus puissante actuellement en exploitation de l’administration pour la simulation est l’ordinateur Frontier. Elle a commencé à fonctionner l’année dernière au Oak Ridge National Laboratory dans le Tennessee et peut effectuer 10^18 (un quintillion) opérations de virgule flottante par seconde, le premier ordinateur “exascale”. Elle a été construite sur mesure par Cray et peut, en théorie, effectuer 2 exaflops. Cray est en train de construire un autre ordinateur exascale qui sera déployé au laboratoire national de Los Alamos au Nouveau-Mexique.
Cependant, la chaise du panel qui a rédigé le rapport du NRC a averti que ces jours faciles étaient révolus. “L’administration a mené une période très réussie au cours des 30 dernières années grâce à une combinaison d’installations informatiques haut de gamme et d’expertise en science computationnelle qui en font des ressources nationales critiques”, a déclaré Kathy Yelick de l’Université de Californie à Berkeley. Outre les défis technologiques, elle affirme que “l’évolution rapide de la situation géopolitique… renforce la nécessité d’un leadership en matière d’informatique en tant qu’élément de dissuasion”.
Les tendances de l’industrie sont inquiétantes. La plupart des fabricants de semi-conducteurs ont quitté les États-Unis. Il ne reste qu’un seul développeur national de superordinateurs depuis le rachat de Cray par Hewlett Packard Enterprise en 2019. L’industrie développe des technologies pour des marchés à forte capacité tels que le cloud computing, qui ne se transfèrent pas facilement sur le marché beaucoup plus petit de la superinformatique. Les frontières de la technologie chaude sont l’intelligence artificielle et l’informatique quantique.
“Les affaires habituelles ne seront pas suffisantes” pour l’administration, indique le rapport. L’agence a besoin d’une feuille de route agressive pour développer de nouvelles technologies informatiques. Le rapport demande de mettre l’accent sur la « recherche à haut risque et à haut rendement » en mathématiques et en informatique pour « cultiver une innovation radicale ». Le rapport indique également que l’intelligence artificielle et l’informatique quantique ont du potentiel et méritent des enquêtes sérieuses, mais prévient que ni l’un ni l’autre ne remplacera vraisemblablement le calcul massif essentiel aux simulations traditionnelles.
L’administration prévoit maintenant de remplacer ses nouveaux systèmes informatiques exascale par un nouveau système de plus grande capacité basé à Los Alamos dans quatre à cinq ans, selon Rob Neely, directeur de programme pour la simulation avancée et l’informatique au Lawrence Livermore National Laboratory en Californie. Un deuxième système de ce type suivra vers 2030 à Livermore. « Nous avons déjà entamé des discussions avec les fournisseurs sur leur feuille de route », dit Neely. « Nous sommes également déjà bien avancés dans la mise en œuvre de certaines des recommandations de la NAS à LLNL, en particulier en augmentant nos partenariats avec les fournisseurs de cloud. » Livermore et Amazon Cloud Web Services explorent des intérêts communs en matière de cloud et de haute performance.
Ce qui se passera ensuite “dépendra beaucoup de l’orientation globale des tendances technologiques à cette époque, et de la façon dont nous pourrons adapter nos codes à ces changements sans sacrifier les besoins de la mission”, dit Neely. Il s’attend à ce que l’IA et le cloud influencent les systèmes post-exascale – si l’administration peut adapter ses codes à la nouvelle technologie. C’est un grand “si”. Après avoir passé une décennie à adapter ses codes aux unités de traitement graphique, l’équipe dirigeante de l’administration “n’a pas encore envie de se détourner de l’approche accélérée par GPU”.
Les préoccupations globales ne se limitent pas aux codes d’armes massifs et hautement spécialisés. Un programme gouvernemental a identifié plus de 20 applications nécessitant l’informatique exascale – dont beaucoup bénéficieraient de gammes encore plus grandes.