Alain Bouquet - Le programme Manhattan

6 - Los ALamos

<

Attention: ces pages ne sont plus mises à jour car le site a déménagé. Il se trouve désormais à:

cosmologie.wordpress.com

Pensez à mettre à jour vos signets et bookmarks!

Champs, Noyaux & particules

L'Antiquité

Atomisme moderne

Électrons

Radioactivité

Noyaux, protons et neutrons

Intruments, accélérateurs et détecteurs

Le photon

Mécanique quantique

Fission nucléaire

Fusion nucléaire

Particules en tout genre

Gravitation quantique?

LOS ALAMOS LA VILLE SECRÈTE

Sélection du site

Oppenheimer et Groves avaient eux-mêmes choisi le 16 novembre 1942 d’installer le site Y à Los Alamos, à l’emplacement d’un pensionnat de garçons, le Los Alamos Ranch School (qui eut William Burroughs et Gore Vidal parmi ses élèves) dont les bâtiments formèrent le noyau initial du laboratoire. Situé au Nouveau Mexique, à une cinquantaine de km au nord-ouest de Santa Fe, le site était d’un accès difficile. Il occupait à 2250 m d’altitude une partie du flanc Est d’une ancienne caldeira (les monts Jemez dont le volcan est éteint depuis plusieurs millions d’années), creusée par l’érosion de profonds canyons séparés par des plateaux (mesas) boisés (« los alamos » signifie « les peupliers »). À l’ouest s’élève la montagne de Pajarito, à l’est les sommets de la chaîne du Sangre de Christo (rouges au crépuscule). L’altitude compense en partie le climat désertique, les températures descendant à -10°C en hiver et montant en moyenne à 30°C l’été dans la journée, mais les nuits sont fraîches. L’été est aussi la saison la plus humide avec de violents orages.

Mesa à Los Alamos

Une mesa vue de Los Alamos, avec les montagnes Sangre de Christo à l’arrière-plan.

La capitale de l’État du Nouveau-Mexique, Santa Fe se situe à 50 km au sud-est (à 2100 m d’altitude, c’est la plus haute des capitales d’État aux États-Unis). L’architecture suit un style néo-colonial espagnol (dit Pueblo Revival) donnant à la région un caractère original (la ville se proclame « The City Different »). La principale ville de l’État, Albuquerque, sur les bords du Rio Grande, se trouve à 90 km au sud. Sa population ne dépassait pas 6 000 habitants en 1900 mais elle atteignait déjà 35 000 habitants en 1940 (100 000 en 1950, 520 000 aujourd’hui), en faisant une des villes croissant le plus vite dans le pays. Le climat est similaire à celui de Santa Fe, l’altitude de la ville variant de 1500 à 2000 m.

Carte de Los Alamos

La région de Los Alamos, avec les villes de Santa Fe à 50 km au sud-est et Albuquerque à 90 km au sud ©GoogleMaps

Carte de la région de Los Alamos

La région de Los Alamos : un plateau boisé entaillées par des gorges profondes

Le projet initial d’Oppenheimer n’imaginait qu’un petit laboratoire de recherche sur la physique des neutrons rapides, et Manley avait esquissé un laboratoire d’une cinquantaine de personnes, rassemblant les différentes équipes alors actives : une douzaine de théoriciens et une trentaine d’expérimentateurs (assistants compris), et un secrétariat de cinq personnes. Groves, lui, envisagea immédiatement un établissement d’une ampleur plus grande, rassemblant quelques centaines de scientifiques et de techniciens autour de la conception et de la réalisation d’une arme. La réalisation des installations fut confiée le 6 décembre à la compagnie M.M. Sundt (et/ou l’Engineering District d’Albuquerque ?) qui commença immédiatement les constructions (sans plans). Dès mars 1943, les premiers bâtiments étaient achevés, Oppenheimer s’installa le 15 mars. Physiciens et techniciens arrivèrent progressivement dès avril 1943. Le 20 avril, un accord fut passé avec l’université de Californie pour qu’elle gère tous les contrats du personnel (accord toujours en vigueur : le Los Alamos National Laboratory est généré par l’Université de Californie, tout comme le Lawrence Livermore National Laboratory). Fin avril, le projet initial était réalisé à 95%, mais il se révéla immédiatement beaucoup trop petit.

Big House à Los Alamos

À Los Alamos, la « Big House », reste de la Los Alamos Ranch School, fut le coeur de l'activité sociale pendant les années de guerre et d’isolement © Wikipedia

Fuller Lodge

De même que Fuller Lodge

Entretemps, Oppenheimer avait pris son bâton de pèlerin pour convaincre les plus brillants de ses collègues d’abandonner ce qu’ils faisaient pour aller s’enterrer dans un endroit perdu du Nouveau Mexique et y travailler sur un projet militaire secret sur lequel il n’avait pas le droit de leur donner de détails. Complication supplémentaire, la plupart des meilleurs physiciens américains se trouvaient déjà impliqués dans des programmes prioritaires, à commencer par le radar, et le NDRC refusaient qu’ils soient affectés à d’autres projets. Parce qu’ils ne souhaitaient pas voir couronner trois siècles de science par une arme effroyable, Lise Meitner, Franco Rasetti à Montréal, et Isidor Isaac Rabi (alors directeur scientifique du Rad Lab au MIT) furent presque les seuls à refuser (à contrecœur, Rabi accepta cependant de venir de temps à autre comme consultant à Los Alamos, et il était présent lors de l’essai Trinity). Condon démissionna dès la 26 avril 1943 de ses fonctions de directeur adjoint, en complet désaccord sur les mesures de sécurité imposées par les militaires. Il estimait que le cloisonnement exigé par Groves empêchait la coordination indispensable entre les savants, bridait le programme et freinait son exécution. Mais la plupart acceptèrent l’offre d’Oppenheimer car, comme Oppenheimer le dit lui-même plus tard (en parlant alors de la bombe H), « It was technically sweet ». L’éventail des problèmes techniques et scientifiques qui se posaient à eux était trop séduisant.

De plus, Oppenheimer parvint à éviter que Los Alamos soit militarisé, bien que dans un premier temps Groves ait voulu attribuer des grades militaires aux physiciens selon leur rang (Oppenheimer eût été lieutenant-colonel !) et les astreindre à une discipline militaire. Oppenheimer n’était pas contre, initialement, mais il recula devant le tollé. Un compromis fut trouvé : Los Alamos fonctionnerait pendant les premiers mois de mise en route comme un laboratoire universitaire classique, avec un statut civil pour le personnel garde au moins, puis serait progressivement militarisé. Mais cela ne fut en fin de compte jamais mis en œuvre pour les scientifiques. Par contre les nombreux militaires présents, en particuliers les techniciens incorporés dans l’armée (les SED) furent eux-soumis à une discipline militaire, d’où des tensions entre les deux communautés. Les scientifiques conservèrent l’entière direction des recherches, l’armée se limitant à assurer l’intendance et la sécurité du site (parfois de manière excessivement tatillonne, et Feynman prit un grand plaisir à déjouer les contrôles).

Les physiciens purent également faire venir leurs familles. La vie à Los Alamos était malgré tout matériellement difficile et très confinée, et plusieurs ne le supportèrent pas. Certains parvinrent à ne venir à Los Alamos que pour des périodes assez courtes, en tant que consultants et en retournant le plus possible dans leurs laboratoires : von Neumann, par exemple, ou Bohr (quand il parvint à s’échapper du Danemark) ne firent que de brefs séjours, en général pour débloquer une situation.

La maison d'Oppenheimer à Los Alamos

La maison occupée par Oppenheimer à Los Alamos

Le rôle essentiel d’Oppenheimer fut d’assurer la coordination et l’arbitrage entre les différentes divisions en charge respectivement des aspects théoriques de la conception de l’arme, des aspects nucléaires expérimentaux, des essais de configuration d’explosifs, des essais d’aérodynamique de la bombe, des techniques métallurgiques de fabrication, etc. Il avait réussi à rassembler tellement de « stars » à Los Alamos que les questions d’ego devinrent également très vite cruciales. Des rivalités féroces se firent jour. Edward Teller pensait que le rôle de directeur de la Division de Théorie aurait dû lui revenir et, supportant très mal d’être sous la coupe de Hans Bethe, préféra travailler sur la fusion plutôt que d’exécuter sa part des travaux théoriques sur la fission. Edward Condon ne supporta la tutelle étroite des militaires que quelques semaines avant de démissionner. Oppenheimer, comme le raconte Teller, finit par connaître personnellement plusieurs centaines des personnes qui travaillaient à Los Alamos, non seulement leur travail mais aussi leur histoire personnelle, leur situation de famille, et leurs relations avec leurs collègues. Il parvenait également à suivre les dizaines de recherches simultanément menées par les divers groupes et son extraordinaire capacité de synthèse lui permit de conserver une vue d’ensemble du programme sans jamais perdre l’objectif de vue.

La vie à Los Alamos, ou Boîte postale 1663 à Santa Fe

Plan d'ensemble de Los Alamos en 1943

Le site se transforma en un immense chantier, et ne cessa pas de l’être pendant toute la durée de la guerre, de nouvelles constructions étant ajoutées au fur et à mesure des besoins. Il s’agit le plus souvent de constructions légères, généralement en bois, et des appartements (4 sur deux niveaux par maison) pour les familles, des dortoirs pour les célibataires, une pharmacie et une infirmerie de six lits (vite agrandie en hôpital dont le personnel dépassa la centaine à la fin de 1944), un cinéma, une bibliothèque et bien sûr des bureaux, des ateliers, des halls de montage, et des laboratoires. En 1945, 7 000 personnes vivaient et travaillaient à Los Alamos.

Entrée principale de Los Alamos en 1943

L’entrée principale de la zone enclose, en 1943

West Road à Los Alamos

West Road à Los Alamos en 1944

Trinity Drive et le passage surélevé à Los Alamos

Trinity Drive, avec le passage surélevé reliant les laboratoires© LAHS

Zone résidentielle à Los Alamos en 1943

Zone résidentielle à Los Alamos à l’époque d’Oppenheimer ©LANL

La vie n’était pas très facile à Los Alamos, surtout la première année où bien des équipements manquaient. Le Nouveau Mexique est une région aride, même si la mesa était boisée, et le vent sec et chaud desséchait la terre et les résidents. Les risques d’incendie étaient importants, surtout avec des constructions en bois, et l’eau était rare (il existait bien un petit étang, l’Ashley Pond, du nom du précédent propriétaire Ashley Pond II, mais il n’aurait jamais suffi à la consommation d’eau et des conduites durent être posées sur des dizaines de kilomètres). L’isolement imposait aussi de pénibles contraintes, réduisant presque à zéro les contacts avec familles et amis à l’extérieur, le courrier était censuré et passait toujours par la boîte postale 1663 à Santa Fe. Les déplacements en dehors du site strictement interdits sauf autorisation spéciale, en dehors de balades à pied le dimanche dans les montagnes de Jemez ou de pique-niques dans les canyons environnants. L’interdiction fut allégée à l’automne 1944, et des excursions à Santa Fe, Albuquerque ou dans les montagnes du Sangre de Christo furent permises (si l’on trouvait un véhicule, de l’essence et des pneus !). Il y avait très peu de téléphones, uniquement dans les bureaux au début, puis quelques uns furent installés dans la « ville » pour les appels d’urgence (mais passant par le standard militaire).

La maison des Teller à Los Alamos

La maison des Teller à Los Alamos.

Teller en famille

À droite, mais bien après la guerre, Edward Teller (à droite) jouant aux échecs avec son fils Paul, arrivé à Los Alamos à l’âge de deux mois, sous le regard de sa femme Mici et de sa fille Wendy © Lawrence Livermore Laboratory

Il y avait peu de femmes physiciennes. Maria Goeppert-Mayer, auparavant à Columbia au « Department of Substitute Materials », travailla sur des questions d’opacité pour Teller en 1945 (mais en restant à Columbia ?). Mary Langs et son mari Harold Argo étaient des étudiants de Teller à George Washington, et ils le suivirent en 1944 à Los Alamos : ils travaillèrent sur les réactions de fusion D-D et D-T pour la « Super » jusqu’après la guerre (ils partirent avec lui à Chicago, logeant chez Maria Goeppert-Mayer). Joan Hinton, nièce de Geoffrey Ingram Taylor, le spécialiste britannique de la mécanique des fluides, rejoignit Los Alamos en février 1944 pour travailler avec Fermi sur la réalisation des réacteurs à uranium enrichi (les « water boilers »). Les bombardements d’Hiroshima et Nagasaki la conduisirent à militer contre les armes nucléaires, puis à s’exiler en Chine communiste en 1948.

Le "commissary" à Los Alamos

Le « commissary » à Los Alamos, ancêtre des supermarchés

Elizabeth "Diz" Riddle Graves avait passé sa thèse à Chicago sur la diffusion des neutrons, travaillé au Met Lab, et vint à Los Alamos (où elle passa d’ailleurs le reste de sa carrière) travailler sur le réflecteur à neutrons des bombes. Son mari Alvin C. Graves était aussi physicien et se trouvait à côté de Louis Slotin lors de l’accident mortel de ce dernier en 1946. Il y eut plusieurs mathématiciennes (Mici Teller, Frances Wilson Kurath), et beaucoup de jeunes femmes travaillèrent à la division T-5 comme calculatrices.

Plusieurs épouses de physiciens occupèrent des fonctions importantes, en général administratives, aux côtés de Priscilla Greene, la secrétaire particulière d’Oppenheimer (elle avait quitté ses fonctions près de Lawrence à Berkeley par enthousiasme pour le projet), Charlotte Serber fut la bibliothécaire scientifique. De nombreux physiciens, ingénieurs et techniciens, amenèrent femmes et enfants souvent très jeunes. L’armée avait aussi détaché plusieurs auxiliaires féminines (WACs), qui ne furent pas toujours ravies de se retrouver sur un haut plateau semi-désertique au lieu des îles du Pacifique escomptées. Devant le manque de techniciens qualifiés et d’ingénieurs, l’armée détacha également des étudiants en ingénierie incorporés (le Special Engeneer Detachment ou SED). Malgré parfois quelques tensions, la cohabitation entre civils et personnels en uniforme se passa sans trop de heurts, malgré des écarts importants de solde, l’interdiction faite aux militaires de faire venir leur famille, et des obligations disciplinaires différentes. Plusieurs officiers, de l’Armée et de la Marine, furent aussi affectés à Los Alamos. En septembre 1943, il y avait une soixantaine de femmes travaillant dans la zone technique, et environ 180 un an plus tard, dont une vingtaine de scientifiques, une cinquantaine de techniciennes, une quinzaine d’infirmières, vingt-cinq enseignantes et soixante-dix secrétaires. Les scientifiques et les techniciennes se répartissaient dans les différentes groupes (16 dans la division de théorie, 4 dans celle de physique expérimentale, 25 dans celle de chimie-métallurgie, 20 dans celle de l’ingénierie des bombes, et 12 dans celle des explosifs).

Le "PX" à Los Alamos

Des militaires au PX à Los Alamos en 1944 (© LANL)

Des auxiliaires féminines de l'Armée à Los Alamos

Auxiliaires féminines de l’armée (WACs) se détendant au PX des Special Engineer Detachment (SED)

La présence des femmes et des enfants dans ce lieu isolé rendit la vie beaucoup plus supportable pour tout le monde et améliora la cohésion du groupe. Cette présence induisit un très fort taux de natalité (330 naissances en deux ans), et l’hôpital construit sur le site dut prévoir un important service de gynécologie, une maternité et un service de pédiatrie. La présence de nombreux enfants nécessita également la construction d’une école primaire, d’un collège et d’une école technique de très haut niveau. À l’été 1943, il avait été envisagé que les cours soient assuré par les physiciens et leurs épouses, pour éviter de faire venir des enseignants extérieurs. De nombreux étudiants avaient suivi leurs professeurs, ou avaient été affectés par l’armée en tant que SED (Special Engineer Detachment). Une cafeteria de 250 places ouvrit en 1945. Un conseil municipal réglait de nombreux détails de la vie quotidienne, tels que les programmes du cinéma, l’ouverture des laveries, les problèmes de circulation (les rues n’avaient pas de trottoirs), le choix des produits disponibles aux PX (« Post eXchange ») ou au « commissary » malgré les restrictions du temps de guerre (il existait des tickets de rationnement pour de nombreux produits). Le conseil gérait aussi les relations entre les civils et les militaires : Los Alamos était officiellement une base militaire, entourée de barbelés et de postes de garde, même si les militaires y étaient très minoritaires.

Le dimanche était un jour de repos imposé à tous, et des bals très courus avaient régulièrement lieu le samedi soir (l’alcool n’était pas toujours facile à obtenir). L’épouse de Robert Bacher, Jean, disait que « On Saturday nights, the mesa rocked ». Les PX offraient un grill, un bar et un dancing avec juke-box. Une chaîne de radio locale, KRS, diffusait à l’intérieur du site des informations et de la musique. Otto Frisch y donna régulièrement des concerts de piano.

Frisch au piano à Los Alamos

Otto Frisch au piano lors d’un des concerts qu’il donna régulièrement pour les auditeurs de Los Alamos.

Bal du samedi à Los Alamos

Bal du samedi soir dans la salle commune de l’une des résidences pour célibataires (accueillant aussi des couples à l’occasion)

Beaucoup de physiciens pratiquaient avec ardeur la randonnée ou l’alpinisme en été, le ski ou le patinage en hiver. De l’équitation était aussi possible, l’armée avait acquis les chevaux du pensionnaire en même temps que le terrain et les bâtiments, et certains passionnés en avaient eux-mêmes acheté.

Patinage à Los Alamos

Patinage à Omega Canyon (Betty Williamson et John Michnowicz, un photographe qui prit de très nombreux clichés de la vie quotidienne à Los Alamos).

Equitation à Los Alamos

Robert Robinson et son père Charles goûtent aux joies de l’équitation dans la montagne. D’autres se contentaient des joies plus tranquilles de la pêche. Un golf rudimentaire de 9 trous fut installé.

Pueblo Canyon à proximité de Los Alamos

Pueblo Canyon à proximité de Los Alamos

Excursion dans les environs de Los Alamos

Excursion le dimanche à la montagne. Debout : Enrico Fermi, Hans Bethe, Hans Staub, Victor Weisskopf, un inconnu. Assis : Erika Staub, Elfriede Segrè, Bruno Rossi ? Emilio Segrè a probablement pris la photo. © AIP

Organisation du laboratoire

Comme le dit clairement le Los Alamos Primer : The object of the project is to produce a practical military weapon in the form of a bomb in which the energy is released by a fast neutron chain reaction in one or more of the material known to show nuclear fission.

Le rôle de Los Alamos était de réaliser une bombe, soit à partir de l’uranium 235 fourni par Oak Ridge, soit à partir du plutonium 239 fourni par Hanford. Groves avait fixé comme objectif qu’une bombe soit prête le 1° août 1945. Ce délai très court de deux ans interdisait la distinction habituelle entre recherche, conception et réalisation d’un prototype, et production industrielle en série après correction des imperfections initiales. Il fallait mener de front les recherches, en les focalisant sur la conception d’un design fiable, et la mise en place de la production. Cela impliquait un chevauchement des responsabilités entre les différents groupes. Il fallait également poursuivre toutes les voies en parallèle, sans craindre la redondance, pour éviter de se heurter un jour à un obstacle infranchissable en ne suivant que la voie jugée la plus prometteuse. Par exemple, bien que l’assemblage d’une masse critique par un « canon » parut plus sûre que la méthode d’implosion, celle-ci continua à être menée en parallèle (mais avec des effectifs réduits par manque de moyens humains).

Los Alamos fut un des premiers exemple de laboratoire fonctionnant « sur mission » : il devait réaliser une bombe opérationnelle : tout ce qui irait dans cette direction recevrait un financement illimité et les moyens humains nécessaires, tout le reste serait laissé de côté. Donc pas de recherche pure, pas de solution technique fondée sur une connaissance approfondie des lois physiques, un emploi extensif des approximations, une recherche de la fiabilité plus que de la performance, de larges emprunts à la méthodologie des ingénieurs, une hiérarchie quasi militaire (divisions, groupes, sous-groupes avec des responsables clairement identifiés rendant compte à leur supérieur direct) et des jalons imposés avec des revues d’étapes. Los Alamos a pu cependant conserver une certaine autonomie vis-à-vis de la direction du Programme Manhattan (Bush, Conant, Groves et leurs adjoints), gardant la maîtrise de la conception des bombes et du choix des méthodes et des matériaux (nucléaires en particulier).

Plan de la Tech Area de Los Alamos

Plan des installations scientifiques de Los Alamos au temps du programme Manhattan.

Du 15 avril au 6 mai 1943, une série de réunions rassembla la cinquantaine de scientifiques déjà arrivés pour organiser le laboratoire et en planifier les activités. Elles se tinrent dans les salles de classe du collège qui occupait les lieux avant de se faire déloger par l’armée, et se poursuivaient souvent au cours de randonnées dans la montagne environnante, ou dans le dortoir de l’école occupé en attendant la réalisation des appartements spartiates prévus pour les seniors (très relativement, la moyenne d’âge était de 32 ans) et des dortoirs pour les juniors. Oppenheimer avait 39 ans. La plupart des présents se connaissaient très bien, ayant déjà collaboré à de nombreuses reprises : Fermi, Condon, Rabi, Bethe, Bacher, Manley, Segrè, Wilson… Les discussions portèrent surtout sur le choix des recherches à effectuer et des priorités à décider parmi les problèmes techniques à résoudre. Il ne fut pas tellement question de l’organisation administrative, sinon un refus généralisé des scientifiques d’être placés sous autorité militaire et de se voire attribuer des équivalences de grades. Dans l’esprit de la plupart des participants, il devait s’agir d’un séjour bref, de quelques mois au grand maximum ! Au terme de ces réunions, beaucoup des participants repartirent dans leurs laboratoires d’origine pour rassembler le matériel et les personnes dont ils auraient besoin à Los Alamos. D’autres reprirent leurs activités antérieures, ne revenant à Los Alamos qu’épisodiquement comme Rabi. Fermi retourna à Chicago, passa du temps à Hanford puis à Oak Ridge, et il ne s’installa à Los Alamos qu’en août 1944.

Laboratoires à Los Alamos

Un laboratoire scientifique de Los Alamos en 1944

Oppenheimer organisa initialement le site de Los Alamos en quatre divisions, subdivisées en groupes : une division de physique théorique (division T), une de physique expérimentale (division P), une de chimie et métallurgie (division CM) et une d’artillerie (division E). Chaque division était répartie en plusieurs groupes de travail, ayant chacun une tâche précise, et un comité de coordination (rassemblant les responsables de division et les responsables administratifs) assurait la cohérence de l’ensemble. S’ajoutaient bien sûr les services administratifs, l’intendance, la sécurité militaire, les services de santé, etc. L’organisation fut modifiée à plusieurs reprises en fonction des nécessités, en particulier en juillet 1944 lorsqu’il fallut revoir tous les plans de réalisation des bombes. Au fur et à mesure de la montée en puissance de Los Alamos, Oppenheimer nomma des directeurs-adjoints pour l’épauler. Pour augmenter l’efficacité, Oppenheimer voulut que l’information circule aussi librement que possible entre les différents groupes ou divisions, malgré les fortes réticences des militaires chargés de la sécurité. Il finit par convaincre Groves que les ingénieurs et les physiciens travailleraient beaucoup plus vite de cette manière, et que la sécurité serait mieux assurée si tout le monde était conscient de l’importance des recherches et de la nécessité du secret vis-à-vis de l’extérieur. « When the American people know the reasons for secrecy, they can be depended upon to keep silent. » dit Ernest Lawrence en 1943. Oppenheimer institua dès mai 1943 un colloque (hebdomadaire, sous la pression de Bethe) rassemblant tous les seniors, et il chargea Teller de les organiser.

Divisions

La division T (physique théorique) fut placée sous la direction de Hans Bethe, avec cinq groupes :

Son objectif était de calculer la meilleure configuration pour une bombe en tenant compte des données expérimentales au fur et à mesure qu’elles parvenaient. La priorité était donnée à l’assemblage par un canon, suivi par l’assemblage par implosion, la bombe à fusion défendue par Teller n’arrivant qu’en troisième rang malgré son intérêt évident à plus long terme. Les problèmes abordés touchaient évidemment à la physique nucléaire, mais aussi à l’hydrodynamique, à l’optique, à la chimie et la métallurgie et jusqu’à la géophysique.

Vixtor Weisskopf

Victor Weisskopf à l’époque de Los Alamos

Victor Weisskopf (1908-2002), théoricien autrichien, reçut son doctorat en 1931 à Göttingen, puis il travailla avec Heisenberg, Schrödinger, Bohr (Copenhague 1932-1933) et Pauli (Zürich 1933-1936). Il émigra aux États-Unis en 1937, s’installant à Rochester. Il fut un des pionniers de la renormalisation en électrodynamique quantique. Il rejoignit en 1943 le programme Manhattan à Los Alamos. Il fut en 1944 un des créateurs de la Federation of concerned scientists, puis milita beaucoup après la guerre contre les armes nucléaires (« Je n’hésite pas à dire que la seconde bombe est un crime » déclara-t-il, jugeant la guerre froide comme « un cas de maladie mentale collective. »). Il fut nommé professeur au MIT en 1945, mais ne rejoignit son poste qu’après la fin de la guerre. Au MIT, il dirigea le groupe de théorie du Laboratoire de Science Nucléaire, il y rédigea en 1952 Theoretical Nuclear Physics plus connu comme le « Blatt et Weisskopf ». Il dirigea le CERN de 1961 à 1966 avant de retourner au MIT diriger le département de physique de 1967 à 1973.

Maria Goeppert-Mayer Maria Goeppert-Mayer

La division P (physique expérimentale) fut placée sous la direction de Robert Bacher, qui avait annoncé qu’il partirait dès que le site serait militarisé (ce qui n’arriva pas). Elle était divisée en cinq puis sept groupes :

Le liquéfacteur à hydrogène fut opérationnel en avril 1944, et Earl A. Long obtint au cours de l’hiver suivant du deutérium liquide.

BacherRobert Bacher

Robert Fox Bacher (1905-2004) passa son doctorat à l’université du Michigan, fut post-doc d’Oppenheimer à Caltech avant de devenir professeur de physique à Cornell en 1935, où il collabora avec Bethe (corédacteur de la « bible » de Bethe). Il devint en 1946 directeur du Laboratoire d’études nucléaires de Cornell, avant de rejoindre Caltech en 1949, où il dirigea la division de physique avant de devenir vice-président de l’institut en 1962. Dans les années 1950, il fut membre de l’AEC et un des grands soutiens d’Oppenheimer.

La division CM (chimie et métallurgie) fut dirigée par Joseph W. Kennedy, qui n’avait alors que 27 ans. Ses objectifs étaient la purification du plutonium produit par les réacteurs (dont on s’attendait à ce qu’il soit beaucoup plus contaminé par des produits de fission que celui produit par les cyclotrons), la métallurgie du plutonium et de l’uranium, et la fourniture de sources radioactives comme le polonium et le radio-lanthane. Pendant la construction d’une grande « salle blanche » sans poussières, Kennedy coordonna les recherches sur la métallurgie du plutonium menées au Met Lab de Chicago, mais aussi au département de chimie de Berkeley et dans l’Iowa. Charles A. Thomas, de Monsanto, vint en juillet 1943 diriger la chimie du plutonium.

Joseph Kennedy à Los Alamos Joseph W. Kennedy

Joseph William Kennedy (1916-1957) fut en 1941 l’un des découvreurs du plutonium (avec Seaborg, McMillan et Wahl). Il passa son doctorat de chimie en 1939 à Berkeley. À Los Alamos, son rôle de gestionnaire fut essentiel. En 1946 il devint professeur de chimie à la Washington University de Saint Louis.

La division E (Ordnance Engineering, artillerie) fut placée sous la responsabilité du capitaine de vaisseau (captain) William S. (« Deke ») Parsons de l’US Navy, qui prit ses fonctions en juin 1943. Les différents groupes étaient cependant presque tous dirigés par des physiciens.

Parsons en 1945 Wiliam « Deke » Parsons en 1945

Le capitaine de vaisseau (plus tard contre-amiral) William Sterling Parsons (1901-1953) était un spécialiste de l’artillerie et des explosifs. Il travailla au Naval Research Laboratory sur le radar et les fusées de proximité de 1939 à 1943. Il devint le 15 juin 1943 le directeur de la division E, en charge de la réalisation matérielle des bombes. Après avoir assisté à l’essai Trinity, il se rendit à Tinian diriger l’assemblage des bombes, et il participa à la mission sur Hiroshima, au cours de laquelle il arma la bombe. Après la guerre, il fut responsable des opérations nucléaires, dirigeant en juillet 1946 l’Operation Crossroads (les essais nucléaires à Bikini). L’amiral Parsons fut ensuite membre de l’AEC tout en occupant de hautes fonctions à l’US Navy jusqu’à sa mort soudaine en 1953.

La division E fut initialement divisée en 6 groupes, atteignant finalement 11 groupes en juin 1944, juste avant le grand remodelage de l’été 1944.

Les constructions des logements, des ateliers et des laboratoires avancèrent rapidement. Un cyclotron et plusieurs accélérateurs linéaires furent apportés de Harvard, de Chicago ou de l’université du Wisconsin. Une installation de liquéfaction de l’hydrogène figura parmi les premiers équipements : elle était destinée aux travaux sur la Super, la bombe à fusion de Teller.

PREMIERS TRAVAUX

Le 24 juin 1943, Segrè mesura le taux de fission spontanée du plutonium (produit par un cyclotron) à 5 fissions/kg/s. Ce taux permettait tout à fait d’envisager l’assemblage d’une masse critique de plutonium par un canon, comme cela avait été envisagé lors du Summer Study de Berkeley, et donna le feu vert aux travaux sur la bombe Thin Man. Du 10 au 15 juillet, la mesure du nombre de neutrons secondaires indiqua que chaque fission produisait en moyenne 3 neutrons. En mars 1944, Segrè revit à la hausse, à 11 fissions/kg/s, le taux de fissions spontané du plutonium (essentiellement du plutonium 239) toujours produit par les cyclotrons. Cela réduisait nettement les marges de sécurité pour Thin Man, mais cela demeurait acceptable. Ce n’est qu’en décembre 1943 que le plutonium produit par le réacteur pilote X-10 à Oak Ridge commença à être isolé. Segrè n’en disposa pas avant mars 1944.

Le Planning Board évoqua le 30 mars 1943 [avant les conférences de Serber ? cf. Critical assembly p.86] la possibilité de comprimer une sphère creuse au-delà de la masse critique, et décida le 2 avril de demander à la division T une étude de la question. Neddermeyer débuta le 4 juillet ses expériences d’implosion avec des tubes cylindriques, mais il ne parvint pas à obtenir une implosion symétrique. Son équipe était réduite à trois assistants, car Parsons ne jugeait pas ces travaux prioritaires. Lors d’une visite le 20 septembre, von Neumann souligna fortement l’intérêt de l’implosion pour atteindre des densités de cœur plus élevées, avec le double gain de réduire la masse critique nécessaire et d’augmenter le rendement de la fission. Bethe et Teller commencèrent à étudier la question d’un point de vue théorique, avec l’appui d’Oppenheimer et de Groves, et von Neumann promit d’étudier la physique de l’implosion à ses moments perdus. Pour épauler cet effort, Oppenheimer suggéra le 23 septembre de recruter George Kistiakowsky qui supervisait à l’OSRD les travaux sur les explosifs. Kistiakowsky arriva en janvier 1944 à Los Alamos.

Entretemps, le 17 septembre 1943, un premier essai de canon à grande vitesse pour Thin Man fut réalisé. En décembre, Segrè mesura le taux de fission spontanée de l’uranium 235 et le trouva inférieur aux attentes. Cela permit d’envisager une vitesse d’assemblage plus faible, et donc un canon plus court et plus léger (ce fut Little Boy).

En novembre 1943, après les accords de Québec, arrivèrent à Los Alamos les premiers membres de la délégation britannique, dirigée par Chadwick. La plupart avaient été membres du Comité MAUD, ou étaient des experts en physique nucléaire ou en explosifs. Parmi eux, George Placzek, William Penney (qui dirigea après guerre le programme britannique d’armement thermonucléaire), Philip Moon, James Tuck, Egon Bretscher, Klaus Fuchs et bien sûr Otto Frisch et Rudolf Peierls.

Les Britanniques à Los Alamos

William Penney, Otto Frisch, Rudolf Peierls et John Cockroft © Corbis

Bohr avait fui le Danemark pour la Suède en octobre 1943, puis rejoint la Grande-Bretagne en avion (manquant de périr d’asphyxie au cours du vol) avant d’arriver (en décembre ?) à Los Alamos comme consultant, participant à de nombreuses discussions mais sans avoir de tâche fixée.

Billet de banque à l'effigie de Bohr

Billet danois de 500 couronnes à l’effigie de Niels Bohr.

Bohr à Los Alamos

Niels Bohr (?) à Los Alamos

Fat Man, Thin Man et Little Boy

La difficulté majeure de la réalisation d’une bombe nucléaire, une fois qu’on dispose d’assez de matériau fissile, est de parvenir à en fissionner le maximum — en maintenant la cohésion de la bombe — avant que l’énergie dégagée de plus en plus rapidement n’en disperse les éléments, et stoppe de ce fait la réaction en chaîne. Dès 1940, Frisch et Peierls avaient indiqué qu’il fallait pour cela rassembler nettement plus d’une masse critique (de l’ordre de 2 ou mieux 3 pour que le rendement de l’explosion ne soit pas négligeable). Mais pour éviter une explosion prématurée, il fallait :

La masse critique dépend de manière sensible de la forme du matériau fissile : un cylindre, et a fortiori un cylindre creux, ou une sphère creuse ont une masse critique nettement plus élevée qu’une sphère pleine. Le calcul de la masse critique d’uranium était un problème très difficile à résoudre à l’automne 1943 car les théoriciens ne parvenaient pas à trouver une façon de ramener les équations de diffusion des neutrons dans des géométries plus complexes qu’une sphère homogène (un cylindre plein et un cylindre creux par exemple) à des formes analytiquement intégrables. Un calcul d’ordre de grandeur n’est pas trop difficile, mais il fallait être précis pour être juste sous-critique, et pas super-critique ! Des méthodes semi-analytiques, voire complètement numériques, furent progressivement mises au point (méthode de Serber-Wilson en particulier, qui servit jusque dans les années 1950). Ce fut une des premières applications de calcul numérique à grande échelle effectué par le groupe T-5, et la lenteur des calculs incita à l’achat de machines IBM à cartes perforées, qui ne furent pas livrées avant le printemps de 1944 (où elles servirent d’ailleurs surtout aux calculs d’implosion).

Sphère pleine de 0.9 mcritique + Sphère creuse de 0.9 mc (~2mcx(2/3)2) = sphère pleine de ~2.7mc

La masse critique varie aussi avec la densité du matériau, étant inversement proportionnelle au carré de cette densité. D’où les deux idées avancées lors du Summer Study de Berkeley : assembler plusieurs masses sous-critiques sans modifier leur densité, ou augmenter la densité d’une masse sous-critique. Dans le premier cas, le plus simple était de tirer un projectile cylindrique creux sur une cible cylindrique pleine (qui remplirait le creux), dans le second cas l’idée était de comprimer une sphère creuse pour en faire une sphère pleine.

L’implosion présentait, sur le papier, de nombreux avantages.

En septembre 1943, la direction de Los Alamos décida d’intensifier les travaux sur l’implosion en faisant appel à Kistiakowsky (qui arriva en janvier 1944), Neddermeyer gardant en principe la responsabilité du groupe E-5. Mais les relations entre les deux hommes devinrent de plus en plus difficiles, Neddermeyer menant les recherches avec un sérieux académique mal adapté à une situation en évolution rapide, et le 16 février il fut remplacé par Kistiakowsky. Un groupe d’étude théorique de l’implosion, dirigé par Teller, fut parallèlement créé le 11 janvier dans la Division T. Teller fut remplacé en mai, en raison de conflits avec Bethe, et de son obsession pour « Super », la bombe à fusion.

Entretemps, sur les suggestions de von Neumann, l’idée de comprimer une sphère creuse fut remplacée par celle de comprimer une sphère pleine (le « cœur de Christy »). Il paraissait plus facile d’obtenir ainsi une compression régulière, mais surtout cela conduisait à augmenter la densité du plutonium ou de l’uranium. La densité finale plus élevée impliquait une masse critique plus petite, et elle exploitait mieux une quantité limitée de matière fissile. De plus, la densité plus élevée réduisait le libre parcours moyen des neutrons, donc l’intervalle entre deux fissions, et donc diminuait le risque de prédétonation.

Les deux configurations, canon et implosion, furent étudiées en parallèle sous les noms de Thin Man et Fat Man. Quand il apparut fin 1943 qu’une version raccourcie de Thin Man suffirait pour l’uranium, elle fut baptisée Little Boy (le petit garçon). Après la guerre, les bombes reçurent les noms plus officiels de Mark 1 pour Little Boy, Mark 2 pour une bombe à implosion qui ne dépassa pas le stade théorique et Mark 3 pour Fat Man. Les modèles de bombes reçurent des désignations allant jusqu’à Mark 27, les têtes nucléaires des missiles recevant elles des désignations en W (pour warhead, « tête militaire »).

Evolution des bombes nucléaires

Evolution des bombes nucléaires 1945-1986

CALCUL NUMÉRIQUE

Les problèmes à résoudre

Le groupe T-5 dirigé par le mathématicien Donald Flanders était le groupe le plus nombreux de la division de théorie, rassemblant environ 25 personnes en 1944. Son personnel était en majorité féminin (des épouses de scientifiques et des femmes du Women’s Army Corps), mais il comprenait aussi des scientifiques militaires (le Special Engineering Detachment) et quelques brillants théoriciens comme Stanislaw Ulam, Richard Feynman ou Nicholas Metropolis. Les épouses des physiciens (comme Mary Frankel, Josephine Elliott, Beatrice Langer, Mici Teller, Jean Bacher, Betty Inglis) utilisaient plutôt le papier et le crayon, les professionnelles du WAC des calculatrices de bureau, et les spécialistes du SED (le plus souvent de jeunes étudiants) les tabulatrices à cartes perforées.

Calculs longs et complexes pour

Les problèmes d’hydrodynamique conduisent à des équations aux dérivées partielles hyperboliques non- linéaires. Les solutions peuvent présenter des discontinuités, et il peut être risqué de remplacer une équation différentielle par une équation aux différences finies, car les dérivées peuvent devenir infinies. Les machines à cartes perforées étaient utilisées pour les parties régulières des flux, aussi longtemps que possible, et le raccord aux discontinuités (le front de l’onde de choc) était effectué à la main. Les problèmes étaient souvent traités en 1 dimension, soit en supposant une symétrie sphérique, soit une symétrie cylindrique (avec un cylindre infini), rarement en 2 dimensions (et jamais en 3). Des hypothèses simplificatrices étaient nécessaires pour ramener le problème à une forme soluble, généralement en passant d’équations aux dérivées partielles à des équations différentielles, plus simples, et/ou en paramétrant la forme des surfaces. Mais de cette manière, on risquait de passer à côté des instabilités naissant à la jonction de deux surfaces (Rayleigh-Taylor en particulier).

Le calcul du transport des neutrons aboutissait à une équation intégro-différentielle linéaire : la variation du nombre de neutrons en un point, ayant une vitesse donnée, dépend de la diffusion dans toutes les directions de tous les neutrons passant par ce point. Quand le problème avait une symétrie spatiale (sphérique de préférence) et que la longueur de diffusion (libre parcours moyen) était petite, le problème était à peu près soluble. Mais il se compliquait rapidement si la géométrie n’était pas homogène, les centres diffuseurs en mouvement, la longueur de diffusion comparable à la taille du système, ou plus grande, et si le nombre de neutrons n’était pas très grand (limite discrète). Cette situation se trouve précisément réalisée pour une masse légèrement supercritique, si l’on veut calculer la probabilité qu’un neutron initie une réaction en chaîne avant d’être absorbé ou de s’échapper (ou de provoquer une fission mais que tous les neutrons secondaires s’échappent). C’est pour résoudre ce genre de situation que la méthode de Monte-Carlo fut inventée. Mais avant cela, Robert Serber et Robert Wilson mirent au point une méthode semi-analytique, avec des fonctions hyperboliques et des exponentielles intégrales (remplacée ensuite par celle de Bengt Carlson dans les années 1950).

Franken et Nelson développèrent des méthodes de discrétisation des équations aux dérivées partielles nécessaires au calcul numérique, en décomposant les calculs complexes en plusieurs calculs simples distribués aux calculateurs humains. Pour éviter les erreurs, les calculs à mener étaient décomposés en tâches élémentaires, et ils étaient systématiquement exécutés par deux (ou trois) personnes indépendamment, avec des vérifications intermédiaires pour éviter de propager des erreurs. De nombreux calculs pouvaient être parallélisés : pour la résolution numérique des équations différentielles en hydrodynamique, par exemple, il était relativement facile de donner à chaque personne un des « pas » de l’itération des équations en un point de l’espace, et de lui demander de transmettre son résultat à la personne suivante dans le réseau. Flanders mit au point des feuilles spéciales facilitant la mise en place et l’exécution de ces calculs.

Calculatrices à main

Pour l’exécution des calculs eux-mêmes, si la règle à calcul demeurait l’outil de base des physiciens et des ingénieurs, « l’ordinateur humain multiprocesseur » réalisé par les équipes de calculatrices (humaines et mécaniques) utilisait des machines de bureau. La règle à calcul avait cependant l’avantage d’obliger à réfléchir aux ordres de grandeur des résultats attendus, avant de se lancer dans des calculs longs et complexes. Il n’y eut pas d’analyseurs différentiels à Los Alamos, mais des calculatrices de bureau électromécaniques, et aussi un petit nombre de machines à cartes perforées (à vocation initialement comptable ou statistique, Bureau of Census). Le premier ordinateur électronique, ENIAC, ne fut utilisé que dans les derniers mois de la guerre, et encore à distance (Aberdeen Proving Grounds ou Moore School ?).

Calcultarice Marchant Calculatrice Monroe

Calculatrices Marchant (à gauche) et Monroe (à droite)

Calculatrice Friden

Publicité des années 1940 pour une calculatrice Friden ST

Le parc initial de calculatrices comprenait des modèles Marchant, Monroe et Friden, les meilleurs disponibles à l’époque, mais Flanders le standardisa rapidement en choisissant des modèles Marchant (quelques irréductibles conservèrent leur Monroe). En raison de leur utilisation extrêmement intensive, les calculatrices mécaniques ou électromécaniques s’usèrent rapidement et elles s’enrayèrent de plus en plus souvent. Mais les renvoyer au fabricant pour réparation prenait trop de temps (Los Alamos était très isolé), aussi Metropolis et Feynman se mirent-ils à les désosser, à comprendre leur fonctionnement interne, et à déterminer quelles pièces étaient le plus souvent responsables des pannes. Ils devinrent ainsi rapidement des virtuoses du dépannage. Quand Bethe, directeur de la division de théorie, apprit cela, il estima que ces activités n’avaient pas de rapport avec les tâches pour lesquelles ils avaient été affectés à Los Alamos. Il commença par les exclure de l’atelier de réparation, mais il leva très vite l’interdiction quand le nombre de machines de bureau disponibles diminua de manière critique.

Richard Feynman Richard Feynman

Tabulatrices IBM à cartes perforées

À l’automne 1943, il devint rapidement apparent que les besoins en calcul numérique dépassait les capacités des calculatrices mécaniques : il fallait compter six à huit mois pour effectuer le calcul nécessaire pour chacune des formes non-sphériques. Bethe mentionna ce problème lors d’une réunion des responsables de Los Alamos. Le responsable de la logistique à Los Alamos, Dana Mitchell, avait travaillé à Columbia avec l’astronome Wallace John Eckert, qui utilisait depuis une dizaine d’années des tabulatrices IBM à cartes perforées pour effectuer de longs calculs astronomiques portant sur le mouvement des planètes et l’établissement d’éphémérides. Ne pas confondre W.J. Eckert avec J. Prespert Eckert, co- inventeur avec John Mauchly de l’ENIAC, le premier calculateur électronique programmable.

Répondant à la demande de Bethe, Mitchell estima que la durée d’un calcul serait réduite de six mois à quatre semaines avec des tabulatrices IBM 601, et il en commanda 3 en décembre. Elles arrivèrent en avril 1944, et furent immédiatement mises à contribution (mais pour les calculs relatifs à l’implosion). Metropolis et Feynman doutèrent de leur utilité, et ils organisèrent un concours entre machines à cartes perforées et dames armées de calculatrices Marchant. Devant exécuter les mêmes calculs, les deux équipes restèrent au coude à coude pendant la première journée, mais la fatigue se fit sentir et les calculatrices humaines prirent un retard croissant. Cette compétition avait surtout pour but de vérifier que la procédure employée avec les tabulatrices donnait bien les mêmes résultats que la procédure éprouvée avec les calculatrices à main. Le groupe T-5 fut alors réorganisé : pour tirer le meilleur parti des nouvelles machines, un groupe T-6 fut créé sous la direction de Frankel et le rythme de travail ne cessa de s’accélérer.

IBM 601

IBM 601, capable de réaliser une multiplication par seconde

Intérieur d'une IBM 601

L'intérieur d'une IBM 601

En raison du secret, IBM ne savait pas à quoi allaient servir les machines, et ne put envoyer une équipe pour les monter et les mettre en service. Feynman, Frankel et Nelson durent terminer eux-mêmes le montage à partir des schémas de câblage. La mathématicienne Naomi Livesey arriva de l’université de l’Illinois à Urbana-Champaign en février 1944 pour superviser l’équipe de civils et de militaires en charge des machines. Elle avait acquis une bonne expérience des tabulatrices IBM en effectuant des études statistiques et des sondages pour estimer les coûts de diverses administrations pour le compte de Princeton Surveys (relevant de la School of Public and International Affairs de l’université de Princeton). Elle fut assistée à partir de l’été par Eleanor Ewing qui enseignait les mathématiques chez Pratt & Whitney.

IBM 405

Une IBM 405 capable de lire des cartes perforées, d’effectuer des calculs sur les données, et d’imprimer les résultats

Le groupe disposa au printemps 1944 de trois IBM 601, capables de lire sur une carte perforée deux nombres de 8 chiffres, de les multiplier et de perforer le résultat sur la même carte, le tout en une seconde. L’IBM 601 pouvait également effectuer des additions et des soustractions, calculer un inverse (et donc effectuer une division). L’IBM 601 fut l’outil de base du groupe T-6, mais le groupe disposa également de machines limitées aux additions et soustractions (IBM 405), de perforatrices (IBM 031), de duplicatrices de cartes (IBM 513) et de trieuses (IBM 075). Avec cet arsenal, les calculs qui prenaient six mois purent être effectués en trois semaines, et l’optimisation des méthodes de calcul permit de ramener ce temps à trois jours à la fin de la guerre. Feynman remarqua que certains calculs commençaient sur une machine, par une multiplication par exemple, puis continuait sur une deuxième, par une addition, puis sur une troisième… avant de revenir à la première pour une nouvelle multiplication. Il eut l’idée d’utiliser des cartes de couleurs différentes (pour éviter de les mélanger) qui parcouraient le même cycle mais avec un décalage de un, deux et trois rangs, ce qui multipliait par quatre la vitesse de calcul (dans cet exemple). Cependant, l’ensemble des calculs nécessaires à la mise au point de l’implosion dura quand même plusieurs mois, et ils n’auraient jamais pu être menés à bien sans ces machines.

IBM 031

La petite perforatrice IBM 031 © IBM

Les nombres étaient représentés par un signe, un chiffre, sept décimales et un exposant (en fait 50 + le vrai exposant), et on entrait le premier opérande, l’opération puis le second opérande, la machine donnant le résultat. Des fonctions plus complexes (racine, puissance, sinus, exponentielle, logarithme) pouvaient être câblées à la manière d’un standard téléphonique. L’opérateur, assis devant la machine, installait les paquets de cartes, recalait si nécessaire, surveillait les listings et intervenait en cas de panne. L’Armée avait fourni un réparateur agréé IBM, un GI mobilisé, mais pannes intermittentes et, pire, erreurs de calcul, étaient très fréquentes (de l’ordre de une tous les trois pas d’intégration). Les relais étaient en effet sensibles à la poussière et aux vibrations des camions qui ne cessaient de passer sur la route mal pavée devant le bâtiment. Il s’avéra plus indispensable que jamais de dupliquer systématiquement tous les calculs.

IBM 513

Duplicatrice IBM 513 analogue à celle de la division de théorie à Los Alamos

Pour aller plus vite, la division T commanda en mai 1944 à IBM des machines « sur mesure » capable d’effectuer des multiplications multiples, ainsi que des divisions. Nelson rencontra même en juin à New York le vice-président d’IBM, John McPherson, pour préciser ses demandes et les nouvelles machines arrivèrent à Los Alamos à la fin de 1944.

IBM 075

Trieuse de cartes IBM 075

Frankel contracta ce que Feynman appela « la maladie des ordinateurs », se passionnant pour leur fonctionnement et les manières de l’améliorer, en perdant de vue leur finalité pratique. Après la guerre, il se consacra d’ailleurs entièrement aux ordinateurs. Ses relations étaient difficiles avec les personnels sous ses ordres, en particuliers les appelés du SED. Bethe confia alors la direction du groupe T-6 à Feynman, qui expliqua aux jeunes militaires les objectifs de leur travail, développer une arme pour terminer la guerre plus vite, ce qui les passionna et les amena à mettre aux point des méthodes de calcul de plus en plus efficaces.

Calculs numériques

La simulation de l’onde de choc de l’implosion nécessitait la résolution d’une équation hyperbolique aux dérivées partielles. La symétrie sphérique permettait de se ramener à une dimension d’espace seulement (et une dimension de temps), sauf bien sûr à l’interface entre les deux types d’explosifs (« lent » et « rapide »). Les machines n’étaient programmées que pour calculer l’évolution de l’onde de choc dans le matériau homogène, et le calcul de la transition à l’interface était effectué à la main, en général en parallèle par Naomi Livesey et par Tony Skyrme (de la mission britannique). Cela leur prenait 6 à 8 heures, puis ils comparaient leurs résultats avant de les introduire à nouveau dans la machine pour la suite des calculs. L’expérience aidant, ce calcul d’interface fut abandonné quand il apparut que les solutions numériques des équations se stabilisaient rapidement après leur traversée.

Ulam, Feynman et von Neumann

Ulam, Feynman et von Neumann

La procédure numérique consistait à évaluer l’équation différentielle en un certain nombre de points de l’espace (en une dimension seulement) ce qui donnait une pile de cartes perforées représentant l’état de l’implosion à un instant donné. Le passage de cette pile à travers la série de machines, chacune effectuant une opération élémentaire (addition, soustraction, multiplication ou division), correspondant à un pas d’intégration temporelle, et il engendrait une nouvelle pile de cartes. Il ne restait qu’à répéter l’opération pour suivre le développement de l’implosion puis de l’explosion. Chaque configuration du cœur, de l’enveloppe (tamper) et des explosifs nécessitait un calcul séparé.

Le premier calcul d’implosion sur les IBM dura 3 mois, de février avril 1944, et il concerna la simulation d’un cœur creux, l’idée initiale précédant celle de Christy d’un cœur plein. 7 autres calculs se déroulèrent jusqu’à la fin de 1944, concernant surtout le cœur plein de Christy, et 17 autres en 1945 (cœur plein puis « levitated pit » en mars et premiers essais de miniaturisation). Ces calculs furent validés par l’essai Trinity. Les machines fonctionnaient 24h/24 (mais 6 jours sur 7 seulement) grâce à 3 équipes du SED qui se relayaient.

Pour gagner du temps, la division T-6 procéda à des simulations exploratoires d’un grand nombre de configurations puis, en fonction des résultats, elle se focalisa sur une configuration particulière sur laquelle fut menée une simulation beaucoup plus détaillée. Cette configuration, Mark III, fut celle de Fat Man (Mark I était Little Boy et Mark II une autre configuration d’implosion, inférieure à Mark III et jamais réalisée). Les calculs théoriques furent largement menés indépendamment des expériences, par manque de temps.

Programmation sur une IBM 601

Programmation d’une opération complexe sur une IBM 601 à Los Alamos

Von Neumann se passionna pour l’utilisation des cartes perforées et il s’initia à leur emploi avec Livesey et Ewing, dont il partageait le bureau lors de ses passages à Los Alamos. Metropolis raconte qu’il était très irrité par le câblage des IBM : il rendait possible la réalisation d’opérations en parallèle, mais il fallait être très attentif à la durée relative de ces opérations, et von Neumann en conclut qu’il était préférable de ne pas avoir recours aux opérations en parallèle dans les ordinateurs électroniques qu’il conçut par la suite (architecture « de von Neumann »). Par la suite, von Neumann se passionna pour les calculateurs électromécaniques à relais, le Relay Computer de George Stiblitz aux Bell Labs, et surtout le Mark I de Howard Aiken à Harvard (initialement construit d’ailleurs de 1939 à 1943 chez IBM sous le nom d’Automatic Sequence-Controlled Computer). Un des calculs exécutés à Los Alamos fut testé au printemps 1944 sur le Mark I : le calcul dura en fait plus longtemps, mais avec une précision numérique très supérieure. Le Mark I mettait 1/3 s pour faire une addition, 6 s pour une multiplication et une minute pour un log ou un sinus. C’était une machine imposante : 15 mètres de long, 5 tonnes, 750 000 composants, 2200 roues de registres, 3300 relais, 800 kilomètres de câblage.

Le Mark I de Aiken

Le Harvard Mark I (ou IBM ASCC) de Howard Aiken, à Harvard aujourd’hui

Von Neumann en 1945

Neumann János (John von Neumann) à l’époque de Los Alamos© LANL

Neumann János ou John von Neumann (1903-1957) né à Budapest, PhD en maths en 1926 à Budapest, part à Berlin puis aux USA où il devient (avec Einstein et Gödel) un des membres fondateurs de l’IAS de Princeton en 1933. Travaux en logique mathématique, théorie axiomatique des ensembles, fondations mathématiques de la mécanique quantique en 1932, économie et théorie des jeux en 1944, informatique en 1944 (l’architecture de tous les ordinateurs suit les règles établies par von Neumann) et stratégie nucléaire militaire (théorie de la « destruction mutuelle assurée ») dans les années d’après guerre.

Von Neumann jouait le rôle d’expert en ondes de choc auprès de l’OSRD et auprès de l’Armée (tant au Bureau of Ordnance qu’au Balistique Research Laboratory à Aberdeen dans le Maryland). C’est d’ailleurs par ce canal qu’il apprit d’Herman Goldstine l’existence du projet ENIAC de calculateur électronique pour la mise au point de tables de tir (à l’époque, une centaine de femmes, armées de calculatrices électromécaniques, calculaient les trajectoires des obus, à raison de 750 calculs par trajectoire, ce qui leur prenait deux semaines ; une table standard – pour un canon et un obus donnés – contenait 3000 trajectoires et il fallait quatre ans à l’équipe pour l’achever). Cela ressemblait beaucoup aux problèmes de calcul rencontrés à Los Alamos, et il n’est pas surprenant que von Neumann ait immédiatement voulu utiliser l’ENIAC, mais il ne fut achevé que fin 1945. Il n’était pas programmable, la séquence de calculs étant déterminée par le choix des branchements et la position des interrupteurs pour chacune des milliers d’étapes. Les données étaient fournies et stockées sur des (millions de) cartes perforées. Von Neumann contribua à ses successeurs, l’EDVAC, qui était programmable, puis l’IAS Machine et ses dérivés (ILIAC, MANIAC).

Evolution de la puissance des ordinateurs

Évolution de la puissance (mesurée en nombre d'instructions exécutées par seconde) des ordinateurs depuis 1940 montrant l'accrossement exponentiel (loi de Moore): un ordinateur portable actuel (Intel Core i7) est cent milliards de fois plus puissant que l'ensemble de la division T de Los Alamos au temps du programme Manhattan.

Fusion ?

Le groupe de Teller, dans la division T puis dans la division F après la réorganisation de l’été 1944, avait peu à peu réalisé que la complexité des calculs était beaucoup plus grande pour la fusion que pour la fission. Il ne suffisait pas de suivre la diffusion de neutrons dans un matériau neutre et quasi-statique, mais de particules chargées (les noyaux) dans un plasma, la notion de masse critique était remplacée par celle de température d’allumage (et la température variait dans tout le volume), et il fallait s’assurer que la combustion était auto-entretenue et ne s’éteignait pas. L’estimation des opacités nucléaires était un problème crucial, et en avril 1945 Teller demanda pour cela l’aide de Maria Goeppert-Mayer à Columbia et celle d’Eckert (à Columbia aussi) pour les calculs (les IBM de Los Alamos étant réservées aux calculs d’implosion). Les Frankel et Metropolis passèrent l’été 1945 à préparer les calculs d’allumage du deutérium (en 1 dimension supposant une symétrie sphérique), puis ils modifièrent le codage pour l’ENIAC : ce fut le premier calcul mené sur cette machine et il dura 6 semaines (décembre 1945-janvier 1946).

En raison des nombreuses simplifications nécessaires (Compton inverse négligé, bremsstrahlung simplifié, réchauffement du deutérium par celui qui fusionnait négligé), le résultat n’était concluant ni dans un sens ni dans l’autre : l’allumage du deutérium par une bombe à fission semblait malgré tout très improbable. Une conférence se déroula en avril 1946 (rapport secret LA-575) pour faire le point, les conclusions optimistes de Teller étant critiquées, par Serber en particulier.

The design at that time was for a gun-type uranium fission bomb to be surrounded by about a cubic meter of liquid deuterium, with the whole assembly being encased in a heavy tamper. A large but undetermined amount of tritium would be required to ignite the reaction.

La crise de l'été 1944 et la réorganisation du laboratoire

Plutonium 240 Early experiments on both uranium and plutonium provided welcome results. Uranium emitted neutrons in less than a billionth of a second- just enough time, in the world of nuclear physics, for an efficient explosion. Emilio Segrè later provided an additional cushion with his discovery in December 1943 that, if cosmic rays were eliminated, the subcritical uranium masses would not have to be brought together as quickly as previously thought; nor would the uranium have to be as pure. Muzzle velocity for the scaled down artillery piece could be lower, and the gun could be shorter and lighter. Bacher's engineering division patiently generated the essential cross-sectional measurements needed to calculate critical and efficient mass. (The cross section is a measurement that indicates the probability of a nuclear reaction taking place). The same group utilized particle accelerators (Van de Graaf) to produce the large numbers of neutrons needed for its cross-sectional experiments. Bacher's group also compiled data that helped identify tamper materials that would most effectively push neutrons back to the core and enhance the efficiency of the explosion. Despite Los Alamos's postwar reputation as a mysterious retreat where brilliant scientists performed miracles of nuclear physics, much of the work that led to the atomic bombs was extremely tedious.

Le 5 avril 1944, arrivèrent les premiers échantillons de quelques grammes de plutonium venant du réacteur expérimental X-10 d’Oak Ridge. Emilio Segrè les utilisa pour mesurer plus précisément les sections efficaces du plutonium et affiner l’évaluation de la masse critique de plutonium nécessaire (selon la configuration choisie). À la différence du plutonium synthétisé avec les cyclotrons, le plutonium 239 des réacteurs était contaminé par 0.1% de plutonium 240. C’était prévisible, puisque restant dans le réacteur une fois formé, le plutonium 239 avait le temps d’absorber un neutron de plus et, au lieu de fissionner, de se transformer dans 30% des cas en plutonium 240 d’une durée de vie de 6 500 ans. Les physiciens s’attendaient à ce qu’il soit beaucoup plus spontanément fissile que le 239, par analogie avec l’uranium 238 car tous les deux ont un nombre pair de protons et de neutrons. La mauvaise nouvelle était l’ampleur inattendue, et considérable, de cette fission spontanée.

Noyau U 235 U 238 Pu 239 Pu 240
Neutrons/kg/s 0.01 13.6 22.0 920 000

Dans une bombe contenant 50 kg d’uranium 235, le taux de fission spontanée conduisait à un flux de 0.5 neutron par seconde, et le risque de prédétonation pendant la milliseconde de l’assemblage était quasi-nul. Si le processus d’enrichissement ne se révélait pas capable d’isoler de l’uranium 235 pur, le risque de prédétonation augmenterait : avec un enrichissement de 90% seulement, les 10% d’uranium 238 conduiraient à 70 neutrons/s. Mais le risque de prédétonation demeurait faible. Le risque était plus grand dans le cas du plutonium 239, avec ses 22 neutrons/kg/s, d’où la nécessité très tôt reconnue de rapprocher les masses sous-critiques en moins d’une milliseconde, et donc de recourir à un canon plus long.

Mais la contamination en plutonium 240 avec son taux de fission spontanée de près de un million de neutrons/kg/s, changeait la donne : même une très faible contamination de 0.1% de plutonium 240 conduirait à 10 000 neutrons/s pour les quelque 10 kg de plutonium nécessaires. Ces neutrons risquaient d’allumer prématurément la bombe même si le rapprochement des deux masses sous-critiques de plutonium ne durait que 100 µs. Pour corriger cela, il aurait fallu augmenter très fortement la vitesse de rapprochement en utilisant un canon de 20 (calcul ?) mètres de long. La bombe devenait alors beaucoup trop encombrante pour être emportée par un B-29. Ces conclusions furent momentanément gardées secrètes, en attendant plus de statistiques, et Segrè continua ses observations. Il confirma ses premières mesures pour le plutonium du réacteur X-10, et surtout il indiqua qu’il fallait s’attendre à un taux de fissions spontanées très supérieur dans le plutonium des réacteurs de Hanford, qui allait être exposé beaucoup plus longtemps à un haut flux de neutrons, et risquait de contenir 1 à 5% de plutonium 240.

Les réacteurs de Hanford étaient beaucoup trop avancés pour permettre un modification éventuelle de la production de plutonium, à supposer même qu’une idée soit trouvée évitant le problème de la fission spontanée. Il fallait « faire avec » le plutonium tel qu’il arriverait de Hanford. Oppenheimer fit part de ces conclusions le 4 juillet à ses collègues. Le « canon à plutonium » Thin Man fut abandonné le 17 juillet. Le 20 juillet, toute l’organisation de Los Alamos fut refondue et l’effort de développement se reporta sur Little Boy et sur Fat Man.

Fermi et Segrè

Enrico Fermi et Emilio Segrè en 1945

Mais, en juillet 1944, ces deux projets paraissaient l’un comme l’autre bien loin de pouvoir aboutir :

En effet aucune des méthodes d’enrichissement isotopique ne fonctionnait alors correctement à Oak Ridge : les calutrons de Y-12 n’avaient fourni que quelques grammes d’uranium 235, le bâtiment de K-25 était à moitié terminé mais les barrières poreuses n’étaient pas au point, et la décision de construire S-50, l’usine de séparation thermique, dut être prise en catastrophe. Dans les hypothèses les plus optimistes, Oak Ridge fournirait à peine de quoi faire une seule bombe à l’été 1945 (et peut-être une seconde à la fin de l’automne) et l’intérêt militaire d’une bombe unique semblait réduit.

Par ailleurs, les essais d’implosion avaient des résultats désastreux : toutes les tentatives de placer des charges explosives tout autour d’une sphère métallique conduisaient à une déformation inacceptable de cette sphère au lieu de la comprimer en conservant sa forme sphérique. Différentes tentatives d’intercaler des zones neutres entre les explosifs (pour réduire la formation de jets quand les détonations fusionnaient) échouèrent. De ce fait, il semblait impossible d’approcher de la masse critique. Les équipements de diagnostic étaient insuffisants (on utilisa ensuite des caméras ultrarapides à rayons X).

Les laboratoires (Tech Area) de Los Alamos en 1944

Los Alamos 1944 ©LANL

Au cas où Los Alamos ne trouverait pas de solution, Arthur Compton réunit à Chicago les principaux membres du Met Lab pour trouver une issue. Wigner proposa de fissionner le plutonium et d’utiliser les neutrons de la fission pour convertir du thorium 232 en uranium 233, que l’on pourrait extraire chimiquement du thorium. L’uranium 233 est fissile comme l’uranium 235 et le plutonium 239 et il permettrait de réaliser une bombe. L’idée inquiéta Conant qui se demanda si les Allemands ne pouvaient pas avoir eu la même et s’être déjà lancés dans une bombe à l’uranium 233. Seaborg indiqua que l’uranium 233 risquait toutefois d’être contaminé en uranium 232, sans doute aussi spontanément fissile mais surtout radioactif alpha (imposant donc de se débarrasser de toute impureté capable de générer des neutrons par bombardement alpha). Le convertisseur proposé par Wigner ne fut pas nécessaire, mais il eut une grande influence car c’était le premier projet détaillé de réacteur modéré et refroidi par eau légère. La « voie du thorium » est toujours d’actualité, en particulier en Inde qui possède de grandes réserves de thorium.

Crise

Au cours de l’été 1944, l’avenir du programme Manhattan parut donc très compromis : non seulement les deux méthodes envisagées pour réaliser une bombe se heurtaient chacune à des difficultés immenses, mais en plus sa nécessité militaire semblait s’estomper :

Carte de l'Europe en septembre 1944

Les territoires contrôlés par l’Allemagne (en bleu) et par les Alliés (en rouge) en septembre 1944

Mais les dépenses engagées dépassaient très largement alors le milliard de dollars, les physiciens étaient stimulés par ces problèmes et ils avaient envie de les résoudre, les militaires rêvaient d’une arme exceptionnelle, et les politiques envisageaient déjà l’après-guerre comme un équilibre plus ou moins glacial avec l’URSS. Le 7 août 1944, Groves annonça à Stimson qu’une bombe à l’uranium ne serait prête qu’autour du 1° août 1945 (et peut-être une ou deux de plus avant la fin de 1945), et que, si les expériences se déroulaient bien, une bombe au plutonium pourrait aussi être prête en même temps (avec un rythme de livraison plus rapide, une par mois). Il était probable que la guerre serait alors terminée en Europe, ce qui signifiait que les bombes nucléaires seraient destinées au Japon, comme cela avait envisagé par le Military Policy Committee dès mai 1943. Groves déclara par la suite que, dans son esprit, il avait toujours été clair que l’arme nucléaire était avant tout dirigée contre le Japon (plus que contre l’Allemagne, en particulier pour une question de calendrier), mais également contre les Russes. Pour toutes ces raisons, le programme Manhattan ne fut pas ralenti mais au contraire intensifié.

Même les scientifiques les plus hauts placés ne furent pas avertis de l’absence de risque de bombe allemande : Bethe ne le sut qu’en mars 1945, neuf mois après Bush ! Le 20 juillet, la direction de los Alamos décida une réorganisation complète du travail à Los Alamos, en lui donnant pour priorité absolue la mise au point d’un mécanisme d’implosion fiable. En 15 jours, tout fut réorganisé autour de l’implosion et de Fat Man, Little Boy recevant une priorité secondaire puisque la bombe elle-même ne posait pas de problème particulier et que la fourniture d’uranium 235 n’était pas du ressort de Los Alamos. Le personnel à Los Alamos passa d’environ 1 100 en mai à plus de 2 500 un an plus tard ( ?). De fait le programme nucléaire accéléra début 1945 (avec la résolution des problèmes liés à la séparation de l’uranium 235, et la résolution du problème de l’implosion), et plus encore après le 8 mai 1945 : Oppenheimer dit que le rythme ne fut jamais aussi intense à Los Alamos qu’entre mai et août 1945 !

Réorganisation

Oppenheimer était désormais assisté de deux directeurs-adjoints, Fermi et Parsons. La division de théorie restait sous la direction de Hans Bethe et ses 5 groupes passèrent progressivement à 8 :

La division expérimentale de Bacher devint la Research Division, sous la direction désormais de Robert R. Wilson, mais sans grand changement :

Une division F (comme Fermi) avait la charge des divers projets sans implication sur l’objectif principal : réaliser une bombe très vite. Sous la direction de Fermi, elle avait 4 groupes :

La division Ordnance fut éclatée en trois divisions : O (Ordnance, s’occupant de Little Boy) sous l’autorité de Francis Birch (supervisé par Parsons), G (Weapon Physics, mais le G était là pour Gadget, en charge de la conception finale de Fat Man) dirigiée par Bacher et X (eXplosives) dirigée par Kistiakowsky. Chacune avait une dizaine de groupes. La division Chimie-Métallurgie prit aussi plus d’ampleur avec 16 groupes. S’ajoutèrent deux autres divisions, l’une en mars 1945 sous la direction de Bainbridge pour préparer Trinity, l’autre également en mars sous l’autorité directe de Parsons, assisté de Ramsey, pour gérer le projet Alberta.

Conant shipped as many scientists as could be spared from Chicago and Oak Ridge to Los Alamos, hired every civilian machinist he could lay his hands on, and arranged for Army enlisted men to supplement the work force (these GIs were known as SEDS, for Special Engineering Detachment). Hartley Rowe, an experienced industrial engineer, provided help in easing the transition from research to production. Los Alamos also arranged for a rocket research team at the California Institute of Technology to aid in procurement, test fuses, and contribute to component development. These changes kept Los Alamos on track as weapon design reached its final stages.

Masse critique: "chatouiller la queue du dragon"

Calcul théorique : la masse critique dépend de la géométrie (sphère pleine, sphère creuse, cylindre plein, cylindre creux) et de la densité. Pour une sphère pleine homogène, elle varie comme l’inverse du carré de la densité : l’implosion permet d’économiser beaucoup de matière fissile en augmentant fortement la densité, ce que suggèrent en octobre 1943 Teller et von Neumann

Plus précisément M = m3n3/2/(fσ3ρ2) où m est la masse du noyau, n le nombre de diffusions par fission, ρ la densité, σa section efficace de capture et f un fudge factor dépendant de la géométrie

Ces méthodes permettent d’évaluer la masse critique pour une sphère homogène de densité normale à 52 kg pour l’uranium 235 (diamètre 17 cm) et à 10 kg pour le plutonium 239 (diamètre 10 cm). Pour de l’uranium enrichi à 15% d’U235, la masse critique dépasse les 600 kg.

L’effet de géométries plus complexes qu’une sphère homogène est pratiquement impossible à calculer exactement, et très difficile à modéliser. Développement des méthodes de Monte-Carlo par Nicholas Metropolis, Stanislaw Ulam (qui leur a donné ce en raison de l’emploi de tirages aléatoires par la méthode, comme au casino de Monte-Carlo) John von Neumann et Enrico Fermi pour l’étude de la diffusion des neutrons dans un matériau fissile, puis pour la modélisation des ondes de choc. Le premier calculateur IBM arrive en avril 1944 .

Ulam tenant à la main le Fermiac

Stanislaw Ulam en 1946, tenant le calculateur analogique de Fermi (le « Fermiac », par analogie avec l’ENIAC) permettant de résoudre les problèmes de diffusion des neutrons.

Ulam joined the Manhattan Project at Los Alamos, working with von Neumann at his invitation. While there, Ulam suggested the Monte Carlo Method for evaluating complicated mathematical integrals that arise in the theory of nuclear chain reactions. This suggestion led to the more systematic development of Monte Carlo by von Neumann, Metropolis and others, which greatly aided in solving many of the complex problems in creating an atomic bomb.

Stanislaw Ulam (1909-1984) né à Lvov, élève de Banach (PhD de maths à Lvov en 1933), fuit la Pologne en 1938 et obtient un poste à l’IAS de Princeton grâce à Neumann.

MONTE-CARLO Physicists at Los Alamos Scientific Laboratory were investigating radiation shielding and the distance that neutrons would likely travel through various materials. Despite having most of the necessary data, such as the average distance a neutron would travel in a substance before it collided with an atomic nucleus or how much energy the neutron was likely to give off following a collision, the problem could not be solved with theoretical calculations. John von Neumann and Stanislaw Ulam suggested that the problem be solved by modeling the experiment on a computer using chance. Being secret, their work required a code name. Von Neumann chose the name "Monte Carlo". The name is a reference to the Monte Carlo Casino in Monaco where Ulam's uncle would borrow money to gamble. Random methods of computation and experimentation (generally considered forms of stochastic simulation) can be arguably traced back to the earliest pioneers of probability theory (see, e.g., Buffon's needle, and the work on small samples by William Sealy Gosset), but are more specifically traced to the pre-electronic computing era. The general difference usually described about a Monte Carlo form of simulation is that it systematically "inverts" the typical mode of simulation, treating deterministic problems by first finding a probabilistic analog (see Simulated annealing). Previous methods of simulation and statistical sampling generally did the opposite: using simulation to test a previously understood deterministic problem. Though examples of an "inverted" approach do exist historically, they were not considered a general method until the popularity of the Monte Carlo method spread. Monte Carlo methods were central to the simulations required for the Manhattan Project, though were severely limited by the computational tools at the time. Therefore, it was only after electronic computers were first built (from 1945 on) that Monte Carlo methods began to be studied in depth. ©Wikipedia_Monte_Carlo

Dilemme : si la masse critique est sous-évaluée, fiasco, des millions de dollars perdus et des secrets donnés à l’ennemi. Si elle est surévaluée, explosion prématurée à Los Alamos, ou Hanford ou Oak Ridge Essais de mesure de la masse critique un peu à l’écart du site principal, dans la Tech Area 2 où avait déjà été installé LoPo.

Chatouiller la queue du dragon

Chatouiller la queue du dragon

Le 18 janvier 1945 Otto Frisch évalua la masse critique d’U235 en augmentant progressivement la quantité et en surveillant l’activité neutronique. Facteur de multiplication sous-critique M = 1/(1 - k) Le flux de neutrons est proportionnel à M, il « suffit » de porter la valeur de 1/M en fonction du nombre de blocs d’uranium (par exemple) et d’extrapoler la droite pour anticiper à quel moment la criticité sera atteinte. Il n’est pas nécessaire de déclencher une réaction en chaîne divergente !

12 avril 1945 Frisch fait la même mesure pour le plutonium [VERIFIER d'autres sources disent U235 final 31 mai], début des tests de criticité avec le plutonium

Le 24 juin, Frisch confirme que la conception du cœur avec l’initiateur est correcte après les tests de criticité

Chatouiller la queue du dragon

Sphère de plutonium entourée de carbure de tungstène pour réfléchir les neutrons ©LANL

Ces expériences étaient extrêmement risquées, Feynman les comparait à chatouiller la queue d’un dragon. Le 4 juin 1945, une masse d’uranium franchit le seuil de criticité quand une fuite d’eau mouilla l’uranium, et la brève réaction en chaîne irradia gravement 3 personnes. Feynman avait auparavant signalé le risque de conserver des quantités importantes d’uranium dans l’eau, car son rôle de modérateur augmentait la probabilité de fission. Plus grave, le 21 août 1945, Harry K. Daghlian fit accidentellement tomber une brique de carbure de tungstène sur une sphère de plutonium de 6 kg, la brique servit de réflecteur de neutrons et la masse de plutonium devint supercritique. Daghlian reçut une dose de neutrons et de gammas de plus de 5 sieverts, et il mourut 3 semaines plus tard. Le 21 mai 1946, un accident analogue irradia Louis A. Slotin qui reçut une dose de 21 sieverts et mourut 9 jours plus tard.

Accident de Louis Slotin

Reconstitution des circonstances de l’accident de Louis Slotin avec un cœur de 6.2 kg et un tamper de béryllium sur la moitié inférieure, juste avant que le tournevis séparant les deux moitiés lui échappe.

Vérifier : une sphère de 6 kg de Pu a un diamètre de 8 cm, ce qui ne semble pas être le cas sur la photo.

Ces accidents de criticité n’ont pas entraîné une explosion nucléaire (il n’y a eu « que » 1016 à 1017 fissions dans ces accidents contre 1024 pour Hiroshima) pour plusieurs raisons :

Little Boy

La réalisation d’une bombe-canon à l’uranium 235 ne posait pas de problème technique majeur, à condition bien sûr que l’uranium soit disponible en quantité suffisante. Le fonctionnement en paraissait d’ailleurs tellement certain que la bombe ne fut pas testée avant son (unique) utilisation à Hiroshima : l’uranium était trop précieux pour le « gâcher » dans un essai préalable.

Birch Francis Birch (après la guerre)

Albert Francis Birch (1903-1992) était un géophysicien américain, élève de Percy Bridgman et professeur à Harvard. En 1942, il rejoignit le Rad Lab du MIT pour travailler sur les fusées de proximité, puis en 1943 le Bureau of Ships de l’US Navy, avec le grade de Lieutenant-Commander, avant d’être muté à Los Alamos fin 1943. Promu Commander, Francis Birch fut affecté au développement de Little Boy sous la direction de Parsons, avec comme objectif le développement d’un canon de 2 m de long, capable d’expédier un obus de 100 kg à 1000 m/s tout en pesant moins d’une tonne. En juillet 1945, Birch accompagna une partie de la cible d’uranium à Tinian, où il supervisa le montage de la bombe avec Ramsay. Après la guerre, il retourna à Harvard où il reprit ses travaux pionniers sur la constitution interne de la Terre, démontrant que le manteau était formé de silicates (SiMa) et le noyau de fer et de nickel fondus (NiFe).

Les calculs de diffusion des neutrons pour le projectile, pour la cible et pour l’assemblage des deux se révéla à la limite des possibilités de calcul du groupe T-5 utilisant des calculatrices électromécaniques, justifiant l’acquisition de machines IBM à cartes perforées. En attendant leur arrivée, une première estimation des dimensions probables de la cible et du projectile fut effectuée en utilisant la théorie de la diffusion. Oppenheimer pressa pour qu’elles arrivent le rapidement possible, car du résultat des calculs dépendaient des commandes de matériaux spéciaux, d’instruments et d’outils qui mettraient plusieurs mois à être fournis, mais elles n’arrivèrent qu’au printemps 1944 et les calculs du groupe T-2 n’aboutirent qu’au cours de l’été. Plusieurs méthodes différentes d’estimation de la masse critique pour des cylindres pleins ou creux furent développées par Bethe, Frankel, Nelson, Marshak et d’autres, et leurs résultats convergèrent à l’été 1944. Parallèlement, Bethe et Feynman mirent au point une formule approchée de l’efficacité de l’explosion.

La conception de la partie balistique avait commencé à Los Alamos dès l’été 1943, mais les efforts se focalisèrent rapidement sur la version au plutonium, Thin Man, à priori plus difficile à mettre au point à cause de son canon plus long (et beaucoup plus lourd) à grande vitesse d’assemblage. En février 1944, Francis Birch prit en charge la version plus simple Little Boy avec comme objectif une mise au point rapide (pour libérer des forces pour le très difficile programme d’implosion). Une grande attention fut cependant accordée aux détails pour garantir une absolue certitude de bon fonctionnement. Commandés en mars 1944, les canons ne furent livrés qu’en octobre. C’était des tubes de calibre 165, de 51 mm d’épaisseur, de 1.8 m de long (donc un canon relativement court de 28 calibres seulement) et pesant 450 kg. OK avec densité de l’acier de 7.9 Les essais du canon, en décembre 1944, furent très satisfaisants, levant tous les doutes sur le bon fonctionnement de la bombe avant la date limite du 1° août 1945 fixée par Groves, si l’uranium 235 arrivait bien sûr…

Principe d'une bombe-canon

La conception de la bombe fut définitivement figée en février 1945 et la bombe elle-même terminée à la mi- mai (à l’exception bien sûr de l’uranium toujours indisponible). Le projectile était formé d’un cylindre creux de 38.5 kg d’uranium, de 18 cm de long, 16 cm de diamètre extérieur et 10 cm de diamètre intérieur, fixé au bout d’un bloc de 90 kg d’acier et de carbure de tungstène servant de réflecteur de neutrons une fois l’assemblage complété. À l’autre extrémité du canon de 1.8 m était fixée la cible, un cylindre plein d’uranium de 25.6 kg, de 10 cm de diamètre et 18 cm de long, placé à l’intérieur d’un bloc de 310 kg de carbure de tungstène, servant de réflecteur de neutrons et diminuant la masse critique requise (tamper). L’uranium avait été rejeté pour cet usage car les 200 kg nécessaires auraient engendré 3 400 neutrons par seconde, d’où un risque trop important de prédétonation.

Schéma de Little Boy

Le taux d’enrichissement de l’uranium variait selon la date de fabrication : le projectile était enrichi à 82% et la cible à 86%. Il y avait en tout 64 kg d’uranium, ce qui représentait 2.5 masses critiques dit Wikipedia, cela semble beaucoup vu la configuration cylindrique, même en tenant compte du tamper (qui joue aussi dans le calcul de la masse critique de la cible et du projectile séparés, chacun devant rester inférieurs à une masse critique, sans doute 2/3 ou ? par sécurité). La bombe Little Boy complète avait une longueur de 3.2 m et un diamètre de 71 cm, et elle pesait 4 000 kg.

Vue en coupe détaillée de Little Boy

Le taux de fissions spontanées, de 80 par seconde, aurait permis de se passer d’allumage, mais Oppenheimer décida le 15 mars d’ajouter un allumage alpha-béryllium, version simplifiée de celui en cours de mise au point pour la bombe à implosion. Les alphas provenaient du polonium et frappaient une cible de béryllium 9 (donnant des neutrons, du béryllium 8 et des alphas). Mais il fallait une source intense de polonium (10 curies !), qui a une courte durée de vie (d’où difficulté de stockage de la bombe). L’allumage de la bombe était déclenché par un radio-altimètre, avec un déclencheur barométrique de secours. L’énergie libérée fut de 16 kT.

Little Boy prête à l'emploi

La bombe Little Boy prête à l’emploi. Les tiges métalliques de couleur claire à l’avant sont les antennes du radio- altimètre déclenchant l’explosion à l’altitude préréglée.

Six bombes de type Little Boy seulement furent construites (dont celle d’Hiroshima) car elles étaient intrinsèquement dangereuses. Dès que le canon était chargé (une charge de cordite), une explosion était possible. Lors de la mission vers Hiroshima, Deke Parsons inséra lui-même la charge quand le B-29 approcha du Japon. Une explosion nucléaire pouvait également se déclencher à la suite d’un accident, si le bombardier s’écrasait au sol, si la bombe tombait d’une hauteur de 5 000 m, ou si la bombe tombait dans l’eau (servant de modérateur). De plus, ces bombes utilisaient l’uranium 235 de façon très peu efficace.

Little Boy ouverte

Une des rares photos montrant l’intérieur de Little Boy, lors de son montage le 5 août 1945. Francis Birch est à gauche et Norman Ramsay à droite ©Wikipedia

FAT MAN

Implosion

L’idée de l’implosion remontait à 1942. Serber dit que Tolman lui en a parlé au printemps 1942, qu’il a rédigé une note avec lui et que Tolman l’avait proposée lors du Summer Study de Berkeley. Apparemment cela n’avait pas marqué les esprits car Bethe, Konopinski, McMillan n’ont aucun souvenir que la question ait alors été abordée. La suggestion avait été reprise – ou redécouverte – à Los Alamos en avril 1943. Kistiakowsky dit que Neddermeyer a eu l’idée de l’implosion lors des exposés introductifs de Serber (Los Alamos Primer). Celui-ci mentionna effectivement à la fin de son exposé diverses « autres idées de configurations […] pas analysées en détail » pour l’assemblage, dont la réunion de 4 quarts de sphère disposés en anneau (ring).

Simili implosion

Un schéma pour réunir plusieurs masses critiques : quatre quarts de sphère disposés en anneau et réunis au centre par une explosion (R. Serber, Los Alamos Primer 1943)

Il ne s’agit pas encore d’une implosion, mais Neddermeyer a pu passer de l’idée de réunir 4 quarts de sphères à celle d’implosion d’une sphère creuse. En 1945, Oppenheimer attribuait d’ailleurs l’idée d’implosion à Neddermeyer, qui l’aurait suggéré en avril 1943 pendant ces réunions de mise en route de los Alamos. D’un autre côté, Tolman aurait expliqué à Oppenheimer dans une lettre du 27 mars 1943 l’intérêt d’augmenter la densité du cœur par une explosion sphérique convergente. Il est possible qu’Oppenheimer, très occupé à ce moment là, n’ait pas réalisé l’importance de cette lettre, n’en ait parlé à personne, et que l’intérêt d’une augmentation de la densité ait été redécouverte un an plus tard par von Neumann (ou Teller).

Seth Neddermeyer (qui venait du National Bureau of Standards) pensa que l’implosion permettrait des vitesses d’assemblage très supérieures à celle du canon (détonation supersonique au lieu de déflagration subsonique), et il en présenta une analyse technique dès la fin du mois d’avril 1943. L’idée était alors de comprimer avec des explosifs une sphère creuse (sous-critique) pour en faire une sphère pleine (super- critique). Ed McMillan dit que les physiciens étaient sceptiques sur cette méthode, mais Oppenheimer décida de mener une étude expérimentale de l’implosion et il confia à Neddermeyer la direction d’un groupe (le groupe E-5 de la division Ordnance) à cet effet. Neddermeyer mena, avec un succès mitigé, une série d’expériences en entourant des cylindres d’explosifs. Ces expériences furent réalisées en liaison avec le laboratoire d’explosifs du NDRC à Bruceton en Pennsylvanie où Neddermeyer et McMillan se rendirent pendant l’été 1943 et où ils rencontrèrent George Kistiakowsky, le principal expert du NRDC en explosifs « de précision ». Celui-ci réalisa pour Neddermeyer des charges explosives qui écrasèrent des cylindres creux sans aucune difficulté. De retour à Los Alamos, Neddermeyer répéta les expériences en variant les dimensions du cylindre, les explosifs et leur disposition. Mais les ondes de choc produites par les explosifs se révélèrent très irrégulières et ces instabilités rendaient la compression trop asymétrique pour permettre le bon développement d’une réaction en chaîne dans le cylindre comprimé, et plus encore dans une sphère.

À l’automne 1943, von Neumann visita Los Alamos en tant que consultant. En examinant les résultats de Neddermeyer, il suggéra l’utilisation de charges creuses pour créer une onde de choc sphérique convergente (est-ce exact ? Ou l’idée n’a-t-elle mûri qu’au printemps 1944 avec la venue de Taylor, expert en instabilités, puis de Tuck, expert en charges creuses ?). Il pensa également que l’efficacité de la compression serait bien meilleure en utilisant une quantité beaucoup plus importante d’explosifs, de sorte que seule une faible part de l’énergie soit perdue dans la déformation plastique de la sphère. Les suggestions de von Neumann stimulèrent les théoriciens et pendant l’hiver 43-44, le groupe de Teller (Konopinski, Metropolis, Jane Roberg et Teller) travailla sur la modélisation d’une implosion (à mi-temps en fait, le reste du temps ils se consacraient à la Super). Teller réalisa que la compression permettait d’atteindre une densité du cœur très supérieure à la densité normale et, comme la masse critique varie comme l’inverse du carré de la densité, de réduire très fortement la quantité de matière fissile nécessaire pour une bombe. L’idée que l’on pouvait fortement augmenter la densité d’un métal « incompressible » n’était pas naturelle et n’est survenue qu’assez tardivement.

Théorie de l’implosion

En mars 1944, Bethe réorganisa la division T : Feynman, Ulam, Harold et Mary Argo, Chew, Christy, von Neumann rejoignirent le groupe de Teller à qui était confié le calcul de l’équation d’état de l’uranium et du plutonium à la haute densité susceptible de résulter d’une implosion (travail réalisé essentiellement par Feynman, Metropolis et Teller). Ils développèrent une description mathématique de l’implosion et ils estimèrent la durée de l’assemblage avec des explosifs. En juin 1944, Teller ne voulut pas prendre en charge les calculs détaillés de l’implosion, parce que ces calculs numériques ne l’intéressaient pas, et parce qu’il préférait revenir à l’étude de la « Super », la bombe à fusion. Bien qu’il ait conclu le 24 février (présentation devant le Governing Board de Los Alamos) que la diffusion Compton inverse empêcherait l’allumage de la fusion du deutérium, il pensait que l’addition de tritium permettrait de réaliser un « booster » où la fusion D-T serait capable d’allumer ensuite la fusion D-D. Oppenheimer lui accorda la liberté de suivre cette voie, avec une partie de son groupe. Après l’arrivée de Fermi pendant l’été et la création en septembre de la division F, rassemblant tous les travaux autres que la fission, Teller dirigea le groupe F-1 responsable de la théorie de la fusion, et Egon Bretscher le groupe F-3 s’occupant des mesures expérimentales de sections efficaces D-D et D-T.

Bethe confia en juillet à Peierls la responsabilité du groupe « implosion » de la division T, renforcé par plusieurs membres de la mission britannique, comme Tuck, Taylor et Fuchs. Lors de son premier passage à Los Alamos en février 1944, Peierls avait suggéré une méthode pas à pas pour résoudre les équations différentielles de l’implosion, inspirée de celle qu’il avait employée pour les calculs d’onde de choc dans l’air. Arrivé le 14 août 1944, Klaus Fuchs était timide, assez introverti, parlant rarement le premier (Teller disait en plaisantant que « son émission spontanée était faible, mais son émission induite tout à fait acceptable » et Gena Peierls l’avait surnommé « Penny in the slot » car il fallait commencer par dire quelque chose pour obtenir une réponse en échange. Elfriede Segrè l’appelait le Poverino. Feynman en fut proche : quand sa femme était mourante à Albuquerque, Fuchs lui prêta sa vieille Buick pour qu’il puisse lui rendre visite plus facilement. Il ne parlait jamais de politique. C’est Fuchs qui effectua les calculs que Teller n’avait pas voulu faire. Il mit au point des techniques comme la méthode de Fuchs et Nordheim pour évaluer l’énergie libéré par un assemblage devenant brusquement critique (prompt critical). Plus tard, il collabora avec von Neumann sur l’allumage d’une bombe à fusion par une bombe à fission (ils prirent un brevet, mais la méthode employée par la suite, due à Ulam et Teller, et à Sakharov, est un peu différente).

Klaus Fuchs Klaus Fuchs (1911-1988)

Lentilles explosives

Les calculs (puis les expériences) montrèrent qu’il ne suffisait pas de placer une coquille sphérique d’explosifs autour d’un cœur pour le comprimer symétriquement. Contrairement aux espoirs initiaux, la superposition des ondes sphériques divergeant à partir des points d’explosion ne produisait pas une onde de choc convergeant vers le centre de la sphère mais conduisait à des instabilités (des jets de très haute pression à la jonction des ondes divergentes) et celles-ci s’amplifiaient à l’interface entre explosif et tamper puis à celle entre tamper et cœur de plutonium.

Le grand spécialiste britannique de la turbulence Geoffrey Ingram Taylor (arrivé le 24 mai 1944 à Los Alamos) étudia la manière de réduire les instabilités au cours de l’implosion (en particulier l’instabilité de Rayleigh-Taylor où la surface séparant deux fluides se déforme en « doigts »).

Taylor Sir Geoffrey Ingram Taylor (1886-1975)

Il montra que l’interface entre un matériau dense et un matériau moins dense est instable lorsque c’est le matériau léger qui est accéléré vers le lourd (et stable dans le cas opposé). Cela impliquait la formation d’instabilités quand l’explosif, relativement léger, était accéléré vers le tamper plus dense, lorsque le tamper était accéléré vers un cœur encore plus dense (cas d’un tamper en tungstène), et après la fission quand le cœur se dilatant devenait moins dense que le tamper (cas d’un tamper en uranium). Il fallait d’abord trouver une méthode pour créer une onde sphérique convergente, puis ensuite maîtriser les instabilités aux interfaces. Les Britanniques, Penney, Tuck et Taylor en particulier, jouèrent un rôle décisif. Après un doctorat sur la mécanique quantique des cristaux, William Penney (devenu Lord Penney en 1967) était devenu un spécialiste de l’hydrodynamique. Il participa au programme Tube Alloys en 1943 avant de rejoindre Los Alamos en mai 1944. Il s’occupa plus particulièrement des conséquences de l’explosion nucléaire (effet de souffle, rôle de la brume, effets du relief, altitude optimale de l’explosion) et suggéra une explosion à plus haute altitude (500 m) qu’initialement envisagé pour que la boule de feu touche à peine le sol et de provoque pas des contaminations radioactives de longue durée. À bord du B-29 Big Stink, il participa en observateur à la mission sur Nagasaki le 9 août 1945. Il fut aussi présent lors des explosions de Bikini (Opération Crossroads) en juillet 1946, dont il établit le rapport sur les effets. À partir de 1947, il dirigea le programme britannique d’arme nucléaire quand, à la suite de la loi McMahon et la création de l’AEC, les Américains cessèrent toute collaboration avec les Britanniques.

Penney

William Penney (1909-1991)

James Leslie Tuck, un Britannique arrivé lui aussi en mai 1944, apporta l’idée cruciale de façonner une onde de choc convergente par des « lentilles » explosives. L’idée est d’insérer un explosif « lent » (où l’onde de choc de la détonation se propage moins vite) au centre d’un explosif « rapide » (où l’onde de choc se déplace plus vite). Comme pour une lentille en optique où la lumière se déplace moins vite dans le verre que dans l’air, cette disposition focalise l’onde de choc. C’est d’ailleurs le principe de la charge creuse, sur lequel Tuck avait beaucoup travaillé en Grande-Bretagne.

Tuck James Leslie Tuck (1910-1980), badge d’identité à Los Alamos

M.J. Poole (qui faisait d’ailleurs aussi partie de la mission britannique) avait suggéré dès 1942, en Grande- Bretagne, le principe des lentilles explosives pour créer une onde de choc plane, mais il fallait maintenant le réaliser en 3-D pour créer une onde de choc convergente.

Charge creuse

Principe de la charge creuse : le creux focalise l’onde de choc en un dard capable de percer un blindage

Bethe et Peierls tentèrent en juin de dessiner la forme d’une telle lentille explosive, mais sans succès. Von Neumann suggéra une forme plus efficace pour le composant « lent », mais il restait énormément de travail et de difficultés à résoudre.

Kistiakowsky était arrivé, de manière permanente, en janvier 1944 accompagné d’un petit groupe d’experts en explosifs venu du laboratoire du NDRC de Bruceton. Les relations entre Neddermeyer (professeur à Caltech) et son supérieur Parsons, chef de la division E, étaient très difficiles : Neddermeyer en bon scientifique voulait progresser de manière progressive par essais et erreurs, et Parsons en bon militaire voulait utiliser des méthodes de force brute. Kistiakowsky eut les mêmes difficultés avec Parsons mais tint bon. Deux nouvelles divisions, X (eXplosives) et G (gadget), furent créées à côté de la division E (devenue O) dont Parsons garda la direction. Kistiakowsky prit la direction de la division X et Robert Bacher celle de la division G. La division X développait la forme et la composition des charges explosives et la division G étudiait la manière dont le cœur de plutonium réagissait à l’implosion. Les relations entre Kistiakowsky et Bacher devinrent difficiles, car tous les deux requéraient des ateliers (« site S ») des charges explosives complexes. Charles Lauritsen, de Caltech, rejoignit la division X comme représentant d’Oppenheimer.

Sur l’impulsion de Conant (lui-même chimiste) Oppenheimer adjoint Kistiakowsky à Neddermeyer en janvier 1944. George Kistiakowsky (1900-1982) né à Kiev, PhD de chimie-physique à Berlin en 1925 avant d’émigrer aux USA en 1926, professeur de cinétique chimique à Princeton puis à Harvard. Préside en 1942 la division du NDRC en charge des explosifs et des propulseurs de fusées (et est à ce titre consultant du programme Manhattan). Remplace Neddermeyer au cours de l’été 1944 à la tête des 600 personnes du département implosion pour concevoir des « lentilles » explosives.

Kistiakowsky George Kistiakowsky

Les essais RaLa

Von Neumann ébaucha un modèle mathématique de ces lentilles explosives, mais il était encore très rudimentaire il fallut procéder de manière empirique : en un an plus de 20 000 lentilles de test furent employées (et bien plus encore fabriquées et rejetées). Le Lt-Cmdr Norris Bradbury, dans le civil professeur à Stanford, arriva du polygone d’essai de l’US Navy de Dahlgren pour diriger la mise au point des moulages. Il fallait faire des moules et y couler les explosifs de manière homogène. Des méthodes de mesure non- destructives de l’homogénéité des moulages furent mises au point, utilisant des rayons X.

L’observation des implosions était difficile, et obtenir un diagnostic correct fut un défi important à relever. Pour observer l’évolution d’une implosion, sur une suggestion de Robert Serber le 1° novembre 1943, on eut recours à une source intense de rayons gammas, la plus intense jamais rassemblée d’ailleurs. L’absorption des rayons gammas était modifiée par la compression, ce qui permettait d’en suivre l’évolution. Il fallait donc que leur énergie soit assez élevée pour qu’ils ne soient pas complètement absorbés, mais pas trop pour que cette absorption varie suffisamment du fait de la compression. Il fallait également une source très intense, mais de durée de vie brève parce que l’explosion allait la disperser dans l’environnement (cela conduisit néanmoins à des problèmes sanitaires qui furent étouffés). Le lanthane 140 fut choisi parce que sa demi-vie n’est que de 40 jours, et qu’au terme de sa transmutation bêta en cérium 140 il émet des gammas de désexcitation de 1.6 MeV et de 0.49 MeV, gamme d’énergie convenable. De plus, il était relativement facile d’en obtenir de grandes quantités (donc des sources intenses de 100 curies, puis 1000 Ci fournis par 1.8 mg de La 140) à partir des produits de fission fourni par le réacteur X-10.

Le premier essai de ces sources dites RaLa, produites par l’équipe de Bruno Rossi, eut lieu le 22 septembre 1944 dans le Bayo Canyon (Technical Area 10), à 3 km à l’est de Los Alamos. Une bille de 3 mm de lanthane 140 était insérée au centre d’une sphère métallique (simulant le plutonium, le plus souvent du cadmium, mais le cuivre et le fer furent essayés) entourée d’explosifs. Quatre bancs de huit chambres d’ionisation entouraient l’installation (en tétraèdre) et leurs signaux étaient récupérés, à distance, par des oscilloscopes filmés par une caméra ultra-rapide.

Montage des expériences Ra-La

Le montage des expériences RaLa avec deux des bancs de chambres d’ionisation

La compression se manifestait par une chute du signal gamma pendant une trentaine de microsecondes, suivie par une remontée lors de la dilatation qui s’ensuivait

Mesures des expériences Ra-La

Le report, sur parpier millimétré, des mesures des différentes chambres d’ionisation lors d’un essai RaLa en octobre 1944

The experiment was suggested on 1 November 1943 by Robert Serber. To handle the logistics of the tests, Luis Alvarez was appointed by Robert Oppenheimer as the head of the RaLa program; his group was designated E-7, RaLa and Electric Detonators Group. On 15 April 1944, Alvarez outlined the needed items; on 26 April a committee was formed from Hans Bethe, George Kistiakowsky, Seth Neddermeyer, Robert Oppenheimer, Parratt, Bruno Rossi, Staub, Edward Teller, Richard Dodson, Gerhardt Friedlander, Lindsay Helmholtz, David Nicodemus, and Victor Frederick Weisskopf. Rossi and Staub built the ionization chambers and electronics by late spring. At first the work proceeded at a leisurely pace as the implosion was only a backup project; it was believed that the plutonium bomb would be of the Thin Man design. This however turned out to not be the case as first tests on the reactor-produced plutonium in early summer 1944 shown unacceptably high spontaneous fission rates, precluding use of gun assembly and requiring implosion. On July 17 the Thin Man design was abandoned and all effort was focused to implosion. The Los Alamos laboratory was reorganized-the X-Division (Explosive Division) and the G-Division (Gadget Division, or Weapon Physics Division) were formed. The Rossi's group was assigned to G-Division as G-6, or RaLa Group; the Alvarez's group was G-7, or Electric Detonator Group. On 25 July 1944 the first preliminary test was fired in the Bayo Canyon as a rehearsal, test of equipment, and measurement of collapse times and detonation and shock wave velocities. The program was however delayed by about a month by late radiobarium shipments, as the test scheduled for 15 August was not conducted until mid-September. The first test with radiobarium was fired on 22 September. In late August and at the request of Rossi's group, the RaLa group was reformed under the leadership of Bruno Rossi, and Alvarez and his group took over the exploding bridgewire detonator research. At the suggestion of Robert Christy solid spheres instead of the originally intended hollow ones were chosen for the pit, in order to reduce the problems with jets and spalling. The first solid-sphere RaLa shot was performed in early December but the results were inconclusive. The shot from 14 December though, showed (in the words of Robert Bacher) "definite evidence of compression". The first tests using electric detonators and solid pits were performed on 7 and 14 February 1945; until then primacord based initiation was employed. The electric detonators shown a significant improvement in the achieved compression degree and symmetry; they were used on all RaLa tests thereafter. Based on these results, by the end of February the design of The gadget was settled. Other test methods were also necessary as the RaLa experiments provided only indirect indications about the formation of problematic jets that plagued the early implosion designs. RaLa however was the most important.

Rayons X et expériences Ra-La

Mise au point des lentilles

L’idée initiale de l’implosion était de partir d’une sphère creuse et de la comprimer en une sphère pleine par des explosifs répartis tout autour. Le problème majeur est d’obtenir une compression parfaitement symétrique de la sphère. Cela oblige à alterner selon une géométrie précise des explosifs de composition variée où l’onde de choc se déplace plus ou moins rapidement, de sorte que leurs ondes de choc (divergentes et centrées au départ sur le point d’allumage des explosifs) fusionnent en une onde de choc convergente et centrée sur la sphère de plutonium. Cela exige que la forme des différents blocs d’explosifs (les « lentilles » explosives) soit usinée avec une extrême précision (1 mm) et que les détonateurs de chacun des blocs s’allument avec un parfait synchronisme (moins de 10 ns de différence). L’idée initiale était d’utiliser un (unique) détonateur électrique allumant une Primacord, une sorte de cordon explosif brûlant à 5000 m/s, avec des branchements se terminant dans chacun des blocs explosifs. Mais il se révéla impossible, même avec des formes complexes de la Primacord, de mettre à feu tous les blocs à moins de 10 ns d’intervalle. L’emploi de plusieurs détonateurs électriques fut d’abord rejeté par Parsons, au nom des règles de sécurité militaire exigeant la présence d’un obstacle mécanique entre détonateur et explosif, obstacle retiré au dernier moment. Luis Alvarez abandonna en mai 1944 ses travaux sur les radars au RadLab du MIT pour venir à Los Alamos diriger la mise au point de la simultanéité de l’allumage des lentilles explosives. Il montra qu’il était possible de synchroniser les détonateurs avec la précision requise, et Parsons accepta qu’il n’y ait pas de verrou mécanique devant chaque détonateur.

Lentilles explosives pour Fat Man

Il se révéla très difficile de comprimer une sphère creuse sans la déformer. Le 28 février 1945 le choix de la configuration du cœur fut figée. Elle abandonnait la sphère creuse pour l’idée plus conservatrice d’une sphère pleine, proposée dès septembre 1944 par Robert Christy. Cette formule était plus coûteuse en plutonium mais les calculs en furent grandement simplifiés (on est depuis revenu à la sphère creuse dont le rendement est nettement supérieur). Utiliser une sphère pleine réduisait aussi la durée de compression maximale et exigeait une source de neutrons à cet instant pour initier la réaction en chaîne, alors que les projets antérieurs auraient pu se contenter des neutrons issus de la fission spontanée. Robert F. Christy (né en 1916) avait été un étudiant d’Oppenheimer (PhD en 1941) avant de travailler avec Fermi à Chicago puis de rejoindre Oppenheimer à Los Alamos. Après la guerre, il rejoignit Caltech (qu’il présida en 1977) et se tourna vers l’astrophysique et les modèles stellaires. Bacher indiqua le 31 janvier à Oppenheimer qu’un initiateur à base de polonium 210 et de béryllium 9 était faisable. Cela induisit une demande 100 curies de polonium par mois. En mars, furent obtenues les premières indications d’une (faible 5%) compression du cœur par implosion. Le 11 avril, Oppenheimer note la réussite des expériences de compression.

Un autre problème se posait avec le plutonium : selon la température et la pression, il peut revêtir plusieurs états (phases) avec des densités et caractéristiques mécaniques différentes. Il existait donc un risque qu’il devienne hétérogène sous le choc, ce qui déformerait l'onde de choc. De plus, il est extrêmement toxique, et radiotoxique. Le groupe en charge de la métallurgie du plutonium essaya différents additifs pour le stabiliser pendant la compression. Finalement, on eut recours à de petites quantités de gallium. La masse critique du plutonium est inférieure à celle de l’uranium 235 car sa fission libère en moyenne 3 neutrons au lieu de 2.34, et sa section efficace de fission est un peu plus grande, 1.8 barns au lieu de 1.2. Rappel : la masse critique M = m3n3/2/(fσ3ρ2) où m est la masse du noyau, n le nombre de diffusions par fission, ρ la densité, σ la section efficace de capture et f un fudge factor dépendant de la géométrie.

La bombe

La bombe avait une structure concentrique. Le cœur était une sphère de 9.2 cm de diamètre contenant 6.2 kg de plutonium (en phase delta de densité 15.9). Cela ne représentait que 78% d’une masse critique, et il n’y avait donc pas de risque d’explosion prématurée. Cette masse correspondait cependant à un peu plus de 3 masses critiques une fois comprimée (5 selon Wikipedia). Ce plutonium n’était resté qu’une centaine de jours dans le réacteur de Hanford (car le temps pressait) et il était donc relativement peu contaminé en plutonium 240 (moins de 1%). La sphère de plutonium laissait un creux de 2.5 cm au centre pour y placer l’allumeur, similaire à celui de Little Boy et qui, une fois comprimé, mettait en contact du béryllium avec une source de polonium. Le plutonium était entouré de 108 kg d’uranium naturel servant de tamper pour ralentir l’explosion nucléaire de quelques µs et permettre une combustion plus complète.

Schéma d'ensemble de Fat Man

Le cœur était entouré par une sphère d’explosifs de 138 cm de diamètre, formée de 32 blocs (2à hexagonaux et 12 pentagonaux) à la manière d’un ballon de football. Chaque bloc comprenait une couche interne (le « booster ») de 19 kg d’explosif « rapide » (la « composition B », un mélange de 40% de TNT et 60% de RDX utilisé de manière courante) et une couche externe de 56 kg d’explosif « rapide » à l’extérieur et d’explosif « lent » (du baratol, spécifiquement mis au point pour cela à Bruceton, formé de 30% de TNT et 70% de nitrate de baryum). Le baratol a une vitesse de détonation de 4900 m/s, la « composition B » une vitesse de 8000 m/s

Il y avait donc 2 400 kg d’explosifs autour du cœur. Une explosion produit une onde de compression divergeant à partir de sa source, mais l’ensemble des blocs entourant le plutonium, et la répartition judicieuse des explosifs « lentes » et « rapides », conduisaient à la fusion des toutes ces ondes divergentes à une onde convergeant vers le centre de l’ensemble, onde dont la pression de plusieurs mégabars comprimait en quelques microsecondes le cœur de plutonium et en doublait la densité.

Fonctionnement des lentilles explosives

Animation montrant comment les explosions — divergentes — des lentilles explosives fusionnent pour former une onde compressive concentrique ©Wikimedia Commons

Pour que l’implosion soit efficace, les différentes pièces devaient être usinées avec une précision meilleure que 1 mm, et l’allumage des 32 blocs explosifs devait se faire en parfait synchronisme, avec une précision de ±10 ns. Pour cela les 32 allumeurs se vaporisaient sous l’effet d’un courant extrêmement intense fourni par des batteries chargeant des capacités de grande taille. Luis Alvarez fut responsable du groupe qui mit au point le système de mise à feu. L’ensemble, ou X-unit pesait 180 kg et était situé entre la sphère de 153 cm de diamètre (une couche d’acier de 1 cm et une couche de dural de 2.5 cm) contenant explosifs et cœur et l’enveloppe extérieure elliptique de la bombe. Cet espace contenait aussi le radio-altimètre déclenchant l’explosion à l’altitude souhaitée (avec un déclencheur barométrique de secours) et l’électronique de commande. La bombe Fat Man complète avait une longueur de 3.25 m et un diamètre de 1.52 m, et elle pesait 4 600 kg.

La bombe était un peu plus sûre que Little Boy pour le personnel qui la manipulait. Un incendie (consécutif à un accident de l’avion porteur par exemple) pouvait déclencher l’explosion des 2 400 kg d’explosif des blocs, mais une telle explosion non coordonnée ne permettait qu’une très brève réaction en chaîne (un fizzle ou fiasco) libérant l’équivalent de l’explosion de quelques dizaines de tonnes de TNT. Par contre, elle aurait libéré un flux intense de rayons gammas mortel jusqu’à 250 m (la dose de rayonnement de l’ordre de 5 à 7 Sv).

L’assemblage d’une bombe de type Fat Man était très complexe, et il ne pouvait se faire qu’au moment de l’utilisation, l’allumeur devant être placé au centre de la sphère de plutonium (le passage de cet allumeur étant refermé par un bouchon de plutonium, puis les blocs explosifs assemblés autour. Cet assemblage prit 5 jours pour le premier exemplaire (Gadget, lors de l’essai Trinity le 16 juillet 1945). L’assemblage du deuxième exemplaire (Fat Man pour Nagasaki) dut être accéléré en 2 jours à Tinian du 6 au 8 août, en sautant certains contrôles, pour être larguée le 9 avant que la météo se dégrade.

LES RÉACTEURS À URANIUM ENRICHI LOPO ET HYPO

La fin de la conception des réacteurs de production de plutonium de Hanford avait rendu disponible une grande partie des équipes qui autour de Wigner — et de Fermi — les avait réalisés. Il retait certes beaucoup à faire autour de la physico-chimie du plutonium, mais les physiciens s’intéressèrent à d’autres types de réacteur que le modèle uranium naturel modéré par le graphite et refriodi par air ou par eau, dont les nombreux inconvénients (taille importante et sécurité minimale) leur étaient clairs. Un Comité pour de Nouvelles Piles se réunit régulièrement à Chicago du printemps 1944 au printemps 1945 et il explora un très vaste éventail de projets, au cours duquel fut envisagée la quasi-totalité des types actuels de réacteurs, aussi bien pour la production de plutonium que d’électricité ou pour la propulsion de navires (et même d’avions). À lui seul, Wigner collectionna plus de 37 brevets couvrant des réacteurs utilisant de l’uranium naturel ou enrichi, modérés par l’eau ou par l’eau lourde, surgénérateurs ou non, à neutrons lents ou neutrons rapides, à cœur liquide ou solide, refroidis par eau, par air ou par métal fondu, etc. Son assistant Alvin Weinberg (1915-2006), qui lui succéda à la direction d’Oak Ridge en 1955, breveta le réacteur à eau pressurisé et uranium enrichi (celui qui équipe la majorité des centrales actuelles), tandis que Farrington Daniels (1889-1972), un autre assistant chimiste du Met Lab, breveta en 1947 le réacteur à lit de boulets (il avait mis au point une méthode de fixation de l’azote de l’air en le faisant circuler sur un lit très chaud de boulets d’oxyde de magnésium converti en nitrate de magnésium). Les réacteurs surgénérateurs utilisant le thorium furent également envisagés (le thorium 232 donne par irradiation de l’uranium 233 fissile).

Wigner et WeinbergEugene Wigner et Alvin Weinberg

Lors d’une conférence au Met Lab début 1944, Fermi expliqua le principe d’un surgénérateur (Szilard forgea alors le terme de breeder) et il indiqua était plus aisé à construire avec des neutrons rapides car une fission rapide de l’uranium 235 produit en moyenne 2.5 neutrons/fission alors qu’une fission lente n’en produit que 2.07. L’idée en était déjà venue dès 1942 (1940 ?) à Halban. Lors de la réunion du 26 avril 1944, Fermi et Szilard esquissèrent tous les deux des projets de réacteurs à neutrons rapides, des surgénérateurs produisant plus de plutonium qu’ils n’en consommaient (par conversion de l’uranium 238).

En 1943, Fermi proposa la réalisation à Los Alamos d’un petit réacteur homogène liquide, LoPo (low power) pour étudier le fonctionnement de ce type de réacteur mais surtout, à l’époque, pour déterminer la masse critique et valider ainsi les calculs faits pour la bombe. Le calcul de masse critique est en effet analogue dans les deux cas. La masse critique pour une sphère homogène d’uranium est M = m3n3/2/(f?3?2) où m est la masse du noyau, n le nombre de diffusions par fission, ? la densité du combustible, ? la section efficace de capture-fission et f un fudge factor dépendant de la géométrie. La différence entre réacteur et bombe vient de ce qu’un réacteur utilise en général des neutrons lents (thermiques) dont la section efficace de fission (sur l’uranium 235) est beaucoup plus grande que pour les neutrons rapides d’une bombe, d’où une masse critique beaucoup plus faible, de l’ordre de quelques centaines de grammes : c’est d’ailleurs là l’origine des « accidents de criticité » rencontrés à Los Alamos et à Oak Ridge. Par contre l’uranium est beaucoup plus dilué que dans une bombe, en raison de la présence du modérateur, les neutrons diffusent plusieurs fois avant de provoquer une fission (n>>1), ce qui compense en partie la diminution de la masse critique. Par ailleurs la fission est lente et le facteur de multiplication neutronique est limité à k ~ 1 (alors qu’il est de 2 à 3 dans une bombe).

Les réacteurs à cœur homogène liquide, dont LoPo fut le premier exemple, intéressaient par ailleurs beaucoup Fermi, et plus encore Wigner, qui trouvaient dommage de réaliser très soigneusement des éléments de combustible avant de les dissoudre ensuite pour en récupérer le plutonium. L’idée d’un réacteur dont le combustible serait l’uranium sous forme liquide (le sulfate ou le nitrate d’uranyle sont solubles dans l’eau) était donc très séduisante. Il serait possible d’utiliser de l’uranium naturel avec de l’eau lourde, mais il faudrait de l’uranium enrichi avec de l’eau légère. Le calcul indiquait que les quantités nécessaires d’uranium seraient faibles, surtout avec l’eau lourde. Utiliser de l’eau « légère » comme modérateur présente beaucoup d’avantages sur l’eau lourde (disponibilité) et sur le graphite (sécurité), mais elle requiert l’emploi d’uranium enrichi au moins à 1% d’uranium 235. Un réacteur peut bien sûr utiliser de l’uranium 235 presque pur, ce que font aujourd’hui les sous-marins américains.

Pourquoi le problème de capture résonante est-il moins grave que dans les configurations de 1939-1942 où cela avait conduit à des répartitions inhomogènes ?

Kerst Donald William Kerst © AIP

Le physicien Donald Kerst (1911-1993) avait réalisé le premier bêtatron (accélérateur d’électrons) en 1940 à l’université de l’Illinois. Ayant rejoint Los Alamos pour y construire les bêtatrons qui servirent aux analyses des explosions, il y fut également chargé au début de l’été 1943 de la réalisation de LoPo, mais il n’eut initialement que peu de soutien des équipes du Met Lab trop occupées par la construction de X-10 et des réacteurs de Hanford. LoPo utilisait 4.5 kg de sulfate d’uranyle (U02SO4) enrichi à 14% en 235 (utilisant les 565 g d’uranium 235 alors existants) dissous dans 14 litres d’eau (servant de modérateur) formant une « soupe ». L’ensemble remplissait une sphère en acier inoxydable d’une trentaine de cm de diamètre, et régulé par des barres de cadmium. La puissance quasi nulle permettait de se passer de refroidissement et le blindage était formé d’un réflecteur de neutrons en oxyde de béryllium sur une base de graphite. La simplicité recherchée permettait de se focaliser sur le fonctionnement de ce type de réacteur, sur la contamination par les produits de fission et les problèmes de corrosion sans y ajouter les complications du refroidissement ou de la tenue des matériaux sous irradiation.

Schéma de LoPo Schéma du réacteur expérimental LoPo

LoPo fut construit dans l’un des canyons un peu écartés des installations principales de Los Alamos (TA-2, Tech Area 2 ou Omega Site), le bâtiment étant achevé en février. C’est là également qu’eurent lieu à partir de l’été les expériences de mesure de la masse critique (« chatouiller la queue du dragon »), jusqu’à l’accident de Harry Daghlian le 21 août 1945 (à la quite de quoi ces expériences furent transférées sur le site de Pajarito (TA-18).

La Tech Area 2 à Los Alamos

On l’appela la « chaudière » (boiler) pour des raisons de sécurité et non parce que l’eau y bouillait (les bulles étaient dues à l’oxygène et l’hydrogène venant de la dissociation de l’eau par les rayonnements provenant essentiellement des produits de fission). La quantité d’uranium fut peu à peu augmentée et l’augmentation corrélative de l’activité suivie avec les compteurs. Un pari s’engagea entre les théoriciens, Fermi, Bethe, Christy, sur la valeur critique (qui a gagné ?). Avec Fermi en personne aux commandes, LoPo divergea le 9 mai 1944 (le troisième réacteur à diverger après CP-1 et X-10). LoPo permit de valider les calculs théoriques de masse critique, et de montrer qu’un réacteur homogène pouvait fonctionner sans problème majeur en toute sécurité (auto-stabilisé ?).

Le bâtiment de LoPo à Los Alamos

Le bâtiment où fut installé LoPo (ici en mai 1946) © LANL

Sur la suggestion de Fermi et de Bacher, LoPo fut démonté puis ensuite reconstruit modifié en HyPo (High Power) sous la responsabilité de L.D.P. King (collaborateur de Fermi) et de R.E. Schreiber. HyPo atteignit une puissance de 1 kW, portée ensuite 5.5 kW. Harrison Brown est-il à l’origine de HyPo et SuPo ?

Fermi et King à Los AlamosFermi et King à Los Alamos © Corbis

Un blindage important de graphite et de béton fut installé autour et un serpentin dans le cœur permettait d’en extraire la chaleur produite. Le sulfate était remplacé par du nitrate d’uranyle, moins corrosif. Les réacteurs homogènes liquides posent en effet des problèmes techniques : l’intense rayonnement conduit à la dissociation de l’eau en oxygène et hydrogène et à la formation de bulles de gaz et à des problèmes de corrosion. Opérationnel en décembre 1944, HyPo servit surtout comme source intense de neutrons (pour des mesures de sections efficaces en particulier). HyPo devint à son tour SuPo en 1950 quand la puissance fut augmentée à 35 kW, et surtout le flux de neutrons atteignit 1012 neutrons/cm2/s. SuPo fonctionna quotidiennement de 1951 à 1974 pour mesurer les effets de l’irradiation (par neutrons mais aussi par les bêtas et gammas des profuits de fission) sur des matériaux variés mais également sur des organismes vivants. Ce type de réacteur fut ensuite développé à Oak Ridge dans les années 1950, et certains petits modèles sont utilisés pour la production d’isotopes (réacteur Argus de 20 kW en Russie depuis 1981 en particulier) du fait de leur haut flux de neutrons et de leur sécurité de fonctionnement.

Schéma de HyPo

L’installation de HyPo en 1950 ©LANL

SuPo en 1959

SuPo en 1959 et son panneau de contrôle (peu différent de ceux de LoPo et HyPo)

Parallèlement, Wigner et Weinberg développèrent à Oak RIdge l’idée d’un réacteur modéré et refroidi par de l’eau sous pression en construisant le prototype du petit réacteur MTR à haut flux de neutrons (1014/cm2/s) permettant de tester des matériaux (Material Testing Reactor). Le MTR fut construit non à Oak Ridge mais à Idaho Falls en 1952 et fonctionna jusqu’en 1970. C’est aussi à Idaho Falls (Nuclear Test Facility) que furent testés au sol les prototypes de réacteurs des sous-marins (S1W en 1953), ainsi que ceux des avions (projet NEPA de 1946 à 1961, réacteur à sels fondus, modéré par de l’oxyde de béryllium et refroidi à 860°C par du sodium liquide), et les surgénérateurs de Walter Zinn EBR-1 (ex CP-4, et premier réacteur à produire de l’électricité en 1951, jusqu’à son arrêt en 1964) et EBR-2 (de 1969 à 1994). Weinberg breveta par la suite le réacteur à uranium enrichi et eau sous pression (pression de 150 bars, PWR ou REP en français). Plus compact que les réacteurs au graphite, ce type de réacteur fut d’abord utilisé dans les sous-marins, puis ensuite dans les centrales de production d’électricité (centrales de type Westinghouse d’EDF).

Effets d'une explosion nucléaire

En mars 1944 calculs de Bethe sur l’énergie libérée et la taille de la boule de feu.

Bethe

calculations provided by Bethe's theoretical group gave hope that the yield for the first weapon would be in the vicinity of 5,000 tons of TNT rather than the 1,000-ton estimate provided in fall 1944 Beginning in the spring of 1945, von Neumann oversaw computations related to the expected size of the bomb blasts, estimated death tolls, and the distance above the ground at which the bombs should be detonated for optimum shock wave propagation and thus maximum effect.

R.E. Marshak et l’onde de choc

J.O. Hirschfelder et J.L. Magee la formation de la boule de feu et son développement, et le rôle de NO2.

Une explosion nucléaire diffère d’une explosion classique de même puissance en ce que l’énergie est libérée dans un volume beaucoup plus petit. La densité d’énergie, et donc la température, sont beaucoup plus élevées : typiquement 50 MK au lieu de 5 000 K. Par conséquent 80% de l’énergie apparaît sous forme électromagnétique, des rayons X immédiatement après l’explosion, dégradés en rayons ultraviolets et visibles quelques secondes après. Dans une bombe classique, au contraire, la quasi-totalité de l’énergie apparaît sous forme d’onde de choc. Cette différence limite l’intérêt des explosions classiques pour en déduire l’effet d’une arme nucléaire, où les effets thermiques sont dominants. Le rayon létal Rchoc varie en [Puissance]1/3 au lieu de [Puissance]2/3 pour une bombe classique.

L’énergie de l’explosion est transportée à l’extérieur par du rayonnement et/ou par une onde de choc hydrodynamique

Hydrodynamique (pression, température, densité, vitesse), requiert équation d’état (de l’air surtout) et les coeff d’absorption par l’air des rayonnements à diff longueurs d’onde (opacités)

Échelle de temps allant de 10–7 s à 100 secondes, échelle des températures de 300 K à 300 MK

Le développement de la boule de feu peut être découpé en cinq phases :

1. L’explosion produit une onde de choc traversant la bombe et se communiquant ensuite à l’air environnant (pour une explosion dans l’air, évidemment). L’air est chauffé à des millions de degrés par les rayons X (mécanisme beaucoup plus rapide que par transport hydrodynamique). L’air est opaque aux X qui ne se propagent pas très loin. La boule de feu proprement dite n’est alors pas visible de l’extérieur.

2. Quand la température de la sphère centrale est tombée à 300 000 K à la suite de l’émission et de l’absorption des X, une onde de choc se forme. Elle se déplace plus vite que la température peut se propager par transport radiatif, et l’onde de choc se sépare donc de la sphère isotherme centrale. Celle-ci continue à se dilater sans tellement interagir avec l’extérieur. L’onde de choc suit les relations d’Hugoniot, et l’air se dilate adiabatiquement derrière. La densité y est très faible et la pression quasi constante (des différences de pression importantes induiraient des mouvements de matière qui égaliseraient la pression. Cela simplifie les calculs. L’onde de choc chauffe l’air devant elle, et celui-ci rayonne dans l’ultraviolet, puis le visible. Premier pic de luminosité

3. Quand la température de l’air devant l’onde de choc tombe en dessous de quelques 2 000 à 3 000 K, l’onde de choc devient transparente et la sphère isotherme à l’intérieur devient visible. Sa température est plus élevée (8 000 K) et la luminosité augmente fortement, puis diminue à nouveau (2° pic de luminosité).

4. Tout l’ensemble refroidit plus ou moins adiabatiquement et le rayonnement émis diminue rapidement

5. La boule de feu s’élève dans l’atmosphère tout en refroidissant et se mêle à l’air ambiant de façon turbulente

Première microseconde

Allumage par une bouffée de neutrons (béryllium-polonium). Libre parcours moyen des neutrons d’une dizaine de centimètres avant une fission. Donc ces neutrons déclenchent des fissions dans tout le volume de plutonium (ou d’uranium), dont les neutrons déclenchent à leur tour des fissions à plusieurs centimètres de distance. L’énergie des neutrons est de quelques MeV, d’où une vitesse ~1/30 vitesse lumière = 107 m/s. Il s’écoule donc 10–8 s entre deux fissions, soit 0.01 µs.

Reste à calculer l’augmentation exponentielle d’énergie qui conduit à une dilatation de la matière fissile, jusqu’à ce que l’augmentation de volume (et la diminution de densité conséquente) la fasse passer en dessous du seuil critique. La réaction en chaîne s’arrête alors, après 50 à 60 étapes (calcul de ce nombre ?). L’essentiel de l’énergie d’une explosion nucléaire est libérée dans les dernières étapes (quantifier) de la réaction en chaîne, puisque l’augmentation est exponentielle donc en 0.1 µs à peu près. De l’allumage à la dissociation de la bombe il s’écoule un peu moins d’une microseconde.

La fission d’un noyau d’uranium 235 libère, en moyenne, une énergie de 210 MeV, qui se répartit de la façon suivante :

L’effet sur l’environnement de l’explosion des neutrons, des bêta et des neutrinos est négligeable en comparaison de l’effet des gamma et de l’énergie cinétique des noyaux produits par la fission qui apparaît sous forme de chaleur. 85% de l’énergie d’une fission se retrouve dans l’énergie cinétique des fragments. À cette température, le rayonnement électromagnétique est essentiellement formé de rayons X (100 MK = 10 keV). Ceux-ci sont absorbés en quelques dizaines de centimètres par l’atmosphère très chaude (d’où ionisation et forte absorption). Une partie (45% de l’énergie) chauffe l’air et forme une onde de choc (qui rayonne aussi de la lumière), le reste (35%) est réémis en rayons X mous, puis en ultraviolets puis dans le visible.

L’explosion d’une bombe-canon du genre de Little Boy est moins efficace que celle d’une bombe à implosion comme Fat Man, ce que compense la masse critique plus importante de 60 kg d’uranium 235 comparée aux 6 kg de plutonium 239. L’une et l’autre ont libéré l’équivalent de près de 20 kt de TNT, soit ~1014 joules. Equivalences : 1 kt = 4.184x1012 J (c’est devenu une définition de « une kilotonne ») = 2.6x1025 MeV = 1.16x106 kWh = fission de 57 g d’U235 ou de Pu239. (rendement de 1.4% de 60 kg d’uranium 235 → 800 g pour 20 kt donc 40 g par kt, pas des milligrammes, idem pour 14% de 6 kg de plutonium)

Cette énergie est libérée (en 0.1 µs) dans un volume de 10 cm de rayon. Ce qui est le point de départ du calcul de la boule de feu. Très grossièrement :

Densité d’énergie ~ 1014 J / (Volume initial V~ 4x10–3 m3) ~ 2.5x1016 J/m3

E(rayonnement) = 7.56x10–16 T4 J/m3 , ce que l’on dérive à partir de la loi de Planck pour une émission isotrope d’un corps noir à toutes les fréquences

⇒ Température T ~ (2.5x1016/7.56x10–16)1/4 = 7.6x107 K = 76 MK ~ 7.6 keV → rayons X (définis comme l’intervalle entre 0.01 et 10 nm, soit 0.12 keV à 120 keV)

Plus généralement T = 76 MK (E/20 kt)1/4 (R/10 cm)-3/4

À cette température, la densité d’énergie de rayonnement est de ~1016 J/m3, très supérieure à l’énergie de la matière (cinétique et excitation interne) qui est de l’ordre de 1013 à 1014 J/m3. C’est ainsi que 80% de l’énergie se retrouve sous forme de rayonnement thermique. Le raisonnement n’est-il pas circulaire ? C’est une différence importante avec une explosion chimique (une bombe « conventionnelle » par exemple) où la température atteint quelques milliers de degrés seulement, et où l’essentiel de l’énergie se retrouve dans la matière (~107 J/m3), celle du rayonnement (~ 0.1 J/m3) étant totalement négligeable. Une bombe nucléaire n’est donc pas seulement une bombe très puissante : à l’effet de souffle d’une bombe classique s’ajoutent un effet thermique très important et le rayonnement gamma.

Bien sûr il y a ici de nombreuses approximations : en pratique les étapes sont enchevêtrées, la température augmente progressivement au fur et à mesure que l’énergie est libérée, le transfert d’énergie de la fission au rayonnement se fait au travers des cascades complexes de collisions inélastiques qui conduisent en une microseconde à un équilibre entre matière et rayonnement électromagnétique à une température de plusieurs dizaines de millions de degrés.

1 milliseconde : boule de feu, onde de choc et premier pic de luminosité

Calculs de von Neumann et Taylor, pour une source ponctuelle de l’onde de choc Au début, la température est très élevée et la boule de feu encore petite, le libre parcours des photons est alors plus grand que la taille de la boule de feu, et la température de celle-ci est donc à peu près uniforme (sphère isotherme). Les photons « chauffent loin » et la boule se dilate rapidement. Quand la température diminue, le libre parcours moyen des photons diminue. L’expansion de la boule ralentit donc, puisqu’il faut plus de collisions pour franchir une distance donnée, donc plus de temps. La vitesse d’expansion de la boule de feu finit par devenir inférieure à la vitesse du son dans le plasma (~30 km/s), ce qui arrive 100 µs après l’explosion quand la température diminue jusqu’à 300 000 K. Une onde de choc se forme devant la boule de feu (on parle de « séparation hydrodynamique »). Cette onde de choc est due au fait que la vitesse du son (variant comme √T) est plus grande en arrière du front d’onde que devant, et que l’arrière de la perturbation rattrape donc l’avant construisant ainsi un bourrelet de surdensité (la densité monte jusqu’à 6 fois la densité normale).

Cette onde de choc comprime l’air sur son passage et le chauffe à des températures de l’ordre de 30 000 K. cet air est ionisé, et de ce fait opaque au rayonnement : la boule de feu n’est plus directement visible. Par contre l’air ionisé par l’onde choc rayonne dans l’ultraviolet et cela donne un premier pic de luminosité qui est très bref car la température diminue rapidement (et la luminosité varie comme T4). Ce premier pic de luminosité ne dure que quelques millisecondes et il emporte 1% de l’énergie totale de rayonnement de l’explosion.

À cette onde de choc s’ajoute une deuxième onde de choc, interne, due à l’expansion des débris matériels de la bombe (matière fissile restante, uranium du tamper, habillage de la bombe, etc.). Cette onde de choc interne est plus rapide et rattrape l’onde de choc externe peu après sa formation, en la renforçant.

100 ms : deuxième pic de luminosité

Le front de l’onde de choc continue à ioniser l’air sur son passage, mais à des températures de plus en plus basses. Vers 15 ms, la température n’est plus que de 3 000 K et l’ionisation cesse. L’air redevient transparent et la boule de feu redevient visible. Sa température est alors de 8 000 K, son diamètre de 220 m et sa vitesse de 4 km/s. La luminosité augmente brutalement, passe par un maximum autour de 100 ms puis rediminue plus lentement, émettant alors surtout dans des longueurs d’onde visible et infrarouges. Ce second pic emporte 99% de l’énergie de rayonnement, dont 50% sont libérés dans les 300 premières millisecondes, 75% après 750 ms, et 99% après quelques secondes. La luminosité rayonnée par la boule de feu est en effet proportionnelle à la surface de la boule (qui augmente avec le temps) et à la puissance 4° de la température (qui diminue avec le temps). La conjonction de deux facteurs conduit à une augmentation de la luminosité suivie d’une diminution.

Libération de l'énergie dans l'explosion d'une bombe à fission

L’énergie thermique est rayonnée en deux pics, le premier très bref ne durant qu’une milliseconde et emportant 1% de l’énergie totale, le second beaucoup plus long dure une seconde et emporte 99% de l’énergie.

temps 0.1 ms 1 ms 10 ms 100 ms 1000 ms
diamètre de la boule de feu 20 m 80 m 180 m 400 m 500 m

L’onde de choc arrive au sol

Pour une explosion en altitude (i.e. > quelques centaines de mètres), l’onde de choc parvient au sol qui la réfléchit en une 2° onde de choc. Celle-ci est plus rapide que la première car elle se déplace dans une atmosphère déjà mise en mouvement par celle-ci. Elle la rattrappe et la renforce. C’est là le principal intérêt de provoquer l’explosion en altitude plutôt qu’au niveau du sol (en dehors d’éviter de soulever de grandes quantités de sol irradié).

L'onde de choc de l'explosion

In a visit to Los Alamos in September 1944, von Neumann showed that the pressure increase from explosion shock wave reflection from solid objects was greater than previously believed if the angle of incidence of the shock wave was between 90° and some limiting angle. As a result, it was determined that the effectiveness of an atomic bomb would be enhanced with detonation some kilometers above the target, rather than at ground level.

Plus l’explosion a lieu en altitude, et plus l’onde de choc est affaiblie en arrivant au sol, mais plus la surface touchée est grande. Il existe de ce fait une altitude optimale pour l’explosion, celle qui maximise la surface où la surpression dépasse un seuil donné (celui de destruction des bâtiments par exemple). Les calculs menés à Los Alamos indiquèrent que cette altitude optimale serait de l’ordre de 600 m pour une bombe de 15 kt.

Little Boy was detonated too low for maximum 5psi overpressure in ground. Somewhere between 1850-1900 feet altitude. 5psi is the optimum for attacking city target and detonation altitude is normally set to maximize the area of 5psi overpressure. It almost can pierce ear-drum of human, and destroy most unhardened city structures. Little Boy actually maximized the 12psi overpressure area. The detonation altitude was set conservatively because the uncertainty of yield. That altitude is optimum for 5kt weapon and way too low for 11kt weapon. American were conservative, wisely, as setting the altitude too high rapidly diminishes results. Little too low detonation altitude is not so critical error. For example, if Little Boy would had delivered only 5kt and it would had been detonated say, 3000feet (far better for 11kt than the altitude they used), the effect in ground would had been greatly diminished.

Le « champignon »

La boule de feu, très chaude, est plus légère que l’atmosphère ambiante et elle s’élève comme un ballon à une centaine de mètres par seconde. Elle s’aplatit en forme de tore, avec des tourbillons internes, et elle s’élargit en arrivant dans les couches moins denses de l’atmosphère (la tropopause) et retombe lentement. Le nuage est initialement de couleur rougeâtre (ce qui est dû aux oxydes d’azote formés par le rayonnement intense sur l’azote et l’oxygène de l’air), puis vire au blanc en raison de la vapeur d’eau. Au bout de quelques minutes, le nuage atteint son altitude maximale, proche de 10 000 m, et il continue à s’élargir. Il finit par mesurer environ 3000 m de diamètre sur 6 à 7000 m de haut. La colonne ascendante d’air chaud entraîne l’air environnant, en provoquant au niveau du sol des vents violents convergeant vers la base de la colonne. Ces vents sont cependant plus faibles que ceux qui suivaient auparavant l’onde de choc, ils sont plus tardifs et en sens inverse.

Le développement du "champignon"

Radioactivité

La fission de 57 g d’uranium 235 libère une énergie équivalente à 1 kt. Ce la conduit à 3x1023 atomes de produits de fission et à une radioactivité de 1021 becquerels au bout d’une minute.

Immédiatement après l’explosion (0.1 µs) une bouffée de neutrons et de gammas est produite, 25% de la radioactivité. Les 75% restants viennent des produits de fission. Ceux qui ont une courte vie (< 10 s) provoquent un flux intense de gammas secondaires. Ils engendrent aussi des alphas et des bêtas, mais ceux-ci sont immédiatement absorbés. Les produits de fission à longue vie vont se disperser sous forme de retombées, et engendrer des alphas, des bêtas et des gammas pendant un temps qui peut être très long. Les plus dangereux de ces produits sont l’iode 131, le strontium 90 et le césium 137, en raison de leurs fortes affinités biologiques et leurs demi-vies. L’iode 131 (1.6x105 Ci/kt) se fixe dans la thyroïde où il produit des bêtas et des gammas (demi-vie de 8 jours). Le strontium se fixe dans les os et c’est un émetteur bêta. Il est produit 3.8x104 Ci/kt de strontium 89 (demi-vie 52 jours) et 190 Ci/kt de strontium 90 (demie-vie 28 ans). Enfin il est produit 200 Ci/kt de césium 137, émetteur bêta et gamma, de demi-vie 30 ans.

1 Ci = 37 MBq

LES EFFETS PRÉVUS D’UNE EXPLOSION NUCLÉAIRE

Portée des effets létaux

L’énergie libérée dans une explosion nucléaire se retrouve, à quelques centaines de mètres du point d’explosion, à 35% sous forme thermique (rayonnement visible et infrarouge), à 50% sous forme mécanique (effet de souffle de l’onde choc), à 4% sous forme de gammas, à 1% sous forme de neutrons, et à 10% sous forme de rayonnements des produits de fission (ce rayonnement ne produisant ses effets qu’avec retard n’est souvent pas inclus dans le calcul de « l’énergie libérée » en équivalent TNT). Un explosif classique libérant la même énergie a donc un effet de souffle deux fois plus puissant.

Sont considérés comme des seuils létaux : une brûlure du 3° degré (8 calories/cm2 de peau), une surpression de 0.3 bar (par ses effets indirects) ou une irradiation de 5 Sv.

L’air est pratiquement transparent au rayonnement visible et infrarouge, l’effet thermique est donc à peu près proportionnel à la surface touchée et la portée de l’arme varie comme son énergie à la puissance ? (un peu moins en fait car il y a un peu d’absorption. L’effet de souffle dû à l’onde de choc est un effet de volume, et la portée varie comme l’énergie à la puissance 1/3. Le rayonnement gamma est en partie absorbé par l’atmosphère et la portée varie à peu près comme l’énergie à la puissance 1/5. Plus précisément la portée létale d’une arme nucléaire est (suivant Carey Sublette) :

Rthermique = 2 140 m (Énergie/16 kt)0.41 brûlure du 3° degré (8 cal/cm2 ~ 350 kJ/m2)

Rsouffle = 1 840 m (Énergie/16 kt)0.33 surpression de 0.3 bar (4.6 psi)

Rrayonnement = 1 420 m (Énergie/16 kt)0.19 irradiation de 5 Sv

Onde de choc

Durée du passage onde de choc > périodes vibration des structures donc effet suivant pic de surpression au lieu de l’impulsion d’où rayon effet choc suivant la [puissance]1/3 et non [puissance]2/3 d’un explosif classique.

Pour un effet de souffle destructeur, il faut une surpression minimale (mais il ne sert à rien de dépasser largement cette surpression !). L’onde de choc est supersonique, derrière il y a un vent (induisant une surpression dynamique, en générale plus faible que celle due à l’onde de choc elle-même). Une surpression de 20 psi induit un vent de 800 km/h !

1 psi = 0.07 bar = 700 kg/m2

Par elle-même, la surpression n’est pas très dangereuse pour les humains (sauf pour leurs tympans) : un plongeur en apnée par 10 m de fond subit une surpression de 1 bar (14.7 psi). Le danger vient de l’effondrement des bâtiments, si l’on est pris sous les décombres, et du choc si l’on reçoit des projectiles expédiés par l’onde de choc, ou si l’on est soi-même projeté violemment.

Surpression Effet

1 psi (0.07 bar)

Bris des vitres, blessures par les fragments, effondrement des toits et des constructions légères
3 psi Destruction des maisons, blessures graves
5 psi Effondrement des immeubles, blessures nombreuses et souvent mortelles
10 psi Destruction des bâtiments en béton renforcé, la majorité des gens sont tués
20 psi Pratiquement tout est détruit, mortalité proche de 100%

L’onde de choc produit une surpression dans un volume proportionnel à l’énergie libérée.Le rayon de la zone où la surpression dépasse un seuil donné varie donc comme la puissance 1/3 de cette énergie : R = R1(E/1 kt)1/3

Surpression Rayon pour 1 kt Rayon pour 16 kt

1 psi (0.07 bar)

2200 m 5500 m
3 psi 1000 m 2500 m
5 psi 710 m 1800 m
10 psi 450 m 1100 m
20 psi 280 m 700 m

Thermique

Les effets thermiques d’une explosion nucléaire sont de deux types : un effet direct dû au passage de la boule de feu, et un effet indirect dû aux incendies allumés par ce passage (et la destruction des bâtiments) et qui fusionnent en une « tempête de feu ».

En néglgligeant l’absorption de l’atmosphère, l’énergie thermique est répartie sur une sphère de rayon R et l’énergie thermique par unité de surface diminue en 1/R2 avec la distance. Energie totale pour 20 kt ~ 1014 J dont 1/3 en énergie thermique → 3x1013 J de rayonnement thermique, soit 300 kJ/m2 à 3 000 m (surface ~108 m2) donc brûlure du 3° degré (350 kJ/m2) et 100 kJ/m2 (brûlure du 1° degré) à 5 000 m. En comparaison, le Soleil dépose 1400 W/m2. À 5 km du point d’explosion, la boule de feu dépose 100 kJ/m2 en 0.1 s, soit une puissance de 1000 kW/m2 : l’expression « plus clair que 1000 soleils » est donc littéralement exacte.

L’absorption atmosphérique conduit à une décroissance en 1/R2.4, ce qui réduit un peu ces rayons critiques :

Brûlure Effet Dépôt d'énergie Rayon létal pour 16 kt
1° degré Épiderme (superficiel : coup de soleil) 2.5 cal/cm2 = 100 kJ/m2 3 300 m
2° degré Derme : brûlure, cloques 5 cal/cm2 = 200 kJ/m2 2 500 m
3° degré Derme touché en profondeur : cicatrices indélébiles 8 cal/cm2 = 350 kJ/m2 2 100 m

Une brûlure du 3° degré sur une zone dépassant 25 à 30% de la surface du corps est souvent mortelle (risque de collapsus cardiovasculaire). Risques graves d’infection via les tissus brûlés. La chaleur déposée sur la surface est très supérieure à celle qui peut être transmise en profondeur par conduction thermique ou renvoyée par rayonnement. La température de surface augmente donc très rapidement, atteignant 1000°C, mais l’effet demeure superficiel en raison de la brièveté du phénomène. Une cloison voire un vêtement (clair !) a pu suffire à protéger les gens. Les conséquences des incendies secondaires sont beaucoup plus graves. Quand les immeubles sont détruits ou endommagés par l’effet de souffle, de nombreuses canalisations sont coupées, des court-circuits électriques se produisent, les flammes nues (veilleuses d’appareils de chauffage, réchauds à alcool ou charbon de bois, gaz) conduisent à de très nombreux départs de feu, amplifiés par l’effet de cheminée des pans de murs ou des cages d’escalier aux portes arrachées. Lors des tremblements de terre de San Francisco en 1906 ou de Tokyo et Yokohama en 1923, l’incendie a été considérablement plus destructeur que le tremblement de terre lui-même, surtout avec les nombreux bâtiments japonais de bois. L’air chaud montant déclenche des vents convergeants au niveau du sol qui conduisent à une extension rapide des incendies. Les températures s’élèvent à plusieurs centaines de degrés, entraînant la fusion du verre et de certains métaux, l’ébullition des plans d’eau ou des rivières, et à des températures de four à l’intérieur des caves et des abris. Une « tempête de feu » ravage alors la ville pendant plusieurs heures. La tempête de feu a commencé 20 mn après l’explosion à Hiroshima, un peu plus tard à Nagasaki (2 heures après l’explosion) mais elle a duré plus longtemps (environ 5 h). Un bombardement nucléaire est instantané par comparaison avec les bombardements incendiaires « classiques » qui duraient plusieurs heures, comme à Dresde ou à Tokyo, et qui laissaient à beaucoup de gens le temps de s’abriter ou de fuir. Les bombardements nucléaires ont donc fait proportionnellement plus de victimes par rapport à la population (40% à 50% à Hiroshima et Nagasaki comparés aux 5 à 10% de Tokyo ou de Dresde).

La majorité des victimes à Hiroshima est due aux brûlures, directes et indirectes. Pour une bombe de 16 kt, le rayon létal des brûlures directes, de l’ordre de 2 100 m, est supérieur aux 1 800 m du rayon létal de l’effet de souffle (surpression de 5 psi) et aux 1 400 m de l’effet létal d’irradiation (dose supérieure à 5 Sv). Les brûlures ont été les plus meutrières : 30% seulement des survivants d’Hiroshima ont montré des effets d’irradiation intense, et il s’agit surtout des personnes qui se sont trouvés à l’abri de la chaleur et du souffle. Beaucoup souffraient aussi de brûlures graves.

Radioactivité

Les très nombreux produits de fission différents engendrés par l’explosion ont des demi-vies extrêmement différentes, de même que leurs descendants. La superposition de toutes ces demi-vies en proportion très différentes conduit, plusieurs minutes après l’explosion, à une règle – empirique – dite « règle des septs » : la radioactivité au temps 7t est à peu près 1/10 de la radioactivité au temps t . Ainsi, la radioactivité 7 h après l’explosion est 1/10 de la radioactivité 1 h après l’explosion. Cette loi approximative est une loi en puissance, pas une exponentielle comme la transmutation radioactive d’un élément unique.

Validation des calculs

L’explosion accidentelle de deux cargos chargés de près 5 000 tonnes de bombes et de munitions, le 17 juillet 1944, sur la base navale de Mare Island (près de Port Chicago dans le nord de la baie de San Francisco) fit plus de 700 victimes. Cette explosion, équivalent à près de 2 000 tonnes de TNT, permit de valider — partiellement en raison des différences entre explosion chimique et explosion nucléaire – les estimations de l’effet d’une explosion nucléaire (et d’ouvrir la porte à des théories du complot affirmant qu’il s’agissait déjà d’un essai nucléaire).

Après l'explosion de cargos de munitions à Mare Island en 1944

L’embarcadère de Mare Island en juillet 1944 après l’explosion des deux cargos chargés de bombes et de munitions © US Navy

Mortalitée prévue

Développement boule de feu + estimation des dégâts : dans une note (aux autorités militaires et politiques ?) Oppenheimer estima à 20 000 morts le nombre de victimes d’une explosion nucléaire, mais il avait supposé que les habitants seraient pour la plupart dans des abris anti-aériens, alors que la majorité se trouvait à l’extérieur sans protection (l’alerte avait été levée) ou dans les bâtiments qui s’effondrèrent. De plus, il avait largement sous-estimé les conséquences de l’incendie secondaire.

La première explosion nucléaire: Trinity

RÉTICENCES DES SCIENTIFIQUES AVANT TRINITY

La motivation initiale du programme Manhattan était de ne pas laisser à Hitler le monopole d’une bombe nucléaire, justifiant à partir de 1942 un immense effort scientifique, technique et industriel. Quand il apparut progressivement que l’Allemagne était en réalité très en retard sur les États-Unis, les scientifiques se divisèrent sur l’opportunité de poursuivre le programme et surtout sur la nécessité d’utiliser la bombe : Oppenheimer, Lawrence, Fermi d’un côté, Bohr, Szilárd, Frank de l’autre (plus complexe que cela en réalité).

Target Committee

Roosevelt mourut le 12 avril 1945 et Truman devint Président. Le Secrétaire à la Guerre Stimson le mit au courant le 13 avril du programme Manhattan. Il était alors clair que la méthode d’implosion avait de bonnes chances de fonctionner correctement, même si un essai préliminaire semblait prudent. À cette date, 25 kg d’uranium 235 et 6 kg de plutonium 239 étaient disponibles, mais il n’y avait plus guère de doute sur le fait que des quantités suffisantes pour une Little Boy et deux Fat Man (sans compter celle de l’essai Trinity) seraient disponibles fin juillet. Cette disponibilité imminente des bombes signifiait que la décision politique de son emploi se posait désormais très concrètement, et par suite le choix des cibles potentielles.

Un Target Committee fut établi pour choisir le mode d’emploi des bombes (avertissement sur les effets d’une bombe, démonstration sur une cible non habitée, ou bombardement d’une ville), puis à sélectionner les villes qui serviraient de cibles. Le 27 avril (la guerre était pratiquement terminée en Europe), le Target Committee sélectionna une première liste de 17 cibles au Japon. Les critères de sélection étaient :

Les délibérations du comité montrent que la présence d’objectifs militaires n’était pas jugée importante (quoiqu’on ait dit ensuite) car le but du bombardement était uniquement d’ordre psychologique et politique. Il ne semble pas y avoir eu alors de réflexion profonde sur la guerre nucléaire, sans doute en raison du très petit nombre de bombes qui seraient disponibles dans les mois suivants.

La sélection se réduisit ensuite à la baie de Tokyo, pour une démonstration sans victimes, et aux villes de Yokohama, Nagoya, Osaka, Kobe, Hiroshima, Kokura, Fukuoka, Nagasaki et Sasebo. Plusieurs de ces villes furent rapidement retirées de la liste car elles avaient déjà subi de très gros dégâts à la suite des bombardements incendiaires.

Une nouvelle réunion eut lieu les 10 et 11 mai, à laquelle furent également conviés von Neumann, Parsons et Bethe. Les spécificités du bombardement y furent discutées (hauteur d’explosion par exemple) et la liste des cibles fut réduite à Kyoto, Hiroshima, Yokohama et Kokura, avec Niigata comme cible secondaire. La réunion suivante, le 28 mai, se tint en présence du Lt-Colonel Tibbets, elle fit le point des bombardements incendiaires, et elle réduisit la liste des cibles pour un bombardement nucléaire à Kyoto, Hiroshima et Niigata. Le 30 mai, Stimson raya de la liste Kyoto qu’il connaissait et dont il appréciait l’importance comme capitale artistique et culturelle du Japon. Hiroshima parut alors la cible idéale car elle n’avait pas été bombardée (les nombreux bras du delta de l’Ota rendaient peu efficace un bombardement incendaire), et les collines dominant la ville pourraient focaliser et renvoyer l’onde de choc vers la ville.

Le 31 mai, se réunit le comité censé conseiller Truman. En dehors des principaux membres du cabinet et des responsables militaires, quatre scientifiques en faisaient partie : Compton, Lawrence, Fermi et Oppenheimer. Seuls Fermi et Oppenheimer avaient alors une idée à peu près précise des effets attendus de la bombe. Compton et Lawrence soutinrent l’idée d’une démonstration devant les Japonais, Fermi était d’autant plus prudent en matière politique qu’il n’était pas Américain, et Oppenheimer prit parti pour un bombardement sans avertissement. Le risque qu’une démonstration tourne au fiasco finit par rallier très vite le comité à l’idée d’un bombardement sans avertissement. Oppenheimer et Marshall proposèrent de prendre contact avec les Soviétiques, mais le Secrétaire d’État Byrnes fut horrifié à l’idée de partager avec eux le secret de l’arme nucléaire.

Teller proposa de faire exploser la bombe de nuit, sans avertissements, au-dessus de la baie de Tokyo pour éviter les pertes humaines et choquer l'opinion. Oppenheimer suggéra d'attaquer avec plusieurs bombes le même jour pour définitivement stopper la guerre. Le général Groves s'y opposa car les cibles avaient déjà fait l'objet de bombardements conventionnels et que les effets des bombes ne seraient pas assez significatifs sur ces terrains déjà dévastés. De plus, les estimations à cette date sur la puissance d'une explosion nucléaire (aucun test n'ayant été effectué) ne correspondaient au mieux qu'à la moitié, au pire à un dixième de ce qui allait être réellement le cas. Les effets n'étaient pas encore précisément connus. Ce n'est donc qu'après le test de Trinity que la nature de la mission put être scellée selon Wikipedia

Oppenheimer, Fermi et Lawrence

Oppenheimer, Fermi et Lawrence à Berkeley en 1940. ©LBL

À la conférence de Postsdam, Stimson et Truman reçurent le 16 juillet la nouvelle du succès de l’essai Trinity, ainsi que le programme de livraison des bombes : Little Boy devrait être disponible le 1° août, la première Fat Man le 6 août et la seconde le 24 août, 3 autres devaient être disponibles en septembre, et une ensuite chaque mois, ce rythme étant fixé par la disponibilité du plutonium (la production d’uranium ne permettant guère qu’une Little Boy tous les six (?) mois, plus en utilisant l’uranium pour « améliorer » Fat Man). La liste finale des cibles, communiquée le 23 juillet à Stimson (alors à Postdam avec Truman) était Hiroshima, Kokura Nagasaki et Niigata. Le 25 juillet, Spaatz donnait l’ordre de bombardement (avant même que l’ultimatum au Japon soit rendu public le 26 juillet à Potsdam).

Nécessité d’utiliser les armes nucléaires

Rôle essentiel des réfugiés : Bethe, Szilárd, Teller, Wigner, Weisskopf, Bohr, Segrè, Fermi, Franck dans les réticences des scientifiques envers l’emploi des bombes ;

Méfiance des militaires, pour qui la bombe appartient aux États-Unis, envers les scientifiques Indications de la mission Alsos sur le peu de progès allemands, supprimant aux yeux (d’une minorité) des scientifiques la principale raison de réaliser la bombe. À l’automne 1944, Joseph Rotblat quitta le programme Manhattan.

Rotblat Sir Joseph Rotblat (1908-2005)

Au cours de l’hiver 1944-1945, la fin de la guerre est en vue, l’économie allemande et bientôt japonaise s’effondrent, les projets se précisent pour l’après guerre.

Démarches des scientifiques pour un contrôle international du nucléaire

Démarches de Bohr auprès de Churchill le 16 mai 1944 et de Roosevelt le 26 août 1944,

Mémorandum Bush-Conant à Stimson le 30 septembre 1944, après entrevue le 22 de Bush avec Roosevelt, qui lui a fait part des accords USA-GB pour conserver le monopole de l’arme nucléaire. Bush et Conant disent qu’en cas de course aux armements, l’URSS pourrait disposer d’une bombe nucléaire dans un délai de quelques années, et qu’un accord international est indispensable pour éviter cela

Quand Compton revint à Chicago, après la réunion du 31 mai 1945 du Target Committee, son compte-rendu suscita un tollé de la part des scientifiques. Les discussions menèrent au « rapport Frank » le 11 juin 1945, qui expliquait qu’une attaque nucléaire sans avertissement serait désastreuse pour des raisons morales, politiques et diplomatiques et conduirait à une dangereuse course aux armements. Oppenheimer réagit en réunissant à nouveau Fermi, Lawrence et Compton, qui réaffirmèrent le 16 juin qu’il n’y avait pas d’alternative sérieuse à l’emploi sans préavis de bombes nucléaires sur les villes japonaises, et que de toute manière les scientifiques n’avaient ni légitimité ni compétence pour traiter de questions politiques, militaires ou sociales.

Pétition Szilárd : première version le 3 juillet, version finale (adoucie) le 17 juillet. Teller dit qu’il l’aurait signée mais qu’Oppenheimer l’en dissuada (car ce n’était pas le rôle des scientifiques de conseiller les politiques sur des questions politiques). Pourtant, Teller note qu’Oppenheimer venait juste de conseiller l’emploi des bombes sans avertissement ! Mais, dans une lettre du 2 juillet à Szilard, Teller lui exprime son désaccord quant à la pétition, disant même que l’usage opérationnel de la bombe était la seule façon de convaincre le monde de ses dangers et d’empêcher une nouvelle guerre.

Souci (prémonitoire) des scientifiques d’une identification dangereuse dans l’esprit du public science=bombe=mal

Anderson et Fermi

Anderson et Fermi à Los Alamos

Préparation de Trinity

Un test préalable de la bombe avait été décidé dès janvier 1944

Nom de code Trinity, d'après un poème de John Donne "Batter my heart, three person'd God" qui fut l'inspiration d’Oppenheimer

Instrumentation : Bruno Rossi (1905-1993) co-directeur du groupe Détecteurs

Bainbridge Kenneth Bainbridge

Le 7 mai, un test avec 100 tonnes d’explosifs mêlés à 100 curies de produits de fission radioactifs permit de calibrer les instruments sur le site de Trinity. Premier (et dernier) essai d’un mécanisme d’implosion complet (sans le cœur !). Les premiers résultats semblent indiquer une implosion sous-optimal, mais Bethe corrige une erreur de calcul et indique une performance optimale (Rhodes p.571)

Préparation de Gadget

11 juillet début de l’assemblage de Gadget (il faut plusieurs jours pour assembler les éléments de la bombe)

12 juillet le cœur de plutonium part de Los Alamos pour Alamogordo au Nouveau-Mexique dans le désert Jornada del Muerto

13 juillet début vers 13h de l’assemblage final du cœur de plutonium, du réflecteur (tamper) d’uranium et des lentilles explosives, assemblage terminé à 17h45

Gadget prêt à être hissé

14 juillet Gadget hissé en haut de sa tour et préparatifs finals. Gadget était une version simplifiée de la bombe Fat Man, sans la coque aérodynamique, ni bien sûr le déclencheur radio-altimétrique. Elle fut assemblée au sol puis hissée au sommet d’une tour métallique de 30 m de haut

La tour où fut hissé Gadget La tour où fut hissé Gadget

L'explosion eut lieu le 16 juillet 1945 à 5h30. Selon les estimations de la division de théorie, la puissance attendue devait se situer entre 5 et 10 kt (paris entre scientifiques sur la valeur exacte), mais l’explosion atteignit en fait 20 à 22 kt. Par conséquent, une bonne partie des équipements de mesure fut détruite ou rendue inutilisable et il y eut beaucoup plus de retombées que prévu (jusqu’à 160 km du point d’explosion). Personne ne se trouvait à moins de 9 kilomètres de l'explosion, il y avait environ 260 personnes sur le site à ce moment.

62 ms après l'explosion

L'onde de choc fut ressentie à plus de 160 kilomètres et le champignon atomique grimpa jusqu'à une altitude de 12 kilomètres.

Le champignon de Trinity

Le directeur de Los Alamos, Robert Oppenheimer, était l'un des spectateurs. Il dira plus tard qu'une citation d'un texte sacré hindou, la Bhagavad Gita, lui vint à l'esprit : « Maintenant je suis Shiva, le destructeur des mondes ».

l'explosion de Trinity

Oppenheimer et Groves

Oppenheimer et Groves sur le site de Trinity après l’explosion

« Maintenant nous sommes tous des fils de pute » Rhodes 675

Les suites

Dès le 19 juillet, Oppenheimer suggère à Groves de récupérer l’uranium de Little Boy pour le réutiliser dans un cœur composite uranium/plutonium de 4 bombes Fat Man améliorées. Groves rejette la suggestion pour ne pas retarder l’utilisation en combat.

Groves et Oppenheimer

Groves et Oppenheimer, 1° août 1945 ©Life

On July 12 the plutonium core was taken to the test area in an army sedan. The non-nuclear components left for the test site at 12:01 a.m., Friday the 13th. During the day on the 13th, final assembly of the gadget took place in the McDonald ranch house. By 5:00 p.m. on the 15th, the device had been assembled and hoisted atop the one-hundred foot firing tower. Groves, Bush, Conant, Lawrence, Farrell, Chadwick (head of the British contingent at Los Alamos and discoverer of the neutron), and others arrived in the test area, where it was pouring rain. Groves and Oppenheimer, standing at the S-10 000 control bunker, discussed what to do if the weather did not break in time for the scheduled 4:00 a.m. test. At 3:30 they pushed the time back to 5:30; at 4:00 the rain stopped. Kistiakowsky and his team armed the device shortly after 5:00 a.m. and retreated to S-10 000. In accordance with his policy that each observe from different locations in case of an accident, Groves left Oppenheimer and joined Bush and Conant at base camp. Those in shelters heard the countdown over the public address system, while observers at base camp picked it up on an FM radio signal. Trinity Test (Alamagordo, NM) cattle receive beta burns. 19 KT yield. First atomic bomb. Meanwhile, the test of the plutonium weapon, named Trinity by Oppenheimer (a name inspired by the poems of John Donne), was scheduled for July 16 at a barren site on the Alamogordo Bombing Range known as the Jomada del Muerto, or Journey of Death, 210 miles south of Los Alamos. A test explosion had been conducted on May 7 with a small amount of fissionable material to check procedures and fine-tune equipment. Preparations continued through May and June and were complete by the beginning of July. Three observation bunkers located 10,000 yards north, west, and south of the firing tower at ground zero would attempt to measure critical aspects of the reaction. Specifically, scientists would try to determine the symmetry of the implosion and the amount of energy released. Additional measurements would be taken to determine damage estimates, and equipment would record the behavior of the fireball. The biggest concern was control of the radioactivity the test device would release. Not entirely content to trust favorable meteorological conditions to carry the radioactivity into the upper atmosphere, the Army stood ready to evacuate the people in surrounding areas. Trinity At precisely 5:30 a.m. on Monday, July 16, 1945, the atomic age began. While Manhattan staff members watched anxiously, the device exploded over the New Mexico desert, vaporizing the tower and turning asphalt around the base of the tower to green sand. The bomb released approximately 18.6 kilotons of power, and the New Mexico sky was suddenly brighter than many suns. Some observers suffered temporary blindness even though they looked at the brilliant light through smoked glass. Seconds after the explosion came a huge blast, sending searing heat across the desert and knocking some observers to the ground. A steel container weighing over 200 tons, standing a half-mile from ground zero, was knocked ajar. (Nicknamed Jumbo, the huge container had been ordered for the plutonium test and transported to the test site but eliminated during final planning). As the orange and yellow fireball stretched up and spread, a second column, narrower than the first, rose and flattened into a mushroom shape, thus providing the atomic age with a visual image that has become imprinted on the human consciousness as a symbol of power and awesome destruction. Le « champignon » de Trinity At base camp, Bush, Conant, and Groves shook hands. Oppenheimer reported later that the experience called to his mind the legend of Prometheus, punished by Zeus for giving man fire. He also thought fleetingly of Alfred Nobel's vain hope that dynamite would end wars.

 

 

Chronologie

Chronologie du programme Manhattan


Contact Contact