Des physiciens observent les premiers instants de l’Univers

Le Monde, sciences

Des physiciens américains sont parvenus à observer la trace des tout premiers instants du Big Bang, atteignant un des « objectifs les plus importants de la cosmologie aujourd’hui » selon les termes de John Kovac, professeur à Harvard et responsable de l’équipe à l’origine de cette découverte, annoncée lundi 17 mars.

La survenue du Big Bang, qui a marqué la naissance de l’Univers il y a 13,8 milliards d’années, s’est accompagnée de l’émission d’ondes gravitationnelles primordiales. C’est l’empreinte que ces ondes ont laissée sur le rayonnement fossile (lequel baigne le cosmos) que sont parvenus à détecter les scientifiques.

DES ONDULATIONS PRÉVUES PAR LA RELATIVITÉ

Ces ondulations de l’espace-temps, qui avaient été prévues par la théorie de la relativité d’Albert Einstein, sont la preuve de l’expansion extrêmement rapide de l’Univers dans les premières fractions de seconde de son existence, un phénomène appelé inflation cosmique.

Pour le physicien théoricien Avi Loeb, de l’université Harvard, cette avancée « apporte un nouvel éclairage sur certaines des questions les plus fondamentales. A savoir : pourquoi nous existons et comment a commencé l’Univers. Non seulement ces résultats sont la preuve irréfutable de l’inflation cosmique mais ils nous informent aussi du moment de cette expansion rapide de l’Univers et de la puissance de ce phénomène. »

L’observation de tels rayonnements a été réalisée par le télescope Bicep 2. Depuis l’Antarctique, il a scruté le fond diffus cosmologique, le rayonnement faible hérité du Big Bang. Les scientifiques sont parvenus à étudier de minuscules fluctuations dans ce rayonnement, comme autant d’indices sur la petite enfance de l’Univers.

Lire aussi : L’enfance de l’Univers dévoilée

UNE DÉCOUVERTE DIGNE DU NOBEL

Ces données permettent également de confirmer « la relation profonde entre la mécanique quantique et la théorie de la relativité générale ». Pour Tom LeCompte, un physicien au CERN et au Laboratoire national Argonne près de Chicago, qui n’a pas participé à ces travaux, cette percée « est la plus grande annonce en physique depuis des années », qui « peut potentiellement donner le prix Nobel » à leurs auteurs, a-t-il expliqué à l’AFP.

Google s’est payé un ordinateur quantique (qui fonctionne)

L’ordinateur quantique constitue sans aucun doute l’avenir de l’informatique moderne. Il y a un an, IBM se disait à l’aube d’une offre commerciale, même si la technologie nécessite encore quelques années de travail. Mais Google n’a pas voulu attendre si longtemps, et a décidé de se lancer dans la course… à domicile.
microfactory_00

Avec l’ordinateur quantique, ne pensez plus « bits », mais « Qubits » ! Les 1 et les 0, c’est déjà « tellement 20ième sicèle » ! Avec ce type de machine, le nombre d’états n’est plus limité par ces deux valeurs, ce qui permet -sur le papier- de multiplier très largement la puissance de calcul des ordinateurs. Outre la puissance brute, ce sont surtout les applications qui en découlent qui intéressent les scientifiques : casser des clefs de cryptage en quelques secondes, simuler des environnement complexes (impossibles à ce jour), mieux comprendre l’univers… Il faut bien se rendre compte qu’on parle ici de machines capables de calculer plusieurs dizaines de milliers de fois plus vite que le meilleur des super-ordinateurs existant. L’enjeu est colossal !
Pour lire la suite sur Actuwiki

LE PRIX NOBEL DE PHYSIQUE POUR LE BOSON BROUT, ENGLERT, HIGGS

Par Sylvestre Huet sur Sciences.blogs.liberation

Le prix Nobel de physique 2013 est attribué à François Englert et Peter W. Higgs pour la proposition théorique du boson BEH (Brout, Englert, Higgs) indépendament, en 1964. Le troisième auteur, Robert Brout est décedé en 2011.

Le jury du Nobel a bien sûr décidé de cette récompense… parce que le dit boson, la seule des particules du modèle standard de la physique des particules à ne pas avoir été découverte avant 2012, est justement tombée dans l’énorme piège construit à cet effet : le Large Hadron Collider du Cern. Une chasse dont le succès a été annoncé en juillet 2012.

Cette décision du Jury rend bien sûr justice à une proposition théorique qui a fait courir les physiciens durant près d’un demi-siècle. François Englert , né en Belgique en 1932  a passé sa thèse de physique en 1959 à l’Université Libre de Bruxelles où il est professeur émérite. Peter W. Higgs, né en 1929 à Newcastle upon Tyne, au Royaume Uni a passé sa thèse en 1954 au King’s College, Université de Londres. Il est professeur émérite à l’université d’Edimbourg.

pour lire la suite

 

Lasers : les feux de l’extrême

Ça s’emballe ! », constate Laurent Boudjemaa, responsable du département développement et produits laser chez le groupe électronique français Thales, en évoquant les ventes de lasers d’une puissance colossale. Ses équipes terminent la mise au point d’un de ces géants, Cetal. Il sera expédié, cet été, en Roumanie, près de Bucarest, où il sera l’un des premiers de cette catégorie en Europe : 1 petawatt, soit 1 milliard de mégawatts, ou l’équivalent d’un million de réacteurs de centrale nucléaire. En 2012, Thales a aussi installé un de ces monstres appelé Bella, désormais le plus puissant au monde, à l’université Berkeley, en Californie.

« Le marché grandit à raison de 30 % par an pour les lasers supérieurs à 0,1 petawatt », précise le concurrent de Thales, Gilles Riboulet, directeur d’Amplitude Technologies, créée par des anciens de Thales en 2001. Les deux entreprises se partagent désormais le marché mondial. Dans ses locaux d’Evry, les 150 caisses en bois d’un autre géant de 1 petawatt, Draco, sont prêtes à partir à Dresde, en Allemagne. Un second, Vega, suivra pour l’Espagne. A chaque fois, les budgets avoisinent les 10 millions d’euros. Et ce n’est pas terminé.

« Cette forte augmentation de la demande vient de ce que ces instruments permettent d’approcher les frontières de la connaissance. Ils sont moins chers et encombrants que d’autres infrastructures comme des synchrotrons ou des accélérateurs de particules », témoigne Philippe Balcou, directeur du Centre lasers intenses et applications (Celia), près de Bordeaux, associant le CNRS, le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et l’université de Bordeaux-I. « C’est aussi un moyen, pour des pays, de jouer dans la cour des grands », ajoute le chercheur, en citant la Corée du Sud, la Chine, le Brésil…

PUISSANCE GIGANTESQUE

Attention aux chiffres tout de même. Ces lasers d’un nouveau genre ne sont pas des centrales électriques. Leur puissance gigantesque est liée au fait que l’énergie est libérée dans des temps très courts, de l’ordre de quelques dizaines de femtosecondes (1 femtoseconde vaut 10-15 seconde). En un clin d’oeil, 100 000 milliards de femtosecondes s’écoulent. L’énergie, de l’ordre du joule, équivaut, elle, à soulever une masse d’1 kilogramme de 10 centimètres…

Pourtant, cette concentration brève et très locale d’énergie suffit à rendre possibles des projets dignes de la science-fiction : thérapies contre le cancer, transmutation des éléments radioactifs en d’autres moins dangereux, claquage du vide pour faire apparaître des particules à partir de rien, fusion de noyaux atomiques pour une nouvelle source d’énergie, déclenchement de la foudre. Ou encore, usine à boson de Higgs, cette particule, découverte en 2012, responsable de la masse des particules élémentaires. Ou même, simulation d’étoiles, de supernovae et de coeurs de planète en laboratoire…

Dire qu’au début du laser, à la fin des années 1950, on ne savait pas trop à quoi pourrait servir cet instrument !

Pour lire la suite : Le Monde-sciences-physique

 

 

De l’ozone pour dépolluer les eaux

Le Monde-sciences

Un polluant – l’ozone – peut se transformer en très efficace agent de dépollution. C’est la voie explorée par l’Institut polytechnique LaSalle-Beauvais (Oise) et l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). Elle pourrait déboucher sur un procédé innovant de décontamination de nappes phréatiques et de sols.

Le pouvoir désinfectant de l’ozone est connu et exploité de longue date, notamment dans le traitement des eaux usées. Ce gaz est en effet un très puissant oxydant. C’est du reste ce qui – à la différence de l’ozone de la stratosphère qui protège la Terre des rayons ultraviolets du Soleil – en fait, dans les basses couches de l’atmosphère, un élément très toxique, à l’origine des alertes estivales aux « pics d’ozone ». En conditions contrôlées, ce potentiel d’oxydation peut au contraire devenir salutaire, en servant à dégrader et à rendre inertes de multiples substances nocives pour l’environnement.

COCKTAILS DE POLLUANTS

Mené pendant trois ans par les deux partenaires, qui en ont financé à égalité le coût (600 000 euros), le programme de recherche OPOPOP (optimisations des paramètres d’ozonation en phase liquide pour des polluants multiples de sites pollués) s’achèvera mi-septembre. Avec des résultats « très prometteurs », assure Olivier Pourret, enseignant-chercheur en géochimie à LaSalle-Beauvais et responsable du projet. La technique mise au point, indique-t-il, permet de dégrader en quelques minutes des polluants habituellement difficiles à traiter ». Mais aussi d’éliminer simultanément des cocktails de polluants, comme on en trouve dans les milieux naturels où les contaminations sont souvent multiples.

Les chercheurs ont construit, à Beauvais, un prototype expérimental d’ozonation, en forme de colonne de sept mètres de haut, permettant de traiter 400 litres d’effluents en une dizaine de minutes, par réaction chimique avec de l’ozone injecté en circuit fermé. Le gaz, de formule chimique O3, est produit sur place à partir de l’oxygène (O2) de l’air. Des essais ont d’abord été réalisés sur différents polluants, seuls ou mélangés, tels que le benzène, le phénol, le cyanure ou le trichloréthylène. « Le système a été optimisé pour traiter simulaténement jusqu’à 25 molécules différentes », précise Olivier Pourret.

15 000 M3 DE DÉCHETS INDUSTRIELS

La méthode a ensuite été appliquée à des effluents réels, provenant des dépôts liquides (les lixiviats) d’une décharge de l’Oise : une ancienne carrière de calcaire de 4 hectares, abandonnée après la seconde guerre mondiale et devenue dans les années 1960 un  gigantesque dépotoir. Plus de 15 000 m3 de déchets industriels divers y ont été déversés, qui ont durablement souillé le sol et la nappe phréatique, gorgés de plus d’une centaine de substances polluantes.

Le terrain fait partie des quelque 180 sites « orphelins », ou « à responsables défaillants » – leur exploitant ou propriétaire n’étant pas identifié, étant insolvable ou refusant de faire face à ses obligations – dont l’Ademe a la responsabilité en France. Le plus souvent, il s’agit de sites industriels ou miniers désaffectés, chargés en produits toxiques. Dans le cas présent, l’établissement public a engagé 8 millions d’euros pour sécuriser et drainer la décharge, sur laquelle il exerce toujours une surveillance. Un champ d’expérimentation idéal, donc, pour tester l’ozonation. Ce que les chercheurs ont fait en prélevant des échantillons d’eau polluée et en les traitant dans l’installation pilote de l’Institut polytechnique.

UNE UNITÉ MOBILE

« Nous avons réussi, en trois ans, à maitriser le procédé industriel », indique Roland Marion, qui dirige les recherches sur la dépollution des eaux souterraines à l’Ademe. « La dépollution par l’ozone devient possible en termes techniques et économiques », ajoute Olivier Pourret.

La prochaine étape devrait être la mise au point d’une unité d’ozonation mobile, transportable sur un site pollué. Ce qui nécessitera de disposer, sur place, d’une capacité de production et de stockage d’ozone. Dans la foulée, les chercheurs envisagent ensuite d’élargir la technique au traitement non plus seulement des eaux, mais des sols contaminés.

L’enfance de l’Univers dévoilée

Vu sur le Monde 

 

 

 

 

 

 

Si une image vaut mille mots, celle rendue publique jeudi 21 mars par une équipe européenne d’astrophysiciens en vaut encore dix fois plus. Sous l’égide de l’Agence spatiale européenne, ces chercheurs viennent en effet de prendre une photo qui nous ramène 13,8 milliards d’années en arrière. Elle montre l’Univers le plus jeune qui soit possible d’observer, tel qu’il était à ses tout débuts, 380 000 ans seulement après sa création – elle dévoile un rayonnement qui a voyagé jusqu’à nous depuis la nuit des temps.

La qualité de l’image de ce bébé-Univers prise par le satellite Planck est dix fois plus grande que le dernier cliché disponible pris par la NASA en 2003. De quoi non seulement mieux décrire l’histoire qui conduit de l’enfance à l’adulte qu’il est devenu aujourd’hui. Mais aussi de quoi plonger pour la première fois de l’autre côté du miroir et saisir à quoi a ressemblé le Big Bang, moment-clé de nos origines. Avec à la clé quelques surprises.

« LE NOM SUR LE BRACELET »

« Une collègue, pour illustrer la qualité de ce travail, a réalisé trois photos de son enfant. L’une, très floue, correspondant à la précision d’il y a vingt ans. L’autre, plus nette, où l’on reconnaît le bébé, avec la précision d’il y a dix ans. Et enfin, la dernière, avec la qualité d’aujourd’hui, sur laquelle on distingue le nom sur le bracelet ! », explique Alain Riazuelo de l’Institut d’astrophysique de Paris et du CNRS.

Il faut cependant avoir l’œil du spécialiste pour reconnaître un Univers en formation sur l’image prise par la collaboration de Planck, forte de plus de deux cents personnes. A cette époque, l’Univers ne ressemble à rien de ce qu’il est aujourd’hui. Nulle étoile, nulle galaxie, pas le moindre caillou. La matière est chaude, à environ 3 000 °C et elle n’est faite que de particules microscopiques, des électrons et des protons qui, des millions d’années plus tard, s’assembleront en atomes lourds et molécules…

MÉLASSE BOUILLONNANTE

Elle est même totalement opaque, car nul grain de lumière ou photon ne peut en sortir. Ceux-ci sautent d’électron en électron sans pouvoir s’extraire de la mélasse bouillonnante. Mais ces électrons jouent aussi avec les protons et finissent par se regrouper avec eux, privant les photons de leurs partenaires. La lumière jaillit. Les instruments du satellite Planck envoyé en 2009 à quelque 1,5 million de kilomètres de la Terre n’ont plus qu’à l’enregistrer.

C’est finalement comme s’approcher d’une boîte de nuit bien insonorisée et ouvrir la porte : soudain un bruit assourdit les tympans. Reste à déduire de ce vacarme combien il y a de personnes, combien d’hommes et de femmes, ou l’heure qu’il est…

 

 

 

 

 

 

Dans le cas de Planck, en guise d’ondes sonores, les chercheurs ont affaire à du rayonnement micro-onde (à des fréquences 15 à 500 fois plus élevées que celles des téléphones mobiles en 3G), qu’ils convertissent en température. En outre ce « bruit » ne varie pratiquement pas : quel que soit l’endroit vers lequel pointent les détecteurs, la même température est mesurée, équivalente à quelque –270 ºC. D’où son nom de fond diffus cosmique ou rayonnement fossile.

Mais tout est dans le « pratiquement ». En réalité, des murmures sont audibles, un million de fois plus faibles que le bruit dominant. « Planck est capable de repérer des cailloux d’un millimètre au sommet d’une montagne de 1 000 mètres de haut », compare Jean-Loup Puget, de l’Institut d’astrophysique spatiale d’Orsay et du CNRS, responsable d’un des instruments de Planck. D’où l’aspect granuleux du cliché, équivalent aux vagues à la surface d’un océan. Ces petites vagues deviendront grandes et donneront naissance aux étoiles, galaxies, amas de galaxies…

 

GIGANTESQUE CRÊPE

« Les quelque 5 millions de pixels de l’image sont finalement transformés en six paramètres qui décrivent l’Univers et son évolution », explique François Bouchet, du CNRS, l’un des responsables de la mission. Le verdict décrit finalement la recette de la soupe cosmique. L’Univers est composé de 4,8% de la matière ordinaire que sont nos atomes, de 25,8% de matière dite noire, invisible aux télescopes (et de nature encore inconnue) et de 69,4 % d’énergie noire, qui le pousse à grossir. Cet Univers est également plat comme une gigantesque crêpe, alors que les estimations précédentes laissaient entrevoir la possibilité d’une légère courbure. Les chercheurs estiment aussi la vitesse avec laquelle les galaxies s’éloignent les unes des autres à quelque 66 kilomètres par seconde.

A cette moisson déjà bien fournie, il faut ajouter quelques surprises. La première : les résultats sont légèrement différents de ceux obtenus par le satellite précédent de la NASA, WMAP (Wilkinson Microwave Anisotropy Probe). « Le taux d’expansion de l’Univers que nous trouvons est plus faible et nous avons quelques pourcents de plus de matière noire et ordinaire, mais nous trouvons finalement le même âge pour l’Univers – 13,8 milliards d’années », constate Jean-Loup Puget. Cela promet quelques discussions agitées.

Deuxième surprise, « le modèle standard simple qui décrit l’Univers et son évolution reproduit bien tout ce qu’on observe », ajoute François Bouchet. En particulier, ces analyses valident l’hypothèse qu’un phénomène incroyablement spectaculaire a bien eu lieu juste après le Big Bang et bien avant 380 000 ans : l’inflation.

Cette phase, aux détails encore flous, correspond à une fantastique dilatation de l’espace. Quelques milliardièmes de milliardièmes de milliardièmes de seconde après le Big Bang (le chiffre précis n’est pas encore connu !), l’Univers passe d’une tête d’épingle à sa taille presque actuelle. Les mots en fait ne suffisent pas à décrire l’événement, car l’expansion correspond en réalité à une multiplication des distances par 1025, un « un » suivi de 25 zéros…

 

 

 

 

 

 

Ce faisant, les petites imperfections initiales, les moindres fluctuations primordiales se retrouvent propulsées et imprimées dans l’image du fond diffus, formant les vaguelettes repérées par les instruments. Et de ces variations de densité de matière naîtront les grains de poussière, les étoiles…

LES ENFANTS DE FLUCTUATIONS QUANTIQUES

Par définition, ces perturbations sont de nature quantique, l’adjectif idoine pour décrire l’infiniment petit. Si bien que nous sommes finalement aussi les enfants de fluctuations quantiques. « L’inflation, c’est un peu ce qui fait bang dans Big Bang », ironise Benjamin Wandelt, à l’Institut d’astrophysique de Paris. « Les détails du fond diffus permettent même de voir comment cette inflation s’est terminée », rappelle François Bouchet. C’est donc aussi une partie invisible de l’histoire que révèle ce cliché. « Nous avons aussi éliminé pas mal de modèles sans inflation », confirme Benjamin Wandelt, qui a testé bon nombre d’hypothèses alternatives.

En outre, cerise sur le gâteau, les chercheurs ont découvert quels objets massifs les photons fossiles ont rencontré sur leur trajet jusqu’à nous. Des analyses subtiles ont tenu compte des déviations imposées par des structures gigantesques comme les amas de galaxies sur la trajectoire du rayonnement durant ces milliards d’années. « Le travail doit se poursuivre mais d’ores et déjà la coïncidence entre notre carte des grandes structures et celles obtenues par d’autres observations est remarquable », constate Alain Riazuelo.

Enfin, les chercheurs confirment qu’il existe bien une anomalie non encore expliquée par le modèle standard, ni même par aucun autre actuellement. « C’est comme si les amplitudes des vagues de notre image situées très loin l’une de l’autre étaient plus faibles qu’attendu », estime Jean-Loup Puget. « Dans les semaines à venir, des dizaines d’articles fleuriront pour tenter d’expliquer le phénomène », prévoit Alain Riazuelo.

 

 

 

 

 

 

L’histoire est donc loin d’être terminée. Planck ne se contente pas de rendrepublics 29 articles d’analyses accompagnés de ces fameuses photos. Il fournit aussi les données pour que d’autres s’en emparent et les confrontent à des théories ou aux autres expériences. « Cette grosse dose d’informations va occuperla communauté pendant au moins dix ans », anticipe Jean-Philippe Uzan de l’Institut d’astrophysique de Paris et qui n’a pas participé à la mission.

L’équipe n’a pas non plus achevé l’analyse de ses propres données. Outre la température, elle a en effet aussi enregistré une propriété du rayonnement, appelée polarisation, qui pourrait encore améliorer nos connaissances sur l’inflation. Cette dernière, en déchirant l’espace avec une telle violence, a créé des ondes de matière qui s’impriment aussi dans le fond diffus. Personne n’a encore vu ces ondes dites gravitationnelles, mais la collaboration Planck dans un an espère soit les voir pour la première fois, soit mieux les cerner. Le bébé Univers n’a pas fini de crier.

Un épisode chaud du passé décrit grâce au forage des glaces du Groenland

vu sur science.gouv -> pour lire tout l’article

L’Histoire du climat vient d’être reconstituée sur 130 000 ans au Groenland grâce à l’analyse de carottes de glace extraites lors du forage NEEM1 mené par une équipe internationale de scientifiques impliquant en France, le CNRS, le CEA, l’UVSQ, l’université Joseph Fourier2 et l’IPEV. Les chercheurs ont pu récupérer pour la première fois en Arctique de la glace formée lors de la dernière période interglaciaire, il y a 130 000 à 125 000 ans, marquée par un important réchauffement arctique. Selon leurs travaux, la calotte du Groenland aurait contribué seulement de 2 mètres aux 4 à 8 mètres de montée du niveau marin caractéristique de cette période. Publiée le 24 janvier dans Nature, cette étude apporte des informations précieuses pour comprendre les relations entre climat et montée du niveau des mers.

A partir de ces analyses, les scientifiques ont été en mesure de décrire les changements climatiques sur les derniers 130 000 ans au Groenland. Résultats : durant l’Eemien, il y a 130 000 à 125 000 ans, le climat du nord du Groenland aurait été de 4°C à 8°C plus chaud qu’actuellement. Ces températures sont plus élevées que celles simulées par les modèles de climat pour cette période3. Pour autant et de manière surprenante, l’altitude de la calotte, au voisinage de NEEM, n’a baissé que de quelques centaines de mètres sous le niveau actuel. En effet, au début de la période interglaciaire, il y a environ 128 000 ans, elle était 200 mètres plus élevée que le niveau actuel, puis l’épaisseur de la calotte a diminué à un rythme d’en moyenne 6 cm par an. Ensuite, il y a près de 122 000 ans, l’altitude de la surface était environ 130 mètres sous le niveau actuel. L’épaisseur de la calotte est alors restée stable (autour de 2 400 mètres) jusqu’au début de la dernière glaciation, il y a près de 115 000 ans. La calotte du Groenland n’a donc pu contribuer que de 2 mètres aux 4 à 8 mètres de la montée du niveau marin caractéristique de l’Eemien.
Par ailleurs, les chercheurs estiment que le volume de la calotte du Groenland a diminué d’environ 25% en 6 000 ans durant l’Eemien. Au cours de cette période, une intense fonte de surface est enregistrée dans les carottes de glace par des couches de regel. Ces dernières résultent de l’eau de fonte, fournie par la neige de surface, qui s’est infiltrée dans les couches de neige plus profondes puis a regelé. De tels évènements de fonte sont très rares au cours des derniers 5 000 ans, confirmant que la température de surface au site de NEEM était nettement plus chaude pendant l’Eemien qu’actuellement. Ce phénomène a tout de même été observé durant l’été 2012 par l’équipe présente sur le site du forage NEEM.







La dangereuse imposture nucléaire

Par Jean-Jacques Delfour, professeur de philosophie en CPGE, ancien élève de l’ENS de Saint-Cloud


L’information commence à émerger : dans la centrale nucléaire de Fukushima, la piscine du réacteur 4, remplie de centaines de tonnes de combustible très radioactif, perchée à 30 mètres, au-dessus d’un bâtiment en ruine, munie d’un circuit de refroidissement de fortune, menace l’humanité d’une catastrophe pire encore que celle de Tchernobyl. Une catastrophe qui s’ajoute à celle de mars 2011 à Fukushima : 3 réacteurs percés qui déversent leur contenu mortel dans l’air, dans l’océan et dans la terre.

Les ingénieurs du nucléaire ne savent pas quoi faire face à tous ces problèmes. Ils ont déclamé que la sécurité, dans le nucléaire, était, est et sera totale, que, lorsqu’une catastrophe majeure a lieu, personne n’a de solution à proposer. Telle est l’effroyable vérité que révèle Fukushima. Tchernobyl avait été mis au compte de l’incompétence technique des Soviétiques. Impossible de resservir la même fable politique.

Si l’on fait usage de sa raison, il ne reste qu’une seule conclusion : l’incompétence des ingénieurs du nucléaire. En cas de panne du circuit de refroidissement, si l’échauffement du réacteur atteint un seuil de non-retour, il échappe au contrôle et devient un magma en fusion de radionucléides, de métal fondu et de béton désagrégé, très toxique et incontrôlable (le corium).

La vérité, posée par Three Miles Island, Tchernobyl et Fukushima, est que, une fois ce seuil franchi, les ingénieurs sont impuissants : ils n’ont pas de solution. Ils ont conçu et fabriqué une machine nucléaire mais ils ignorent quoi faire en cas d’accident grave, c’est-à-dire « hors limite ». Ce sont des prétentieux ignorants : ils prétendent savoir alors qu’ils ne savent pas. Les pétroliers savent éteindre un puits de pétrole en feu, les mineurs savent chercher leurs collègues coincés dans un tunnel à des centaines de mètres sous terre, etc. Eux non, parce qu’ils ont décrété qu’il n’y aurait jamais d’accidents très graves.

pour aller plus loin

Matière noire: polémique entre astrophysiciens

vu sur http://sciences.blogs.liberation.fr

 

Nous ne voyons pas de matière noire dans notre coin de Galaxie, clamait une équipe d’astrophysiciens. Vos travaux sont «incorrects» les tance une autre équipe, dans un article soumis à la critique des pairs sur le site arXiv.org qui vient leur répliquer de manière assez sévère.

Dessin: la vision classique de la matière noire dans notre galaxie.

L’affaire démarre en avril dernier, avec un article dont l’Observatoire européen austral fait la publicité auprès des journalistes, puisque les données d’observations ont été réalisées à l’aide d’un de ses télescopes, à La Silla, au Chili.

Le 24 avril, je publie sur le blog une note qui présente l’affaire ainsi:

Foi d’étoiles, il n’y a pas de matière noire jusqu’à 13.000 années lumière autour du Soleil.

Cette observation récente d’astrophysiciens européens vient bousculer les idées dominantes dans les laboratoires d’astrophysique. On y pense, en général, que l’Univers contient plus de 80% d’une matière inconnue, baptisée «noire» pour souligner son invisibilité et notre ignorance à son sujet. Depuis plusieurs décennies, on cherche en vain à la détecter, mais son existence semblait bien établie. Or, aucune trace de cette matière mystérieuse, d’après les mouvements des étoiles dans notre banlieue galactique.

C’est une patiente observation des mouvements de plus de 400 étoiles géantes rouges, situées à des altitudes très différentes au-dessus du plan de la Galaxie et dans la direction du pôle Sud galactique, qui est à l’origine de cette affirmation pour le moins troublante pour les astrophysiciens.

Réalisée à lObservatoire de La Silla de l’Observatoire Européen Austral (dans les Andes chiliennes), cette observation visait à cartographier la matière noire à travers son influence gravitationnelle sur les mouvements des étoiles. Or, explique le responsable de l’équipe, Christian Moni Bidin (Departamento de Astronomía, Universidad de Concepción, Chili), «la quantité de masse que nous avons déduite correspond très bien à ce que nous voyons – les étoiles, la poussière et le gaz – dans la région autour du Soleil, mais cela ne laisse aucune place pour la matière supplémentaire – la matière noire – que nous pensions trouver. Nos calculs montrent qu’elle aurait dû clairement ressortir dans nos mesures. Mais elle n’est pas là !».

L’origine de l’idée d’une matière noire est déjà ancienne (Fred Zwicky en 1933) et provient de l’analyse des mouvement des galaxies dans les amas de galaxies. Puis, c’est la rotation des galaxies sur elles-mêmes qui a semblé imposer cette idée dans les années 1970. Elles vont trop vite – surtout les étoiles des bords – relativement à la masse visible.

Dans les années 1980, c’est l’analyse des effets de loupes gravitationnelles des amas de galaxies (graphique ci-contre) qui a fait supposer qu’ils hébergent dix fois plus de masse invisible que de masse visible. Les scénarios post Big-Bang, notamment, la densité de l’Univers et les «grumeaux» de la carte du rayonnement cosmologique (le fond diffus des photons émis lors du découplage entre matière et lumière lorsque la température de l’Univers a été assez refroidie, environ 300.000 ans après le Big-bang), ont aussi exigé cette masse supplémentaire.

Enfin, cette matière noire s’est imposée comme une composante indispensable dans les théories qui expliquent la formation des galaxies, car elles exigent plus de masse que celle qui est visible.

De quoi serait-elle constituée ? Dans les années 1990, les astrophysiciens, aidés des physiciens des particules comme Michel Spiro, ont cherché des milliards de milliards de Jupiter ou de «presque étoiles» (les Machos, massives compacts objects) qui auraient peuplé les halos des galaxies. En vain. Même échec pour la recherche de particules exotiques, des partenaires supersymétriques des particules connues… dans les accélérateurs de particules, dans les détecteurs de rayons cosmiques. L’instrument AMS (lire ici une note qui raconte toute l’histoire de cette recherche) acheminé à bord de la station spatiale internationale par la navette Discovery lors de son dernier vol en avril 2011 fait partie de cette recherche. Pour l’instant, les astrophysiciens sont bredouilles.

L’ article de Moni-Bidin et al. publié dans The Astrophysical Journal, va t-il remettre en selle les débats autour d’une modification de la loi de la gravitation comme alternative à l’idée de la matière noire ? Ou relancer les hypothèse sur sa distribution et sa nature ?

Voilà comment j’avais présenté la chose. Puis, deux jours après, j’ajoutais un complément à cette note, sur la base de discussions avec des astrophysiciens d’emblée très sceptiques sur les méthodes utilisées. Voici cet ajout:

Ajout le 26 avril: consultés par mes soins, certains spécialistes du sujet émettent les plus vives réserves sur cette étude. Michel Crezé – l’un des auteurs des articles cités en référence dans l’étude – est connu pour avoir montré avec les données du satellite d’astrométrie Hipparcos, de l’Agence spatiale européenne, que le centre de la Galaxie ne contenait pas autant de matière noire que ce que proposent les modèles standards cosmologiques fondés sur la matière noire. Il pourrait donc se trouver conforté par ce résultat. Or, il me confie par courriel: «Plusieurs effets concourent à faire que l’évaluation donnée par les auteurs de la précision de leur résultat est totalement irréaliste. La seule conclusion raisonnable à tirer de ce travail est qu’il conforte la conclusion de plusieurs de ses prédécesseurs : il n’y a pas de concentration de matière sombre dans le plan de notre galaxie mesurable avec les moyens actuels. Mais cela reste largement compatible avec la plupart des modèles cosmologiques incluant de la matière sombre. C’est évidemment moins enthousiasmant.

La raison pour laquelle nous pouvons être aussi affirmatifs est la suivante. Pour afficher les «barres d’erreurs» qu’ils annoncent, il faudrait que les auteurs aient identifié exhaustivement la petite colonie d’étoiles qui fait l’objet de leurs soins, et mesuré avec une précision extrême la répartition dans l’espace (donc les distances) et les trois composantes de la vitesse des membres de cette colonie. Ce programme qui donnerait (donnera) la réponse attendue sur la matière obscure locale à la précision qu’ils indiquent existe : c’est la mission GAÏA de l’agence spatiale Européenne.

Or il n’ont pas fait cela. D’une part leur échantillon comporte de nombreuses étoiles qui ne sont pas des membres de la colonie en question (ce n’est pas un jugement, eux-mêmes le disent) d’autre part ils ne mesurent pas les distances et pour les vitesses ils ne mesurent que la composante radiale. Tout le reste est tiré d’autres travaux et repose sur une grande part de modélisation dont il est extrêmement difficile d’évaluer l’impact.

Les auteurs se livrent bien à quelques analyses des effets possibles d’une défaillance de telle ou telle de leurs hypothèses, mais ils sont loin de faire le tour de toutes les causes d’erreur et de plus ils les examinent séparément.»

Cette critique assez vive aura t-elle une suite dans un commentaire envoyé à la revue scientifique où l’étude est parue ? Cela dépend de la manière avec laquelle les spécialistes vont débattre entre eux. Ils pourraient considérer qu’il vaut mieux attendre les observations plus précises de GAÏA.  Ce satellite de l’ESA doit en effet mesurer la position et les mouvements de plus d’un milliard d’étoiles dans notre Galaxie. Ce qui permettra de tester de façon beaucoup plus approfondie l’hypothèse de la matière noire, et si elle existe bien, de mesurer sa distribution spatiale.

Or, il semble que cette critique faite au pied levé soit confirmée par l’étude soumise par deux astrophysiciens, Jo Bovy et Scott Tremaine, du prestigieux Institute of Advanced Studies de Princeton, le havre pour happy few de la science où Einstein a fini sa carrière après avoir quitté l’Allemagne nazie. Bon, les deux auteurs ne sont pas Einstein. Jo Bovy est un jeune astrophysicien (thèse en mai 2011), mais qui a suffisamment impressionné pour se voir invité en tant que «Hubble fellow» à travailler à l’IAS après sa thèse. C’est plutôt Scott Tremaine le cador des deux, un astrophysicien expérimenté et couvert de médailles. En tous cas, ils ont passé à la moulinette les travaux de l’équipe de l’ESO et ont repris leurs calculs dont le traitement leur semble «incorrect». Eux, trouvent un résultat inverse : avec les mêmes données d’observation, ils estiment qu’il s’agit de «la mesure la plus robuste de la densité de matière noire locale à ce jour.»

Extrait de leur résumé : «Using the correct approximation that the circular velocity curve is flat in the mid-plane, we find that the data imply a local dark-matter density of 0.008 ± 0.002M⊙ pc−3 = 0.3 ± 0.1Gev cm−3, fully consistent with standard estimates of this quantity. This is the most robust direct measurement of the local dark-matter density to date.»

pour lire les commentaires des internautes

L’étoile la plus vieille connue dans l’Univers

Vu sur http://ciel.science-et-vie.com/

SDSS J102915+172927 du Lion, l’étoile la plus vieille connue dans l’Univers. Photo ESO.

C’est l’un des rêves des astronomes de ce début de troisième millénaire, et ce rêve pourrait bien se réaliser pour la génération de chercheurs actuelle, ou alors la prochaine, ou bien la suivante, qui scrutera le ciel reflèté par les miroirs géants des télescopes des décennies 2030-2050… La première étoile de l’Univers. Quand s’est-elle allumée, et comment ? La question se pose depuis près d’un siècle, depuis que, grâce aux travaux théoriques d’Einstein, de Lemaître et grâce aux observations de Hubble, on sait que l’Univers n’a pas toujours été tel qu’il est aujourd’hui, que le ciel actuel est le fruit d’une histoire, d’une évolution, débutée voici 13,7 milliards d’années et des poussières, au moment du big bang. A cette époque, qui marque l’origine de notre univers, si ce n’est l’origine de l’Univers en soi, le cosmos entier était un brouillard homogène et brûlant, constitué de près de 75 % d’hydrogène et de 25 % d’hélium, plus quelques traces de lithium : bref, l’Univers c’était du gaz chaud.

Très chaud (des milliards de milliards de milliards etc. de degrés) au moment même du big bang, si cette expression a un sens, moins chaud (trois mille degrés environ) 380 000 ans plus tard, pour cause d’expansion universelle – l’expansion de l’Univers est inscrite dans les gènes de l’Univers, d’après les cosmologistes – et franchement froid 100 millions d’années après le big bang. C’est à cette époque là que se cache, nimbée de voiles d’hydrogène, la toute première génération d’étoiles… La Nature a offert aux astronomes un outil puissant pour la trouver : la vitesse finie de la lumière, qui permet, à raison de 300 000 kilomètres toutes les secondes, de remonter toujours plus loin dans le temps lorsqu’on regarde plus loin dans l’espace. Mutine, elle a aussi fait en sorte que ce ne soit pas simple du tout, que d’aller contempler l’origine du monde : dans le cosmos relativiste qui est le nôtre, plus on s’approche du big bang, véritable horizon phénoménologique, plus son image nous fuit….

On ne connait pas encore la taille de ces premières structures cosmiques, on ne sait pas si l’Univers a commencé à se structurer en petits objets, des protos amas, ou en grands objets, des proto galaxies, ou même des proto amas de galaxies, voire tout en même temps, mais dans ces nuages de gaz, les premières étoiles ont émergé. Au sein des nuages, des noyaux plus denses et chauds se sont effondrés sur eux-mêmes jusqu’à ce que leur température centrale atteigne le point d’ignition thermonucléaire. Une étoile c’est çà : une sphère de gaz, chauffée par son noyau thermonucléaire.

Voilà pour les grandes lignes. L’ennui, c’est que cette belle fresque théorique souffre de nombreux angles morts. En particulier, les astronomes ont réalisé qu’il est très difficile, dans les conditions de l’Univers primordial, de fabriquer des étoiles ! On l’a vu plus haut, l’Univers, à l’époque, c’est 75 % d’hydrogène pour 25 % d’hélium. Or ce mélange n’est pas favorable à la formation d’étoiles…

De fait, il existe, pour les astronomes, deux axes de recherche possibles pour trouver les plus vieilles étoiles de l’Univers : d’abord, les chercher « sur place », à 13,5 milliards d’années-lumière de distance et les observer telles qu’elles étaient à l’époque. Ce sera peut-être bientôt envisageable : les étoiles primordiales, au moment de leur explosion, brillent entre un et dix milliards de fois plus que le Soleil : un télescope géant, tels le E-ELT ou le JWST, prévus pour la prochaine décennie, seront peut-être capables de les détecter. L’autre piste consiste à chercher ici et maintenant, dans la Voie lactée, de vieilles étoiles, nées il y a environ 13 milliards d’années, quelques dizaines ou centaines de millions d’années après la toute première génération stellaire…

C’est ce qu’a entrepris l’équipe de recherche européenne de Elisabetta Caffau, et c’est le résultat de cette recherche qu’elle a publié dans la revue scientifique Nature, ce 1 septembre 2011. Elisabetta Caffau, Piercarlo Bonifacio, Patrick François, Luca Sbordone, Lorenzo Monaco, Monique Spite, François Spite, Hans Ludwig, Roger Cayrel, Simone Zaggia, François Hammer, Sofia Randich, Paolo Molaro et Vanessa Hill, ont observé avec le Very Large Telescope de l’ESO l’étoile SDSS J102915+172927. Cette très discrète étoile, un peu moins massive que le Soleil, se trouve à 4000 années-lumière d’ici, dans la constellation du Lion. Cet astre appartient à une liste de près de trois mille étoiles que l’équipe de Elisabetta Caffau soupçonne d’être très anciennes. C’est un spectre, obtenu avec le VLT, qui a permis de confirmer l’âge extraordinaire de SDSS J102915+172927 : environ 13 milliards d’années. Mais une surprise de taille attendait l’équipe européenne : d’après les données du VLT, cette petite étoile est composée à 99,999 % d’hydrogène et d’hélium, plus 0,00007 % d’atomes lourds ! En clair, la composition de l’Univers primordial… Or, d’un point de vue théorique, c’est en principe impossible, puisque seules des étoiles supergéantes – plusieurs centaines de fois plus massives que SDSS J102915+172927 ! – peuvent se former dans le gaz primordial. Ainsi, l’équipe de Elisabetta Caffau a mis la main sur une pépite : SDSS J102915+172927 est probablement l’une des plus vieilles étoiles de notre galaxie, la Voie lactée. Cet astre, extraordinairement vieux, aux caractéristiques inattendues, va obliger les théoriciens à revoir… leurs théories sur la genèse des premières étoiles. Si peu de chercheurs considèrent que SDSS J102915+172927 va bouleverser les scénarios cosmologiques actuels, il est néanmoins certain que la vénérable étoile – née plus de huit milliards d’années avant notre système solaire… – va être l’objet, dès que la constellation du Lion réapparaîtra dans le ciel, à la fin de l’hiver 2012, de toute l’attention des astronomes.

Serge Brunier