Au nom de l’arbre – Sylvain Tesson

Le Figaro Culture – 9 juin 2023 – Sylvain Tesson

 

Quelques extraits de l’article

Demain, dans dix ans, dans cent ans, si des historiens trouvent encore quelque intérêt à notre époque, ils pourront se souvenir qu’au début du XXIe siècle, alors que des laborantins frénétiques appelaient à l’avènement de l’homme augmenté, que les flèches des cathédrales flambaient dans le grand méchoui de la fiesta postmoderne et que les kangourous prenaient feu en plein bush, un livre connut une belle faveur dans les librairies du monde occidental: il s’intitulait La Vie secrète des arbres . Plus qu’un succès, ce fut un phénomène. L’Allemagne nous avait habitués aux philosophes du fond des forêts. L’un d’eux, il y a plus d’un demi-siècle, avait composé dans une clairière de la Forêt-Noire la plus féroce critique contre l’arraisonnement du monde par la technique.

Cette fois l’auteur ne s’appelait pas Martin Heidegger, c’était un forestier du massif de l’Eifel, du nom de Peter Wohlleben. Il révélait dans son ouvrage, en les ordonnant très pédagogiquement, des choses douces à entendre.

Ces secrets là, les forestiers ne les ignoraient pas, ni les amoureux des arbres. Les poètes les savaient depuis Virgile. L’artiste est toujours en avance sur les scientifiques, la sensibilité étant un outil plus performant que la raison. Victor Hugo avait fait de la puissance magique de la forêt l’un des thèmes obsessionnels des Contemplations. Nul arbre n’indifférait le poète en exil et il percevait en entrant dans un bois le murmure des arbres à son approche : «C’est lui, c’est le rêveur.» Tous les hommes des campagnes de l’avant-guerre nourrissaient ces antiques intuitions.

Hypertrophie, accélération, indifférenciation: cette nouvelle organisation des sociétés humaines propose l’exact contraire de l’enseignement des arbres. Car enfin, qu’est-ce que l’arbre? Une force lente, immobile, sûre d’elle, dont le projet est contenu en puissance dans son propre commencement. En d’autres termes, le chêne est dans le gland. Rien ne fera dévier le grain de son désir de devenir un fruit. L’arbre croît lentement, s’étire vers le soleil, caresse le vent, boit la lumière puis meurt sur lui-même, se brise ou se couche en levant son chablis, se met à pourrir, se recycle. Et la forêt alors se pousse à nouveau dessus. Les arbres se côtoient sans jamais se toucher.

En ces temps de désordre, notre besoin de stabilité est impossible à rassasier. Dans le déséquilibre général subsistent des arbres. Dieux! qu’ils sont beaux. On dirait qu’ils nous signalent nos erreurs. Le vent les agite, ils semblent murmurer des choses. Le feuillage dans le vent est l’inquiétude de l’arbre. Que murmurent-ils? «Nous sommes puissants, nous sommes immobiles, nous triomphons dans la lumière, nous sommes enracinés et pourtant nous ouvrons nos bras dans le ciel. Nous sommes de la Terre et du ciel, de l’ombre et du vent, de la racine et de la lumière. Notre écorce est la chair du temps qui passe. Vous, les hommes, vous vous agitez à la surface. Vous devriez parfois nous regarder mieux et vous inspirer de notre présence.»

Depuis la première révolution industrielle, l’homme gagne comme une ombre à la surface de son petit globe. Deux peuples se font face. Les hommes et les arbres. La ligne de front s’appelle l’orée. Le combat est asymétrique. Les premiers se déplacent, les seconds tiennent position. Les premiers ont une hache, les autres sont nus. Les premiers sont passés de 1,5 milliard en 1900 à près de 8 milliards aujourd’hui. Les seconds reculent.

Le retour de la forêt entraîne une vertu ultime. Elle est suprême. La grande respiration des arbres exhale une couche d’humidité au-dessus des houppiers. Alors, la pluie revient. Ce phénomène très connu des savants nous paraît magique parce que c’est un mécanisme invisible. Seuls les peintres savent le figurer comme Corot qui peignit l’haleine des frondaisons dans son merveilleux Souvenir de Mortefontaine.

La forêt est un monde, un univers en soi. En terme biologique, c’est une matrice. En terme mythologique, une déesse de la fécondité. En terme naturaliste, un écosystème. Les antiques croyances le formulaient autrement. Les prophètes, «au pied du sycomore, ou sous les lauriers blancs / Sous l’olivier, le myrte ou les saules tremblants» (Nerval au début de Delfica), avaient fait de l’arbre le siège de la vie, le sceptre de la connaissance, le symbole de la fertilité.

 

 

 

 

« Phénomènes – Et si notre réalité était un rêve ? »…un essai collectif pour un regard d’ensemble sur OVNI, poltergeists et autres phénomènes paranormaux

25 août 2022-Romuald Leterrier- Laurent Kasprowicz-

 

 

 

La présentation de la quatrième de couverture :

POLTERGEIST, EMI, OVNIS, CONTACTS AVEC LES DÉFUNTS OU RENCONTRES DU TROISIÈME TYPE, LES PHÉNOMÈNES SPONTANÉS ONT TOUS DES CARACTÉRISTIQUES SEMBLABLES.

Ils défient les lois de la nature et se jouent des témoins et des chercheurs. Mais d’où proviennent ces manifestations ? Auraient-elles, comme le proposent les auteurs de ce livre, une source commune ?

Issu des réflexions d’un collectif de chercheurs pluridisciplinaire international (ufologues, ethnologues, sociologues, psychologues, philosophes), cet ouvrage dresse le constat suivant : derrière la matérialité des phénomènes paranormaux et ovnis, il existe également une dimension archétypale et symbolique.

Un point de vue qui permet d’envisager la réalité de ce que les anciens nommaient  » monde invisible  » ou  » âme du monde  » qui interagit avec nous. Un nouveau paradigme pour appréhender notre rapport au réel et à l’univers.

Voici la présentation d’un livre qui s’ouvre sur deux avis de lecteurs.

Le premier, très favorable, présente bien la dimension de cet ouvrage collectif.(Cf analyse ci-dessous)

Le second, après avoir souligné sa vision d’un monde partagé entre le monde matériel, le monde intermédiaire, objet du livre, et le monde primordial, regrette que cet ouvrage n’évoque que les liens entre les deux premiers mondes et qu’il souffre, de ce fait, d’une vision parcellaire, point de vue que je partage. Ceci n’empêche pas de souligner la qualité des théories explicatives du fonctionnement des deux premiers mondes à travers l’examen des anomalies qu’ils génèrent dans leur rencontre.

L’article se poursuit par une analyse de la préface de Bertrand Méheust qui détermine les grands traits de l’approche des différents auteurs en soulignant à la fois l’intérêt pour le caractère novateur de celle-ci tout en précisant que celui-ci ne signifie pas nécessairement une adhésion à cette vision.

L’article aborde ensuite les contributions des différents auteurs enrichies par des interviews vidéos de certains de ceux-ci.

Il se prolonge enfin par la présentation plus succincte des livres « OVNI et conscience » par Fabrice Bonvin  (2021) et « Apparitions mondiales d’humanoïdes » par Eric Zürcher (septembre 2018)

 »Phénomènes » : livre fascinant et annonciateur de la prochaine révolution paradigmatique  ( commentaire du 11 septembre 2022 sur Amazon)

Un premier avis très positif :

La lecture de ‘’Phénomènes’’ est aujourd’hui absolument nécessaire si on veut espérer être en mesure d’entrevoir un jour la profonde et véritable nature de notre réalité. Les différentes contributions sont toutes de très haute facture. N’utilisant pas le jargon habituel et obscure des spécialistes, elles permettent à toutes et à tous de pouvoir cerner méthodiquement et très clairement les éléments les plus critiques de ce débat passionnant.

Au tout début du XXème siècle, le grand physicien William Thomson s’était senti en mesure d’annoncer que définitivement, il n’y avait plus rien à découvrir en physique et que tout ce qui restait à faire consisterait à augmenter la précision des mesures. En effet, quand Thomson fit ce constat, il ne restait en physique pratiquement qu’une ou deux « petites » anomalies (dont celle du rayonnement du corps noir). On sait ce qui s’est passé par la suite avec l’avènement de la relativité et de la physique quantique (ironiquement la même année que la déclaration de Thomson) qui ont tout remis en question.

La leçon qu’il faut retenir ici (et que les auteurs exploitent à merveille dans leur argumentation) est qu’Il ne faut jamais sous-estimer la puissance épistémologique et le pouvoir extraordinaire que mêmes les plus petites anomalies ont de pouvoir remettre en question les paradigmes dominants les mieux ancrés et que certains pensent être définitivement établis.

Les phénomènes dits paranormaux sont bien des anomalies ontologiques qui nous rappellent en permanence que notre perception de la réalité est parcellaire et très incomplète. Même s’il existe des milliers de cas de témoins directs et crédibles (voir les très nombreux rapports de police dans le domaine des poltergeists ou les très nombreuses observations d’ovnis par les militaires ou les pilotes), ces phénomènes continuent à être ignorés voire ridiculisés. Pourtant et depuis plus d’un siècle, de très nombreuses sommités intellectuelles et scientifiques se sont intéressées à ces aspects fascinants de notre réalité. On peut citer des Nobel comme Flammarion, Bergson, Carrel, Richet, Pauli, les Curie, Wigner, Josephson ou Kary Mullis. Qui se rappelle aujourd’hui qu’Einstein a écrit la préface du livre ‘’Mental Radio’’ sur la télépathie d’Upton Sinclair ?

Le paranormal n’a donc absolument rien de ridicule, Bien au contraire. On commence d’ailleurs à observer une véritable ouverture en ufologie notamment aux USA avec la reconnaissance par le Pentagone et le Congrès américain de la réalité physique des ovnis d’origine non humaine.

Ce livre passionnant met l’accent sur la signification de ces anomalies et va encore plus loin en analysant la signification profonde de ce que les auteurs considèrent comme étant ‘’des anomalies dans les anomalies’’. J’ai trouvé cet aspect des plus fascinants.

Ce qui est aussi fascinant c’est de pouvoir constater que les éléments débattus et la thèse défendue dans ce livre (l’existence d’anomalies, leur importance, la nature onirique de notre réalité, l’existence d’un aspect central et fondamental qui échapperait à l’espace et au temps…) ont chacun leur pendant en physique quantique. On constate d’ailleurs aussi la même attitude de la part de la quasi-totalité des physiciens. Les anomalies de la physique quantique sont aussi totalement ignorées. J’ai d’ailleurs été frappé par l’attitude irritée de Leonard Susskind (que je respecte au plus haut point) en ce qui concerne les impacts ontologiques de ces anomalies (la non-localité par exemple). Bref, l’essentiel pour ces derniers est que la physique quantique permet de produire ! La compréhension des impacts ontologiques de ces anomalies pourra attendre.

Frederic F.W. Myers et Williams James ainsi que leurs pairs de la SPR et de la ASPR étaient arrivés durant la seconde moitié du XIXème siècle à la même conclusion : Derrière les phénomènes dits paranormaux se cachent une même source et une même réalité. Ils avaient aussi réussi à identifier le rôle central et actif de l’inconscient. Aujourd’hui, ce livre aborde les mêmes thèses mais va beaucoup plus loin en intégrant le sujet des ovnis dans le carré de sable des phénomènes anomalistiques étudiés et en ouvrant de nouvelles perspectives très prometteuses.

Un second avis négatif

Une critique par Peter El Baze, médecin, informaticien, ufologue et qui se déclare passionné, entre autres, de physique théorique, d’astronomie (cosmologie), de math et d’épistémologie sur forum ovni. ou sur info C.R.U.N

 » Je suis déçu par ce livre. En effet ce livre prétend parler des réalités.
Selon moi il y a 3 réalités :

la réalité primordiale
C’est la plus importante, ne comporte pas de matière, aucune loi de la physique mais uniquement des âmes en dehors de notre espace-temps. C’est elle qui a créé.

la réalité physique
C’est notre réalité de matière avec ses terribles contrainte des lois de la physique, c’est une école qui permet à notre âme d’évoluer spirituellement.

– entre les 2 il y a la réalité intermédiaire
Celle des âmes malades qui ont refusé à leur mort de retourner à la maison dans la réalité primordiale celle explorée par certaines personnes de notre réalité physique capables de s’y rendre momentanément.

Or ce livre ne parle pratiquement que de cette réalité intermédiaire et pratiquement pas de la réalité primordiale.
Pratiquement rien sur les NDE.
Dommage, car il y a beaucoup d’informations intéressantes dans ce livre bien écrit qui démontre encore une fois ce que l’on sait depuis le début des années 1970 : pas besoin de petit hommes verts dans leurs vaisseaux en tôle pour expliquer le phénomène OVNI.
Ce sont de « extra-terrestres » physiques qui font des voyages astraux chez nous depuis tout l’univers et qui sont capables un cours moment de se matérialiser sur terre pour nous envoyer des messages.
De même, certaines âmes malades de cette réalité intermédiaire sont capables d’avoir une action physique transitoire dans notre réalité physique, donc il ne faut pas prendre en compte leurs « messages » qui, la plupart du temps, n’ont aucun sens. »

La présentation par auteurs (dans l’ordre d’apparition dans le livre)

Bertrand Méheust : préface – ( p 11 à34)

Un résumé de la préface du livre par Bertrand Méheust

Dans sa préface Bertrand Méheust, ancien professeur de philosophie, docteur en sociologie et spécialiste en histoire de la parapsychologie écrit que ce livre collectif constitue une première tentative méthodique pour établir un pont sur les phénomènes paranormaux et la question des ovnis.

Le fil conducteur du livre est le concept de trickster– fripon, farceur- tiré de la psychologie jungienne qui est à la fois bon et mauvais et médiateur entre le divin et l’homme.

Cette approche a conduit peu à peu une partie de la réflexion ufologique à s’éloigner de l’hypothèse extraterrestre au premier degré et s’ouvrir à des hypothèses nouvelles sur la nature des phénomènes ovni et par ricochet sur la nature de la Réalité des phénomènes qui nous englobent.

Les ovnis – rebaptisés PAN (phénomène aérospatial non identifié)- sont appréhendés sur le modèle d’objets matériels traçant des trajectoires dans l’espace. Les récentes révélations américaines de films de chasseurs de l’US Navy montrent que l’hypothèse d’objets physiques n’est plus totalement exclue en haut lieu. cf là 3 vidéos ovni de pilotes de l’US Navy

Ici, dans ce livre, c’est la figure du trickster, le brouilleur de limites, le magicien, le perturbateur, qui est le fil conducteur. Chez les Grecs c’était le daïmôn qui était une représentation du divin.

Bertrand Méheust regroupe certains thèmes abordés autour de plusieurs idées centrales :

  1. L’idée d’une source commune et cachée, d’où procéderaient des phénomènes à première vue différents, traverse d’abord leurs propos. Il souligne qu’ils attachent une grande importance aux manifestations qui brouillent les repères.
  2. Dans une culture qui nie les phénomènes surnaturels et s’attache à la vie matérielle, il est important de mettre l’accent sur les intrusions du mythe dans la Réalité. Romuald Leterrier fait ainsi une description inédite de la Sachamama.
  3. Le livre entreprend d’explorer le rôle du trickster à la fois perturbateur et gardien de nos limites. L’écrivaine franco-américaine Sharon Hewitt Rawlette, le décrit comme le Gardien du Seuil. Le trait du trickster qui commande tous les autres c’est son comportement à la fois ostentatoire et élusif comme le sont les ovnis et les phénomènes psi.

La portée de l’élusivité est virtuellement immense car au départ dans la pensée moderne de Descartes il y a la confrontation héroïque avec le malin génie qui pour lui est resté une fiction heuristique.

5. Un autre trait constant des manifestations du trickster, ce sont les phénomènes de résonance quand elles interagissent avec la culture vivante et les personnes impliquées. Cela débouche sur les phénomènes de mimétisme et de la mise en scène analysés par les ufologues québécois Marc Leduc et Yann Vadnais et par le philosophe français Jean-Jacques Jaillat.

6. Pour terminer, il faut jeter un coup d’œil sur les courants culturels auxquels on peut rattacher cette exploration du thème du trickster.  Il remonte à la théosophie de Jakob Böhme (XVIIe), à Paraclese ( XVIe) et sa théorie de l’imagination créatrice et resurgit dans l’œuvre immense de Jung (XXe). Il réapparaît dans la nouvelle image du monde qu’appelle la révolution écologique. L’imagination créatrice est un des grands thèmes de la pensée occidentale. Il nous renvoie à l’imaginal – dimension intermédiaire de la Réalité, du philosophe Henry Corbin.

Romuald  Leterrier montre que cette dimension intermédiaire est connue des cultures amazoniennes où, par exemple la Sachamama,  est l’émergence du mythe dans le réel.

Le trickster n’est pas seulement un être mythologique car il possède aussi avec les poltergeists une dimension physique, incarnée. Le physicien allemand Walter von Lucadou dans un texte de 1997 postule une propriété immanente du psychisme humain qui permet de faire glisser de la transcendance vers l’immanence. (cf là une présentation sur croyance et incroyance dans la recherche sur la psychokinèse )  ( cf là, le site de Walter von Lucadou)

Bertrand Méheust établit un parallèle entre poltergeists et ovnis sans assimiler les premiers aux seconds. Il note toutefois que les témoignages des premiers sont plus anciens et remontent même à l’Antiquité. Ils font l’objet de plus d’un siècle et demi d’enquêtes minutieuses.

Laurent Kasprowicz Il a publié en autoédition Des coups de fil de l’au-delà ? cf là en 2018 et présentait un cadre explicatif en lien avec l’archétype du trickster.

 Son introduction ( p 35 à 43)

Dans son introduction au livre « Phénomènes  » Laurent Kasprowicz note que le phénomène OVNI est enfin pris au sérieux avec la diffusion d’archives de vidéos par la NAVY en 2021. Il souligne aussi que les phénomènes OVNI et paranormaux étaient jusqu’ici étudiés séparément et qu’ils étaient même largement tabous l’un pour l’autre. Avec Romuald Leterrier, il s’inscrit dans une démarche globalisante de leur étude.

Pour ce faire, il pose comme première approche de ne pas séparer les phénomènes des témoins du contexte dans lequel ils se produisent.

Il note ensuite, en s’appuyant sur sa propre expérience, « d’appels téléphoniques des morts  » et qu’il a pu enregistrer, que ce phénomène prouve qu’il y a « des anomalies dans l’anomalie » et que celui-ci était un cas absurde mais réel et objectif.

Ces phénomènes réinjectent de l’incertitude en gênant le paradigme matérialiste et le rationalisme.

Y aurait-il une source commune, une logique sous-jacente à tous ces phénomènes ?

Il souligne que ce rapprochement entre phénomène OVNI et paranormal a déjà été proposé par d’autres auteurs évoqués dans le livre et il cite Jacques Vallée, John Keel, Patrick Harpur, Kenneth Ring, George Hansen, Bertrand Méheust.

Il note que ces phénomènes ont des dimensions symboliques, archétypales ou mythologiques qui entraînent à chercher leur origine dans « les profondeurs de l’âme humaine et dans notre Réalité. »

Le livre est en deux parties. Dans la première, sont rassemblés les constats de la dimension symbolique, archétypale et mythologique de nombre de ces phénomènes.

Dans la seconde, divers auteurs commencent à tirer des conclusions sur la nature de notre Réalité : Patrick Harpur présentera sa vision d’une « Réalité daïmonique  » et Yann Vadnais reviendra sur ce terme. Jean-Jaques Jaillat fera un détour par le folklore, les mythes anciens pour aboutir aux phénomènes actuels. Romuald Leterrier posera une hypothèse quant à la nature de notre Réalité et Charles Imbert explorera quelques « lois du monde invisible ».

Hermès et le paranormal – ( p 47 à 72)

Le trickster – le fripon– est un archétype (modèle supérieur et transcendant) mais possiblement une ou des entités autonomes farceuses qui communiquent avec nous d’une certaine manière. Avec Patrick Harpur et Yann Vadnais les anciens philosophes avaient probablement donné à l’entité « trickster » le nom de « daîmôn« . cf le mythe du trickster par Laura makarius.

Les incroyables coups de fil de l’au-delà (p 73 à 102)

Tout se passe comme si des entités « trickster », nous connaissant intimement, étaient impliquées. Ce sont des êtres que Camille Flamarion dès 1907, avait brillamment caractérisés. Si les archétypes sont bien les constituants de l’arrière-monde, alors ce que j’ai vécu pourrait en être la manifestation écrit Laurent Kasprowicz. Ces phénomènes sont-ils des projections de notre inconscient ou viennent-ils d’ailleurs ? Ces caractéristiques communes au paranormal et à l’ufologie sont si gênantes que certains fuient ces questions. Il rejoint Philippe Solal qui en postface de son précédent livre soulignait la dimension symbolique du téléphone dans cette affaire.

Pour être le plus exhaustif possible, Laurent Kasprowicz se base sur les enquêtes et recherches de Scott Rogo et Raymond Bayless (cinquante cas principalement américains)-leur livre : Phone Calls from  the Dead paru en 1979- et de Callum Cooper  (cinquante cas anglais et américains)-Telephone Calls from the Dead, paru en2012- et son propre travail (trente cas principalement français recueillis à ce jour) – cf  là des coups de fil de l’au-delà paru en 2018-. Le phénomène se présente   principalement comme suit : des morts semblent appeler des vivants via les téléphones, les répondeurs, les textos, mails, appli Messenger ou Whats App. cf là : phénomène de voix électroniques

Demain ne meurt jamais ? (p 259 à 270)

(Souvenirs d’entre-deux vies et âme du monde) 

L’âme, nous disent Carl Jung, Patrick Harpur et d’autres chercheurs ou sages est partout immanente, en dehors du temps et elle est aussi collective. Ces histoires de retour parmi les vivants pourraient n’être que la traduction, un peu trop littérale, de l’éternité de l’âme qui anime ce monde et chacun de nous.

Se nourrir dans ou de l’autre monde (écrit avec Jacques Jaillat)

(p 271 à 288)

Ces histoires, ces mythes, ces phénomènes modernes ont probablement une source commune. Et cette source est, de toute évidence, toujours vivante. Que nous l’appelions l’âme du monde, l’inconscient collectif ou le monde imaginal ( Henri Corbin)

 

Brent Raynes : ufologue américain spécialiste d’un autre chercheur célèbre dans le milieu : John Keel (1930-2009)

John Keel ou la convergence du paranormal et de l’ufologie (p 103 à 117)

John Keel est surtout connu pour son livre The Mothman Prophetics paru en 1975 (en français : la prophétie des ombres, traduit par Benjamin Legrand -17/04/2002 et dont voici la quatrième de couverture :

De novembre 1966 à décembre 1967, les habitants de Point Pleasant, furent les témoins de phénomènes étranges : lumières dans le ciel, animaux de ferme abattus dans les champs Par dizaines, des citadins affirmèrent avoir vu un humanoïde volant aux yeux rouges, un homme-mite  » qui semblait avoir élu domicile dans une usine désaffectée Certains affirmèrent avoir eu des contacts avec lui. Dépêché sur place, John Keel fut impressionné par ces témoignages et vécut durant son enquête des phénomènes de synchronicité curieux : sa ligne téléphonique fut mise hors d’usage par des interférences, des témoins semble au courant de son intention de les appeler avant qu’il ait lui-même décidé de le faire. En outre, il eut à subir d’étranges canulars téléphoniques ; des photographes vêtus de noir le harcelèrent même après son retour à New York. Keel se mit bientôt à avoir des prémonitions sur des catastrophes sur le point de se produire. Le 5 décembre 1967, il prévint les autorités d’une catastrophe imminente allait survenir. Ce jour-là, à l’heure de pointe, le pont de fer enjambant la rivière Ohio s’effondra, précipitant 31 véhicules et 67 personnes dans le vide. Il y eut 46 victimes. »

Keel soutient qu’il existe une relation directe entre le monde ufologique et les phénomènes humains psychiques (dans le cadre de ce qu’il nomme : une hypothèse « ultraterrestre »). Ne se décrivant pas comme un ufologue, il préfère se présenter comme un chercheur s’intéressant aux sujets dits paranormaux

De nombreux auteurs illustres et recommandables ont fait le lien entre paranormal et ovni. Citons Scott Rogo, Jacques Vallée, John Keel ou plus récemment Michael Grosso qui fait ce constat : «  Les ovnis et leurs occupants se comportent comme des hybrides et restent incroyablement insaisissables et surréalistes. »

John Keel conclut que le surnaturel est irrationnel mais il est aussi réel. Il détient un pouvoir énorme. Nous l’ignorons à nos risques et périls. Il opère non seulement sur la psyché individuelle mais à un niveau collectif, influençant des cultures entières… nos pensées y compris nos pensées inconscientes, ne se limitent pas à notre cerveau. Elles bougent d’elles-mêmes et influencent le monde physique. »

Marc Leduc : ufologue québécois diplômé en science de l’éducation, membre fondateur de UFO-Québec

Parmi les nombreux auteurs de référence qu’il cite, Marc Leduc met au-dessus de tous Jacques Vallée.  (maîtrise en astrophysique, docteur en informatique. Il s’est installé aux Etats-Unis où il fonda avec l’astronome américain J. Allen Hynek, le Collège invisible).   Il est l’auteur de très nombreux livres d’ufologie.

Mimétismes et mises en scènes facétieuses du phénomène OVNI

p 119 à 144)

La démarche est avant tout exploratoire et celle du mimétisme comporte des risques qui peuvent générer des objections dont certaines reposent sur un simple scepticisme parfois des vérifications poussées et pertinentes. Ce sont alors des anomalies parmi les anomalies. Dans notre domaine, un paradigme dit post-matérialiste, semble mieux convenir mais il reste à l’établir – cf « manifeste pour une science post-matérialiste » Inexploré,Actualités, INREES 2015-. Nous recueillons ces données sous la pression de plusieurs hypothèses. La plus populaire veut que le phénomène soit extraterrestre. Pourtant, nous écartons cette hypothèse et tendons plus vers une explication archétypale ou celle d’une intelligence exogène mais pas nécessairement extraterrestre. Nous nous rapprochons d’autres auteurs dont l’exemplaire enquête du Dr Harley Rutledge  ( très grand chercheur, docteur en physique des solides en 1966 puis président du departement  de physique d’une université du Missouri. Il a mené avec ses étudiants des observations instrumentées qui les ont conduits à interagir avec le phénomène étudié. Le phénomène démontrerait une sorte d’omniscience et maitriserait totalement les aboutissants de ces manifestations. Ce serait une communication à sens unique exploitant l’inconsient  d’un individu et l’inconscient collectif. La personnalisation et le sur-mesure des manifestations laissent supposer une intrication psychique du phénomène avec les témoins. Le chercheur Gregory Little déclarait en 1984 dans son livre The Archetype Experience: « Les OVNIS sont des reflets de notre monde inconscient intérieur d’archétypes qui s’expriment et dont on fait l’expérience mais qu’on ne comprend pas « 

Jean-Jacques Jaillat : philosophe et ufologue, il écrit pour des revues spécialisées et a participé au livre Ovnis et conscience en 2015 ( cf ci-dessous (A1)) et sur Cero-France.com

Cette idée du « mimétisme ovni  » généralisé sous-entend une perception du phénomène comme étant, à un certain degré une tromperie. Le phénomène, comme nous l’avons vu, semble se déployer en miroir de notre propre psyché.

Les étranges messages et prédictions des visiteurs de l’autre monde (p 173 à 185)

Il nous faut opérer avec nos concepts ce que la peinture moderne a su opérer avec notre regard. Car c’est une remise en cause totale de la connaissance de notre Réalité qui se tient en germe dans une juste appréciation de ce qu’implique la nature du phénomène ovni et, au-delà de celui-ci, de ce que celui-ci révèle tout en le dissimulant.

En conclusion le phénomène semble d’ailleurs, comme nous l’avons vu, se déployer en miroir de notre propre psyché. Un fait qui semble se retrouver dans le domaine du paranormal comme va le montrer dans le prochain texte la chercheuse Sharon Hewitt Rawlette.

Sharon Hewitt Rawlette (cf là): philosophe de formation et chercheuse franco-américaine, elle s’intéresse aux questions de synchronicité et de parapsychologie. Son livre The Source and Significance of Coincidences est paru en 2019.

L’archétype du trickster comme gardien des frontières de notre réalité ( p 155 à 172)

Les expériences de mort imminente et autres expériences exceptionnelles évoquées montrent que le trickster est un paradigme fructueux pour caractériser ce qui survient dans ces moments. Plus on s’approche des frontières – entre la vie et la mort, entre le physique et le mental, entre l’objectif et le subjectif, entre le moi et l’autre-plus on est susceptible de rencontrer cet archétype. Ce dernier se pose alors en gardien et semble nous tendre un miroir.

Romuald Leterrier ( cf là) : chercheur en ethnobotanique, spécialiste du chamanisme amazonien. Auteur de plusieurs ouvrages dont : se souvenir du futur. Son approche pluridisciplinaire propose des pistes nouvelles d’investigation et d’expérimentation sur le lien entre conscience et la Réalité.

De l’émergence des mythes dans le réel 

Et si la réalité était un rêve ? (p186 à 203)

Pour l’heure, nos théories et modèles scientifiques semblent se substituer au réel en masquant celui-ci. Nos fictions semblent également habiller les phénomènes mythico-réels comme les ovnis, ou la Sachamama.

Pour pouvoir entrer en relation avec le réel, la science occidentale devrait peut-être faire preuve d’imagination en dotant la Réalité de moyens d’expression auxquels elle devrait être attentive.

vidéo de présentation du livre Univers-esprit, tout est relié publié le  9 février 2023

Ces messages, en y regardant bien, sont imprégnés de notre substance humaine, de nos structures langagières, de notre logique, de nos affects…Mais nous savons aussi que le phénomène n’est pas une projection mentale à laquelle il se réduirait.

 » Autre chose » règle ses formes et ses manifestations sur nos affects et nos représentations, conscientes et inconscientes. « Autre chose » vit avec nous depuis toujours. Nous avons affaire à une réalité à la fois exo- et endogène. Que penser de la figure du trickster? Ne faut-il pas penser les archétypes au-delà de la seule vision jungienne ?

…Pour l’heure, nos théories et modèles scientifiques semblent se substituer au réel en masquant celui-ci… L’heure de tomber les masques est peut-être arrivée. Le mot est dit ! L’avenir de la science est de transformer son approche et ainsi de devenir une véritable science de l’attention.

Patrick Harpur ( cf là) écrivain anglais, auteur de plusieurs livres à succès. Dans son livre « Daimonic Reality, A Field Guide to the Otherworld », paru en 2003, il propose une vision originale du monde qui intègre les phénomènes ufologiques ou paranormaux. Patrick Harpur apporte une contribution primordiale dans ce livre.

Une réalité daïmonique (p 213 à 235)

Nous devons essayer de restaurer l’âme du monde…Pour cela nous devons adopter une vision métaphorique de celui-ci…nous devons faire plus qu’introduire des remèdes environnementaux…nous devons cultiver une nouvelle perspective et ajouter à notre vision habituelle un sens de la métaphore, une double vision.

Nous pourrions commencer par développer un meilleur sens de l’esthétique et une appréciation de la beauté qui est le premier attribut de l’âme.

Yann Vadnais (Garpan) (cf là) : ufologue, chercheur et conférencier en histoire, directeur du GARPAN depuis 2012 au Canada

Daïmôns et ovnis entre témoignages et recherche de sens 

(p 237 à 257)

Du point de vue de l’histoire des idées, le terme de daïmôn a connu un sort hors du commun. Ce fut d’abord une notion religieuse au fondement de la sensibilité grecque puis elle s’est graduellement sublimée en un concept philosophique permettant de définir des communications intérieures, puis des rencontres avec les divinités. Elle a cependant permis de spéculer sur la hiérarchie d’intelligences certes supérieures mais aussi proches des humains. Enfin, il faut constater que le christianisme triomphant a réduit les daïmons en démons infernaux (en opposition aux anges célestes)

Charles Imbert (cf là) mène des recherches sur les questions de mythologie, d’ésotérisme, d’éveil et de psychisme transpersonnel. Rédacteur en chef de la revue d’études spirituelles Un Temps.

A propos des lois du monde invisible (p303 à 321)

Charles Imbert suggère plusieurs niveaux :

  1. La spontanéité : on ne peut forcer ces phénomènes à se manifester.
  2. La reproductibilité et la semi-reproductibilité : on ne peut les reproduire de manière expérimentale. Mais de grands médiums à effets physiques comme Franeck Kluski, Eusapia Palladino, Uri Geller, Dunglas Home, etc …ont montré qu’ils pouvaient produire des phénomènes télékinétiques –cf là télékniésie mais leur pouvoir ne fonctionne pas toujours. Il subsiste quelque chose d’erratique, d’incontrôlable.

Par contre, les manifestations du psi intellectuel, télépathie, précognition et clairvoyance, si elles restent aussi capricieuses, peuvent être reproduites à la demande plus régulièrement. Avec un Ossowiecki ou un Alexis Didier on avait toutes les chances de voir se produire quelque chose d’intéressant.

3. L’implication de la personne : dans les poltergeists, les phénomènes sont liés à la présence d’une personne qui ignore en général en être la source. Pour les médiums, ceux-ci désirent intensément produire les événements.

4. L’élusivité : Celle des ovnis est absolue alors que celle des phénomènes psi est relative.

5. Les lieux de manifestation : les ovnis sont à l’extérieur et les phénomènes psi à l’intérieur. Ainsi, Claude Lecouteux, le meilleur spécialiste français de ces questions, montre que les anciens revenants scandinaves avaient une dimension concrète, matérielle, absolument terrifiante, ils pouvaient par exemple, mettre le bétail en pièce. (cf là : compte-rendu sur « démons et génies du Moyen-Âge », ou encore là :  compte-rendu sur « Au-delà du merveilleux – des croyances du Moyen-Âge »)

6. « Psi sauvage » et « psi apprivoisé«  :  le premier correspondrait aux ovnis et le second aux poltergeists.

En conclusion, en faisant fusionner des événements physiques et mentaux le phénomène des poltergeists incite l’ufologie à se détacher du paradigme spatial pour se rapprocher des sciences psychiques.

A propos des lois du monde invisible

L’étude des lois du monde invisible et du paranormal (Dieu est aujourd’hui relégué dans le paranormal) est un champ d’investigation passionnant. Tout ce que nous pouvons faire en la matière c’est ouvrir des pistes. Il nous appartient de réinventer complètement ce que l’on peut appeler « métaphysique » … Le défi est d’envergure. Mais parler pour l’inconscient collectif et l’exprimer est notre destinée. Comme le rappelait Teilhard de Chardin en citant Paul : « Dieu a fait l’homme pour que celui-ci le trouve. » (cf là, Le milieu divin de P. de Chardin 1957) dont je reproduis la quatrième couverture :

Ce petit livre expose la grande intuition mystique du père Teilhard ; il témoigne de sa force visionnaire et de la puissance de son espérance.

« Le progrès de l’Univers, et spécialement de l’Univers humain, n’est pas une concurrence faite à Dieu, ni une déperdition vaine des énergies que nous lui devons. Plus l’Homme sera grand, plus l’Humanité sera unie, consciente et maîtresse de sa force […]. Il ne saurait pas plus y avoir deux sommets au Monde que deux centres à une circonférence. […]

La Terre peut bien, cette fois, me saisir de ses bras géants. Elle peut me gonfler de sa vie ou me reprendre dans sa poussière. Elle peut se parer à mes yeux de tous les charmes, de toutes les horreurs, de tous les mystères. […]

Ses ensorcellements ne sauraient plus me nuire, depuis qu’elle est devenue pour moi, par delà elle-même, le Corps de Celui qui est et de Celui qui vient !

Le Milieu Divin. »

Pierre Teilhard de Chardin (1881-1955)

Jésuite, paléontologue, il a tenté de penser la place de l’homme et le sens du Christ cosmique dans l’univers.

Les sources du tarot -commentaires du livre écrit par Charles Imbert

Jocelin Morisson 

Sur son site éponyme, Jocelin Morisson se présente comme journaliste de formation scientifique. Il dit s’intéresser aux nombreuses thématiques qui lient la science, la spiritualité et la philosophie. Il déclare avoir travaillé une quinzaine d’années dans la presse professionnelle du secteur de la santé, tout en collaborant régulièrement au magazine Le Monde des Religions ainsi qu’à la revue Nouvelles Clés à partir de 2003.

Postface

Le remarquable travail exposé dans ce livre appelle une révision drastique de nos conceptions scientifiques et philosophiques de la nature de la Réalité.

Selon le modèle matérialiste-physicaliste … nous vivons dans un monde composé de matière, avant tout.

C’est pourtant oublier ce que le philosophe des sciences Michel Bitbol a appelé « le point aveugle » de la science. Le projet de la science à son origine est de parvenir à une description « objective » du monde c’est à dire qui soit indépendante de l’observation. Pour ce faire, on a occulté le fait que toute observation requiert un sujet conscient pour se manifester.

Au cours des cent dernières années on est parvenu au constat sans appel qu’un même phénomène peut apparaître de façon différente à deux observateurs.  Le philosophe Bernardo Kastrup en est ainsi venu à distinguer l’objectivité forte de l’objectivité faible. ( cf là l’étude sur l’objectivité scientifique)

Les faits d’observation et d’expérience liés aux phénomènes OVNI et autres phénomènes évoqués nous plongent dans un domaine intermédiaire entre le matériel et l’immatériel, entre le physique et le psychique, entre le réel et l’imaginaire, un espace où ces opposés se confondent et que Patrick Harpur et Bernardo Kastrup appellent « daïmonique ».

Carl Jung a magistralement pensé cette continuité entre le domaine physique et le domaine psychique baptisant Unus Mundus cet ensemble psychico-physique  où se manifestent les synchronicités et les poltergeists.

La leçon la plus importante est que le monde de la matière tel que nous le percevons est, en fait, une construction de notre esprit.

Bernard Kastrup souligne que » la prochaine étape de notre aventure humaine doit être fondée sur un nouveau type de logique « illogique » : une logique où l’ambiguïté règne et où le constructivisme est le moteur de la Réalité. »

Les réflexions les plus récentes en philosophie des sciences, psychologie ou métaphysique, émanant de chercheurs anglo-saxons comme Bernardo Kastrup, Steve Taylor, Robert Pippin, Tim Freke, Ian McGilchrist, et beaucoup d’autres amènent à décrire une réalité où la conscience est première.

Depuis Platon et son allégorie de la caverne cette idée ne cesse de refaire surface et lui-même s’est inspiré des Pythagoriciens. Cette idée est au cœur des Upanishads composées entre 800 et 500 avant notre ère : l’espace-temps n’est pas la Réalité fondamentale mais qu’est ce qui donne à la nature sa structure ?

la proposition théorique de Bernardo Kastrup est que l’arrière-monde est de nature sémantique : une base de données reliées entre elles par le sens.

Bernard Kastrup réhabilite les vérités profondes de l’advaïta vedanta, philosophie de la non-dualité avec comme idée fondamenatale que la conscience individuelle – atman-et la conscience primordiale – brahman-ne font qu’un.

—-

 OVNI et conscience 

15 septembre 2021 – ouvrage collectif T1

 

 

 

 

Fabrice Bonvin 21 avril 2021

Ufologie-paranormal.org       Par      Peter El Baze-24 avril 

Ce livre est absolument fondamental. Il y aura l’ufologie avant et après ce livre, et croyez-moi, je n’exagère pas.
J’ai lu tout ce qui existe en français et beaucoup en anglais (même le rapport Condom, le préservatif anti-OVNI), mais celui-ci est de très loin celui qui apporte le plus dans la compréhension du phénomène.
Encore une fois, après Aimé Michel et Jacques Vallée, ce sont encore des français qui sont à la pointe de l’Ufologie mondiale ! Cocorico !
Je ne doute pas qu’il va être traduit en anglais afin que les chercheurs du monde entier puissent en profiter.
Je suis un scientifique rationnel, et passionné d’ufologie depuis 1968 (47 ans déjà ! ), et malheureusement,  les grands livres dans ce domaine se font rares, à part celui de Leslie Kean, mais qui est destiné plutôt aux débutants, aux sceptiques et politiques car il aborde le phénomène OVNI d’une manière très (trop ?) conventionnelle : cf Ovni des généraux parlent
Ce livre « OVNI et CONSCIENCE » va bien au-delà de l’Ufologie, c’est une nouvelle conception de la réalité qu’il fait découvrir, une nouvelle façon de considérer le phénomène OVNI qui n’a plus grand chose à voir avec l’hypothèse naïve « Tôles et boulons » des Aliens du cinéma et des médias.
Le sous-titre « L’Inexpliqué au cœur du nouveau paradigme de la physique » est parfaitement justifié.
Ce livre est destiné à des lecteurs avertis, ayant une culture ufologique et scientifique, et surtout une grande ouverture d’esprit. Il devrait même intéresser les passionnés de physique théorique qui ne connaissent rien du phénomène OVNI !
Les intervenants dans ce livre sont de très haut niveau, leurs écrits sont le résultat de dizaines d’années d’études et de réflexion sur ce sujet très difficile et délicat.
Stéphane Allix « Préface » 8 pages
Un des rare vrai journaliste d’investigation qui connait bien la question, auteur de livres et d’émissions télévisées de très bon niveau. A voir : enquête sur l’extraordinaire
Cette préface est claire et concise et résume bien la situation.

Fabrice Bonvin « Introduction » 19 pages
On voit qu’il connais bien le sujet, voir les nombreux livres qu’il a écrit. C’est lui qui a eu l’idée géniale de faire ce livre, bravo !
« Une enfance sous emprise » 24 pages
Un cas très détaillé à haute étrangeté concernant une famille sur une longue durée. Ce cas risque de surprendre ceux qui connaissent peu le phénomène OVNI, et pourtant il est typique du phénomène et parfait pour illustrer les propos des chapitres suivants.
Daniel Robin « Le facteur exogène »  50 pages
Ufologue, bonne expérience d’enquêtes sur le terrain depuis de nombreuses années, il expose son analyse ainsi que des observations passionnantes démontrant la réalité d’une action des OVNI sur la conscience des témoins. Cependant j’émets une réserve sur les travaux de Persinger page 97. A part cela, j’adhère totalement à ce chapitre.
Eric Zurcher « La composante psychique » 100 pages
Encore un article fondamental, mais un peu pessimiste. Zurcher insiste sur la composante psychologique du phénomène (mais pas trop sur la composante PSY rétro-causal et pas « acausal »). Le phénomène agit directement sur la conscience des témoins et lui donne un spectacle à voir. Il s’agit d’hallucinations OBJECTIVES provoquée de manière intentionnelle. Mais dans quelle intention ? Aider l’humanité à évoluer ? Faire une psychothérapie de masse pour sauver la race humaine de l’auto-destruction et permettre enfin dans quelques milliers d’années un contact bénéfique aux deux races ? Ou bien, sommes-nous seulement des rats de laboratoire qui tentent de comprendre les motivations des expériences des chercheurs ?
Cependant je suis en désaccord avec certains points de détail :
– contrairement à ce qui est écrit page 177, aucun ordinateur, même quantique, quelle que soit sa puissance ; ne pourra jamais prévoir de manière certaine l’avenir (rêve de Laplace). Pour une raison très simple : nous ne vivons pas dans un monde déterministe comme l’a montré le congrès de Solvay en 1927. L’infiniment petit est indéterminable, et le vivant apporte au monde macroscopique cette indéterminabilité. Le libre arbitre du vivant est une réalité indiscutable, imprévisible et les ordinateurs ne pourront jamais en tenir compte (sauf s’ils deviennent eux-mêmes vivants)
– page 177, ce qui nous sépare le plus de cette intelligence, ce n’est certainement pas la technologie. A partir d’un certain stade d’évolution d’une race, la technologie devient très secondaire, voir inutile par le développement et la maitrise des capacités Psy que les humains ont déjà à un niveau très embryonnaire. Les « trains d’ondes micro pulsés » ne risquent pas d’expliquer une action sur la conscience….
On vient de découvrir un système planétaire de 4 planètes dont l’âge est estimé à 12 milliards d’années…….On ne peut pas imaginer une intelligence qui a survécu à 12 milliards d’années d’évolution !
Ce qu’écrit Zurcher est absolument PASSIONNANT, à lire, à relire et à faire lire à méditer et discuter.
Philippe Guillemant « L’espace temps … » 62 pages
Les premières pages me paraissent claires, et j’y adhère totalement. Mais à partir de la page 229, les choses se compliquent. En résumé : l’auteur physicien envisage une nouvelle physique qui englobe les réalités totalement ignorées des scientifiques : OVNI, les NDE et les phénomènes Psy. Ce nouveau paradigme de la physique intègre la conscience en plus de la matière. Notre réalité matérielle serait un sous-produit de l’ensemble des consciences de l’univers passé, présent et futur. Toutes ces consciences sont dans une réalité composée d’informations (sans matière) , cette réalité est dans un temps particulier, un éternel présent (confirmé par les témoignages de NDE).  Il n’est pas le premier à voir les choses de cette façon, mais le point important est que cette théorie serait testable, donc falsifiable, donc vérifiable. Comment ? lI ne le dit pas ici. Ce serait une révolution scientifique sans précédent si cela était confirmé. Voir le site de théorie de la double causalité,, vous y trouverez des infos détaillées, et surtout visionner toutes les vidéos (youtube et INRES) de Guillemant qui sont révolutionnaires.
– Romuald Leterrier « L’expérience de l’ayahuasca » 62 pages
Ce chapitre montre les relations entre les visions des chamanes sous l’ayahuasca et certaines observations d’OVNI.
Jean-Jacques Jaillat « Prolégonèmes à la phénoménologie Ovni » 12 pages
Le titre résume le contenu ….un petit extrait : « L’acmé de l’irrésolution conflictuelle provoque une disruption archétypale génératrice de matérialisation ». Cependant, aud-delà de la forme, ce chapitre pose des questions très intéressantes sur le fond : serions-nous, humains, depuis des millénaires, en symbiose avec d’autres intelligences ?
Philippe Solal « Une nouvelle vision de la réalité »  58 pages
Je suis en train de le lire, mais je peux déjà vous dire que c’est magnifique d’intelligence !
Une synthèse magistrale du phénomène OVNI qui va bien au-delà des OVNI !

En conclusion, un petit extrait d’un article : « Hypothèse 3 : Les OVNIs sont des objets matériels créés inconsciemment par les témoins grâce à la fonction PSI. Les OVNIs seraient des hallucinations OBJECTIVES de même que les ectoplasmes du début de ce siècle et certaines apparitions religieuses, l’apparence de ces phénomènes PSI variant en fonction du contexte social de l’époque ». Article que j’ai écrit et publié dans le numéro 4 de la revue Univers Parallèles en  …1970 ! Ensuite j’ai ajouté une Hypothèse 4 identique, mais l’origine du phénomène étant une intelligence NON humaine, ce qui est de loin le plus probable actuellement. Il y a 45 ans, avec mes amis Rémy Chauvin, François Favre, Yves Lignion, etc..nous pensions comme dans ce livre mais en plus simple (simpliste ?), je suis donc heureux que ces idées soit reprisent ici d’une manière absolument brillante et beaucoup plus aboutie.

—-

Eric Zürcher -10 septembre 2018

avis Peter El Baze

Un livre majeur en Ufologie

« Les apparitions mondiales d’humanoïdes » de Eric Zürcher, historien et ufologue depuis presque 50 ans. Ce livre n’est pas un livre de plus parmi les 600 livres sur les OVNIs parus en français, pour moi passionné d’ufologie depuis 50 ans, il fait partie des quelques meilleurs livres à lire sur les OVNIs. Zurcher a un don certain pour l’écriture : son style est fluide, agréable à lire, dans un français irréprochable. C’est un livre très important car Zürcher analyse de manière très approfondie le phénomène et en tire des constantes de comportement qui sont certainement beaucoup plus importantes que les simples apparences auxquelles les ufologues s’attachent en général. Zürcher a fait un travail énorme de recherche depuis quelques années, je suis bien placé pour le savoir. Il a analysé, avec mon aide, des milliers de cas (comme le catalogue Rosales contenant plus de 10 000 cas de RR3), avec lui nous avons fait des recoupements, des traductions, des recherches multi-critères dans les textes de milliers de documents ufologiques, revues, livres, catalogues, que j’ai scanné avec OCR, etc.. Zürcher n’a retenu que des cas fiables et représentatifs et n’a pas hésité à éliminer des cas au moindre doute. Zürcher ne donne pas de solution miracle au mystère des OVNIs, il ne présente pas les dizaines d’hypothèses sur l’origine des OVNIs qui circulent sur le WEB : Zürcher présente des faits objectifs, fiables, vérifiables et documentés, et en déduit des constantes sur le comportement du phénomène : furtivité, élusivité, etc… On en apprend beaucoup plus sur les OVNIS avec ce livre, qu’en lisant les dizaines de milliers de pages publiées dans ce domaine. Eric Zurcher a su s’entourer des meilleurs ufologues français, ainsi nous avons droit à : – une superbe préface par Fabrice Bonvin auteur de nombreux livres sur ce sujet – une excellente post face de Nicolas Dumont, psychothérapeute spécialiste des témoins de RR3 et RR4, qui parle du travail incontournable de John Mack. Donc un livre majeur à posséder absolument, une » bible » de l’ufologie (mais sans dogmatisme) que doit lire toute personne qui s’intéresse à ce sujet. Ce livre comporte de nombreux dessins et croquis dessinés par Zürcher, et qui permettent de bien visualiser les cas. C’est un plus certain que l’on ne trouve malheureusement que trop rarement. Livre en grand format 25×20, magnifique qualité de papier et de mise en page. Zürcher et JMG Editions m’ont fait l’honneur de choisir en couverture un de mes dessins.

Nikola Tesla es-tu là ?

2H37RWF Nikola Tesla (1856-1943), 1919. Tesla in 1919 holding a gas-filled phosphor coated wireless light bulb which he developed in the 1890’s to replace incandescent lamp.

Le 7 janvier 1943, Nikola Tesla meurt, seul, croulant sous les dettes dans une chambre d’hôtel à New York. Une disparition bien triste pour celui qui a été une véritable « rock star » en tant que scientifique et inventeur de génie, à l’origine d’une partie de notre système électrique actuel. Depuis sa disparition, sa popularité n’a cessé d’augmenter. Dans une Grande traversée en quatre épisodes, sur France Culture, en compagnie d’historiens, d’auteurs et de réalisateurs, le journaliste Mattéo Caranta dresse avec nuance un portrait de ce personnage complexe, source de beaucoup de fantasmes.

 

Résumé

Comment parler de Nikola Tesla ? Ce premier épisode se penche sur le “roman Tesla”,  un homme dont la vie mêle sans cesse le réel et la fiction, le spectacle et la science. Une anomalie de l’histoire des sciences, tombée brutalement dans l’oubli.

En savoir plus

Nikola Tesla est un homme aux mille visages, doué d’une imagination débordante. Ses inventions participent de la modernité technique du XXe siècle. Parmi elles, le moteur à courant alternatif, qui structure encore aujourd’hui 80% de nos systèmes électriques. Il est aussi un pionnier de la radio, expérimentateur aux prémices des rayons X, inventeur du premier objet téléguidé, de la bobine Tesla, et de 300 autres brevets.

Personnage atypique pétri de phobies aux airs de gentleman victorien, Nikola Tesla incarne la figure du savant fou et solitaire. C’est l’une des raisons pour lesquelles il est difficile d’approcher Nikola Tesla : des pans entiers de son existence restent dans l’ombre et font l’objet de spéculations. Son rapport aux autres, l’absence apparente de vie affective, sa méthode de travail : tout, chez Nikola Tesla, interroge.

En réalité, Nikola Tesla s’inscrit dans une tradition scientifique, celle des cabinets de curiosité. Il fait voir des merveilles dans un contexte où le « faire” précède le “savoir”, où la science est encore en mouvement, où les règles rationnelles de la méthodologie et de la démonstration ne sont pas encore établies. Tesla fait voir des merveilles et rêve d’un monde futur forcément meilleur, libéré par ses inventions.

Un personnage romanesque à tous égards

Adulé puis oublié, Nikola Tesla devient, après sa mort, un véritable mythe de la pop culture américaine. La réalité historique de l’ingénieur laisse place au personnage de fiction. Il devient ainsi une référence que se réapproprient de diverses façons certaines théories du complot, qui en font la figure prophétique d’un fonctionnement occulte du monde ; les artistes, qui célèbrent sa capacité d’invention et de poésie pour nourrir leurs projets de fiction ; les pays, comme la Serbie et la Croatie, les deux terres d’origine de Tesla, qui l’érigent en héros national.

Scientifique, poète, inventeur, héros, exilé, savant fou sont les qualificatifs que, tour à tour, se voit attribuer Nikola Tesla. Alors comment raconter son histoire ? Qui est cet homme aux mille visages ? Ce savant méprisé par ses pairs et oublié ? Comment a-t-il construit sa propre mythologie ? Nous lui avons posé la question…

Premier épisode avec :

  • Aleksandar Protic, directeur d’une structure éducative dédiée à la vulgarisation scientifique, inspirée par Nikola Tesla
  • Jean Echenoz, écrivain, auteur notamment de Des éclairs, aux éditions de Minuit
  • Fleur Hopkins-Loféron, docteure en Histoire de l’art
  • Michael Almereyda, cinéaste, auteur du film Tesla (2020)
  • Martine Le Coz, écrivaine, autrice notamment de L’homme électrique, aux éditions Michalon
  • Vladimir Pistalo, historien, directeur de la Bibliothèque nationale de Serbie, auteur de Tesla : A Portrait with Masks, aux éditions Macmillan
  • Bernard W. Carlson, historien, auteur de Tesla : Inventor of the Electrical Age, aux éditions Princeton University Press
  • Patrice Carré, historien
  • Bernadette Bensaude-Vincent, philosophe des sciences, co-autrice avec Christine Blondel : Des savants face à l’occulte. 1870-1940, aux éditions de La Découverte
  • Lecture des textes de Nikola Tesla, par Olivier Martinaud
  • Lecture Des éclairs, de Jean Echenoz par l’auteur lui-même
  • 1. Nikola Tesla, es-tu là

    Mardi 16 août 2022

  • 58 mn
  • pour écouter :

 

Pour aller plus loin

  • L’autobiographie de Nikola Tesla, Mes inventions, est disponible aux éditions Ethos
  • L’homme électrique, de Martine le Coz, aux éditions Michalon
  • Histoire de l’électricité, de Christine Blondel, est disponible en édition poche
  • The Current War : Les Pionniers de l’électricité, un film d’Alfonso Gomez-Rejon (2017)
  • Coffee and Cigarettes, un film de Jim Jarmusch (2003)

Une Grande Traversée signée Mattéo Caranta, réalisée par Rafik Zenine.

Attachée de Production : Marie Viguier. Prise de son : Ludovic Auger, Morgane Danan, Helène Langlois. Mixage : Marie Lepeintre. Documentation : Anne Lise Signoret et Antoine Vuilloz. Traductions : Raphael Kraft et Nicolas Champeaux. Coordination : Christine Bernard.

 

« Oumuamua »-L’hypothèse du premier signe d’une vie intelligente dans l’espace selon Avi Loeb

Sur cette vue d’artiste figure le tout premier astéroïde interstellaire : Oumuamua. Cet objet particulier fut détecté le 19 octobre 2017 par le télescope Pan-STARRS 1 depuis Hawaï. Des observations complémentaires effectuées au moyen du Very Large Telescope de l’ESO au Chili et d’autres observatoires disséminés à la surface du globe ont montré qu’il avait voyagé dans l’espace des millions d’années durant avant de pénétrer à l’intérieur de notre système stellaire. `Oumuamua est un objet de couleur rouge foncé, de forme très allongée, de composition métallique ou rocheuse, long de quelque 400 mètres, qui ne ressemble en rien aux composants habituels du Système Solaire.

 

 

Le Premier Signe d’une vie intelligente extraterrestre

(Français) Broché – 28 janvier 2021

AVI LOEB est professeur d’astrophysique à l’université d’Harvard, dont il dirige le département d’astronomie depuis neuf ans. Il est directeur fondateur de son centre d’étude des trous noirs, et directeur de l’Institut de théorie et de calcul (ITC) du Centre d’astrophysique Harvard-Smithsonian. Il préside le comité consultatif du projet Breakthrough Starshot, supervise le programme scientifique de la fondation Breakthrough Prize, et préside le conseil des académies nationales de physique et d’astronomie des États-Unis. Il est membre du Comité des Conseillers du Président des États-Unis sur les sciences et les technologies à la Maison blanche. Auteur de six livres et plus de 800 articles scientifiques, Avi Loeb est membre de l’Académie américaine des arts et des sciences, de la Société américaine de physique, et de l’Académie internationale d’astronautique. En 2012, le magazine Time a cité Avi Loeb parmi les vingt-cinq personnes les plus influentes dans le domaine de l’exploration spatiale.
C’est fin 2017 que des chercheurs de l’observatoire Haleakala, dans les îles d’Hawaï, détectent un étrange objet qui traverse notre système solaire à une vitesse si élevée qu’il ne peut provenir que d’une distante étoile. L’objet, baptisé ‘Oumuamua, ne dégage aucune traînée de gaz ou de poussières lorsqu’il passe à proximité du Soleil. Pour l’astrophysicien Avi Loeb, en raison de sa forme et de sa trajectoire insolites, la seule explication logique est qu’il s’agit d’un engin artificiel construit par une civilisation extraterrestre.
Cette hypothèse d’Avi Loeb fait couler beaucoup d’encre, et les implications qui en découlent pour l’avenir de la science, des religions et de l’espèce humaine sont considérables. Extraterrestre est un livre aussi généreux que vertigineux, au croisement de la science et de la philosophie, qui nous enjoint à remettre en question nos idées reçues et à porter un regard critique sur l’univers qui nous entoure et les objets qu’il recèle, aussi étranges soient-ils…
sur Futura Sciences :    ‘Oumuamua éblouit les scientifiques », titre alors la Nasa. Parce qu’il est le tout premier objet interstellaire observé aussi près de la Terre. Mais aussi parce qu’il présente un certain nombre de caractéristiques pour le moins surprenantes.
Au fil des mois, toutes les hypothèses concernant sa nature ont été mises sur la table. Y compris la plus folle de toutes : celle du vaisseau extraterrestre ! Une hypothèse soutenue — envers et contre presque tous — par Abraham Loeb, président du département d’astronomie à l’université de Harvard (États-Unis). « La méthode scientifique encourage à la prudence. Nous formulons une hypothèse, recueillons des preuves et testons cette hypothèse. Puis nous affinons l’hypothèse ou rassemblons plus de preuves. Mais les modes peuvent décourager la prise en compte de certaines hypothèses et le carriérisme peut diriger l’attention et les ressources vers certains sujets et les éloigner d’autres », explique-t-il.
En 2015, Ellen Stofan, alors scientifique en chef à la Nasa déclarait à l’occasion d’un événement public, s’attendre à ce que « des preuves de l’existence d’une vie au-delà de la Terre » soient trouvées dans les deux à trois décennies. Un point de vue alors partagé par Jeffrey Newmark, astrophysicien à la Nasa : « Je ne me demande pas si nous trouverons de telles preuves, mais quand. »
Sur quelques singularités relevées par les chercheurs qui ont étudié l’objet interstellaire. Sa forme d’abord. « Nous n’avons aucune image bien nette de l’objet. Seulement les données de onze jours d’observations — avant que l’objet s’éloigne trop de la Terre — par plusieurs télescopes, précise Avi Loeb. Elles montrent que la luminosité de ‘Oumuamua varie d’un facteur dix toutes les huit heures. » De quoi conclure que l’objet est bien plus long que large. Certains ont d’abord parlé de forme de cigare. Puis les données ont orienté, de manière statistiquement bien plus probable, vers une forme de disque.
« S’il n’y avait eu que cela, je serais passé à autre chose », nous confie Avi Loeb. Mais il y avait aussi l’anomalie de trajectoire qui apparait dans les données recueillies par les astronomes. Selon le chercheur de l’université de Harvard, celle-ci est « époustouflante »« Les lois de la physique nous permettent de prédire la trajectoire d’un objet soumis à l’influence gravitationnelle du Soleil. Mais ‘Oumuamua ne s’est pas comporté comme prévu. » À distance de notre étoile, il s’est vu comme poussé par une force mystérieuse. « Cela arrive aux comètes aussi. Une sorte d’effet de « moteur-fusée » qu’elles doivent à leur longue queue de glace qui s’évapore. »
« Pour moi, ‘Oumuamua ne ressemble tellement à rien d’autre de ce que nous connaissons dans l’Univers qu’il doit avoir été conçu, construit et lancé par une intelligence extraterrestre. Peut-être un voile flottant dans l’espace. Une bouée de communication. Ou un débris abandonné par une civilisation autre que la nôtre, avance Avi Loeb. J’ai conscience que c’est une hypothèse exotique. Mais les autres hypothèses avancées pour expliquer ces caractéristiques particulières ne le sont pas moins. Aucune ne parvient à réellement expliquer la trajectoire de ‘Oumuamua. Et pourtant, l’objet a dévié », n’hésite pas à lancer le chercheur en clin d’œil à Galilée.

sur l’informatique.org : NASA : bientôt des preuves irréfutables de la vie extraterrestre

La NASA est catégorique : la preuve irréfutable de l’existence de la vie extraterrestre est pour très bientôt.

La réponse à la question de l’existence de la vie extraterrestre est pour très bientôt, c’est en tout cas l’avis de la NASA. C’est mardi, lors d’un événement public organisé par l’agence spatiale américaine à son siège de Washington, qu’Ellen Stofan, chef scientifique de la NASA, a déclaré : « Nous aurons de fortes indications de l’existence de la vie extraterrestre dans la prochaine décennie et la preuve irréfutable dans les dix à vingt prochaines années ».

première photo de Sagittarius A, le trou noir super massif de notre galaxie

 

extrait de l’article de Laurent Saco et publié le 14 mai sur Futura Sciences

Sagittarius A a été découvert en 1974  d’abord comme source radio puissante et compacte. Son nom vient du fait que le rayonnement est en provenance de la constellation du Sagittaire et la lettre A signifie que c’est la source de  rayonnement la plus brillante de cette constellation. Son image en fausses couleurs ci-dessus a été révélée.

L’Event Horizon Telescope -EHT-est une collaboration internationale, de 19 observatoires du monde qui capture des images de trous noirs à l’aide d’un télescope virtuel de la taille de la Terre.

Le 19 avril 2019, la collaboration EHT  a publié la première image d’un trou noir situé au centre de la galaxie Messier 87 -M87 située à environ 53 millions d’années-lumière de la Voie lactée.. L’image de M87, prise en 2019, était une preuve supplémentaire de l’existence réelle de trous noirs après, par exemple, la mesure des ondes gravitationnelles en 2015.

Il a  fallu mettre au point des techniques de traitement d’images adaptées et les utiliser en complément, comme dans le cas de M87, de savants calculs menés avec des superordinateurs et permettant de faire des comparaisons avec des trous noirs simulés également sur ces machines.

 

Tout a commencé par une campagne d’observation du 4 au 14  avril 2017 par interférométrie à très longue base, aussi appelée VLBI. Cette technique d’observation consiste à utiliser simultanément de nombreux radiotélescopes dans le monde, afin de créer l’équivalent d’un gigantesque interféromètre de la taille de la Terre.

la masse  de Sagittarius A  au centre de notre galaxie a été estimée à  4,3 millions de masse solaire.

Le trou noir au centre de la galaxie M87  est évaluée à  6 à 7 milliards de masses solaires soit près de 1500 fois la masse de Sagittarius A. Sagittarius A est estimé à  12 millions de km  contre 36 milliards de kilomètres pour M87.

En tenant compte des distances à la Terre, ces objets compacts ont des diamètres apparents voisins qui sont de l’ordre de celui d’une pomme ou d’une balle de golfe observée depuis la Terre sur la surface de la Lune.

Rappelons que la seule chose qui définit un trou noir c’est la possibilité d’identifier les limites d’une surface close virtuelle entourant une région de l’espace-temps dont on ne peut pas s’échapper sans pouvoir dépasser la vitesse de la lumière, ce que la physique connue interdit. L’état de la matière et de l’espace-temps sous cette surface à l’intérieur d’un trou noir est inconnu et même si la théorie de la relativité seule implique l’occurrence d’une singularité au cœur du trou noir où la courbure de l’espace-temps est infinie et la densité de matière tout autant (ce qu’a démontré le prix Nobel de physique Roger Penrose ), nous n’en savons rien. En fait, les lois de la mécanique quantique que Heisenberg et Schrödinger nous ont révélées et qui décrivent ce que l’on appelle l’écume de l’espace-temps, suggèrent fortement que rien de tel ne se produit probablement.

Enfin, il se pourrait bien que les objets que nous prenons pour des trous noirs soient en fait des astres presque aussi compacts, se comportant donc à bien des égards comme des trous noirs d’un point de vue astrophysique, mais sans horizon des événements réels, donc pas des trous noirs comme Hawking lui-même l’avait envisagé. Il pourrait s’agir de boules de supercordes, de gravastars et même de trous de ver !

 

 

 

Observations d’OVNI dans le ciel de Besançon

 

reproduction par le témoin  du phénomène observé le 25 septembre 2020

 

  Nous sommes le 25 septembre 2020 et le témoin se souvient qu’à l’apparition du phénomène il a regardé sa montre. Il était très exactement 21h29.

Apparaît alors brusquement dans son champ de vision, à une altitude  qu’il estime être celle de la couche nuageuse que l’on perçoit d’autres soirs, une série de trois rangées de spots circulaires de couleur orangée tirant sur le rouge. Ces spots sont constitués d’une couronne éclairée présentant, vers l’avant et vers l’intérieur, une excroissance pointue. Ces spots sont visuellement alors partagés en diagonale par le fil électrique qui alimente sa maison.

L’observation va durer environ 15 à 20 secondes. Il a le temps de compter qu’il y a trois rangées de 6 spots avec en plus un spot à l’avant de la rangée médiane et deux spots à l’arrière. Il ne distingue aucune forme à cet objet. Par contre il affirme que celle -ci,  indéterminée, cache les étoiles qui sont au-delà.

L’objet est apparu subitement, venant de nulle part. Il se déplacera en ligne droite et relativement lentement en direction Ouest/nord-Ouest. Ce déplacement n’occasionnait aucun bruit et le témoin d’ajouter que durant cet instant tous les bruits du voisinage avaient aussi disparu alors que l’observation se situe en agglomération. Après son passage, les bruits sont réapparus. L’objet a disparu de son champ de vision par delà un groupe de plusieurs tours situées à quelques centaines de mètres plus loin.

Première observation : Nous sommes en octobre 2015 et le témoin qui ne se rappelle pas du jour exact, précise qu’il était 23H 55 car des projecteurs d’une maison de quartier voisine éclairaient encore la partie du ciel où il vit apparaître le phénomène. Il précise que quelques instants après, ceux-ci  se sont éteints comme d’habitude à 24H.

Le témoin raconte qu’il est familier des sites et du monde de l’ufologie.  Il connaît bien la narration de tous ces phénomènes, mais aussi les techniques à utiliser pour préciser les observations.

Il dit aussi son habitude à la belle saison de passer plusieurs heures dehors le soir à vivre ces moments, à observer le ciel. Il précise alors que pour y parvenir l’oeil doit d’abord s’habituer à l’obscurité durant une heure ou deux pour atteindre son maximum de finesse d’observation dans l’obscurité.

En fait, ici, et comme déjà indiqué, une partie du ciel observé reçoit la lumière de projecteurs. C’est dans cet espace, légèrement éclairé, qu’il voit tout à coup passer une aile delta noire se dirigeant sud – nord. Lorsqu’il la perçoit, celle-ci est très basse et frôle la cime d’un petit bosquet de pins situé à moins de cent mètres de sa maison.

Habitué de ces observations, il note qu’il ne voit plus alors les étoiles occultées par cette forme. Cette dernière apparaît d’autant mieux qu’elle est éclairée faiblement par les projecteurs. Il s’agit d’une aile  delta de couleur noire  et de quelques mètres d’envergure. Celle -ci ne dispose d’aucun feu et son déplacement se fait sans aucun bruit.

Interrogé sur le temps d’observation le témoin estime celui-ci à moins de cinq secondes et l’aile a alors disparu derrière le bosquet de pin.

les réflexions qui suivent sont tirées d’un article « phénomène OVNI et problème de la conscience » -écrit  par Jocelin Morisson le 13 janvier 2017

l’article est consultable ici.

 

Cet article, tiré d’un livre collectif, tente de dissiper certains malentendus, à commencer par le fait que cette approche serait « psychologisante » et viserait à réduire les observations d’ovnis à des illusions.

L’ufologue et psychologue Fabrice Bonvin – cf là -a dirigé la rédaction de l’ouvrage collectif. ( Fabrice Bonvin est un enquêteur, conférencier et écrivain ufologue suisse né à Genève en 1975. Il obtient un master en psychologie à l’Université de Genève.)

Le souhait de Fabrice Bonvin était de privilégier une approche « holistique » du phénomène ovni, sur la base de six constats :

1) Le phénomène s’affranchit des lois cinétiques et dépasse de loin nos capacités aérodynamiques.

2) Il a une composante physique.

3) Il est doté d’une intentionnalité et se caractérise par une grande élusivité (sporadique, fugace, non reproductible, échappe à l’objectivation poussée).

4) Il montre de l’intérêt pour l’énergie nucléaire, à usage civil ou militaire.

5) Il a tendance à se manifester par vagues dans une perspective temporelle.

6) Il se présente sous une grande variété et s’adapte à nos représentations cognitives d’un point de vue formel.

Fabrice Bonvin résumait ainsi son approche du phénomène ovni : « Il a une dimension physique, oui, mais réduire les ovnis à des objets « tôle et boulons » et les extraterrestres à des êtres de chair et d’os arrange les gouvernements car cette explication a selon moi servi de couverture à la réelle nature du phénomène ovni. Je pense que les gouvernements, et en particulier américain, ont compris assez rapidement que c’était un phénomène complexe, et il a joué là-dessus pour ridiculiser le phénomène avec des récits complètement farfelus. Les récits loufoques d’Howard Menger ou Georges Adamski ont décrédibilisé l’ufologie et tout indique qu’ils ont été appuyés par la CIA. »

Le fait est que la complexité et le polymorphisme du phénomène ovni rendent son étude encore plus difficile ; c’est pourquoi l’approche pluridisciplinaire se révèle indispensable. Voici quelques unes de ces approches pluridisciplinaires :

La conscience est à la fois la plus grande énigme scientifique actuelle et ce qui est à la base même de toute notre expérience de la réalité. A ce titre, il y a une forme de point aveugle. En effet, sans conscience il n’y a pas de réalité, mais s’interroger sur sa nature revient à confondre le sujet et l’objet puisque le seul outil dont nous disposons pour étudier la conscience est la conscience elle-même.

La conscience serait comme l’écran blanc sur lequel est projeté le film de la réalité, ou la page blanche sur laquelle elle s’écrit.

Le physicien Bernard d’Espagnat parlait du « réel voilé » et John Wheeler lui emboîte le pas avec sa formule « it from bit » : « En substance, le monde physique (it) émerge en réalité d’un monde immatériel d’information pure (bit). » Dans une fameuse conférence TED de 2011, l’ufologue Jacques Vallée a dit que la « physique de l’information » serait la physique des cinquante prochaines années.

Dans Ovnis et Conscience , l’ufologue Daniel Robin évoque un « facteur exogène », comme si « quelque chose ou quelqu’un interférait avec l’humanité », « dans un but d’évolution/élévation spirituelle ». Le phénomène ovni et le problème de la conscience posent tous deux des questions sur la matérialité, les dimensions de la réalité, leur origine, le sens, l’utilité, le dessein, les potentialités.

L’idée que des manifestations de type ovnis traduisent une réalité plus complexe et aient un lien avec d’autres phénomènes relevant du folklore, de la mythologie ou de la spiritualité, n’est pas nouvelle. Elle a notamment été proposée par Carl Jung dès 1957. Dans Un mythe moderne : des « signes du ciel », il montre en effet que la question de la réalité physique des « soucoupes volantes » est presque secondaire et que ce qui importe est le phénomène psychologique, lui-même fruit de la fonction imaginaire inconsciente. Le terme « mythe » vise à souligner qu’au moins une partie de ces expériences seraient de nature « psycho-physique », c’est-à-dire qu’elles procèderaient d’un brouillage des frontières entre les réalités objectives et subjectives.

quatrième de couverture du livre de CG JUNG. : En entreprenant l’étude psychologique des soucoupes volantes, C.G. Jung refuse de se prononcer sur le problème de la matérialité physique des faits et il étudie pour l’essentiel les soucoupes volantes, que l’on prétend avoir «vues», comme si on les avait «rêvées». Il ne s’attache que secondairement au problème de leur réalité externe. Même si elles revêtaient une réalité physique, support du phénomène psychologique, C.G. Jung montre que, dans le sens le plus large, ce dernier est le fruit de la fonction imaginaire inconsciente. Le lecteur découvrira comment le phénomène et l’imagerie des soucoupes volantes expriment, de façon totalement inattendue, l’inadéquation de l’homme moderne à lui-même et au monde, la détresse qui en résulte, une mise en forme balbutiante – grâce à un langage puisé dans l’actualité – de ce qui l’agite, et aussi une tentative de conciliation de ses forces contraires. C.G. Jung inscrit – au-delà de son enquête – la somme de son savoir, de sa réflexion, de son intuition sur le monde et son avenir. Il y dégage pour nous, à l’occasion d’un phénomène contemporain insolite, en une manière d’étude de psychologie appliquée, les leçons de sa science et aussi de sa vie.Le Mythe moderne de C.G. Jung montre un point de jonction entre deux infinis, l’infini du monde extérieur et l’infini qui sommeille en tout homme.

Egalement contributeur du collectif Ovnis et Conscience, l’ingénieur-physicien Philippe Guillemant – cf ici son site -a été incité à réfléchir à ces problématiques par Jacques Vallée. A l’occasion d’un entretien qu’il m’avait accordé pour le magazine Nexus, il déclarait : « Je pense que nos visiteurs, s’ils existent, transitent par l’extérieur de l’espace-temps, autrement dit par le vide. Il peut y avoir toutes sortes de technologies, mais le principe d’entrée-sortie est toujours le même et opère par distorsion de l’espace-temps. (…) On peut déjà théoriquement déformer l’espace-temps pour s’y déplacer, par exemple en utilisant la métrique d’Alcubierre qui consiste à compresser l’espace à l’avant d’un vaisseau et à le dilater à l’arrière : c’est alors l’espace qui est déplacé comme une onde, et non le vaisseau. Mais on peut aussi appliquer une compression homogène et, dans ce cas, aller jusqu’à sortir de l’espace-temps par différents moyens dont beaucoup figurent dans la littérature de science-fiction. »

Passerelle avec le chamanisme
A partir de conversations avec Romuald Leterrier, ethnobotaniste expert du chamanisme amazonien, Philippe Guillemant a envisagé une possible identité entre le multivers quantique et le monde des visions des chamanes. « Nous avons du mal à l’imaginer aussi longtemps que nous n’admettons pas que c’est notre conscience qui construit notre réalité à partir de l’information du vide. Ma théorie divise le vide quantique en deux couches supplémentaires d’espace-temps (non manifestées) à trois dimensions, ce qui nous fait au total trois mondes emboîtés pour la conscience, qui concordent avec les mondes décrits par les chamanes : le « monde du dessous », qui correspond à ce que j’appelle l’anima ; le « monde du milieu », qui est notre monde physique tel que perçu par notre conscience, notre « moi » ; et le « monde du dessus », qui est le monde spirituel, le multivers dans lequel notre « soi » est libre de se déplacer par la pensée dans le champ des possibles. Il correspond à une couche de densité d’information inférieure qui permet l’indéterminisme et le libre arbitre. »

Pour mieux le comprendre, on peut prendre la métaphore d’un terrain montagneux par exemple. Lorsqu’on avance dans l’espace-temps, tout se passe comme si on progressait sur un sentier tracé à l’avance, et notre vie est le parcours le long du sentier. Nous croyons  que tout ce qui existe est seulement ce que nous voyons du sentier, mais il suffirait que l’on s’élève en ballon pour voir tout ce que nous ne voyons pas et qui existe aussi : notre passé, notre futur, mais aussi tous nos autres futurs possibles, hors du sentier…
« De la même façon, poursuit P. Guillemant, les univers parallèles sont tous présents dans un même espace qui est le multivers quantique. Notre réalité 4D est seulement notre parcours, mais toutes les autres possibilités coexistent dans le champ des possibles. Ce multivers hors sentier est l’endroit où l’on accède en sortant de l’espace-temps. Comme on n’est plus soumis à la mécanique, on s’y déplace par la pensée, car la pensée est un système d’adressage de la mémoire du multivers, utilisé par les chamanes. »
La réalité dite « extraterrestre » est pleinement intégrée à la vision du monde des chamanes. C’est pourquoi Philippe Guillemant estime que lorsqu’on sort de l’espace-temps, on se retrouve dans le monde des visions, qui est un monde réel. « Si l’on y débarque avec un vaisseau et qu’on a la technologie pour faire de ce vaisseau une extension vibratoire de sa conscience, on peut alors le mouvoir par la pensée. »

 

 

15 septembre 2021

quatrième de couverture : Deux grandes énigmes de la science, la Conscience et les OVNIS, se rencontrent dans cet ouvrage collectif rédigé par des auteurs de premier plan qui, pour la première fois, entrecroisent leurs discours. Des scientifiques issus des sciences dures et des sciences humaines, un philosophe des sciences, des ufologues-enquêteurs et des témoins analysent le “phénomène Ovni” à la lumière de ces deux énigmes et à partir de leurs domaines de compétences respectifs. Leurs analyses nous apprennent que celles-ci se pénètrent l’une l’autre et s’influencent réciproquement : dans de nombreux cas, les Ovnis modifient la conscience des témoins qui voient s’élargir leurs capacités de perception. En retour, la conscience, ainsi modifiée, paraît plus apte à entrer en contact avec des formes d’intelligences évoluées et inconnues qu’il nous faut appeler des consciences exogènes. Que nous enseigne cette réciprocité ? De quelle manière nous permet-elle de jeter une lumière nouvelle sur le mystère des Ovnis ? La réponse à cette question s’appuie sur les avancées les plus récentes de la physique qui voit s’ouvrir à elle un nouveau paradigme : celui de l’information. À travers les promesses de la physique de l’information, un nouveau cadre théorique s’offre à l’ufologie qui lui donne les moyens de faire le lien entre la conscience et les Ovnis et de penser ainsi leur singulière réciprocité. Cet ouvrage investit ce nouveau cadre et esquisse l’émergence d’une nouvelle ufologie, dont les répercussions vont bien au-delà de sa problématique pour suggérer une nouvelle conception de la Réalité.

21 avril 2021

quatrième de couverture : Certains le prétendent depuis plusieurs décennies : il est  possible de déclencher soi-même un dialogue avec le phénomène ovni ! Cet ouvrage est le premier livre en français consacré à ce sujet. Il propose une immersion théorique et pratique dans l’univers des rencontres rapprochées du 5e type (RR5). Ces RR5 révolutionnent le regard porté sur les ovnis : le témoin cesse d’être passif et ne subit plus : c’est lui qui provoque la rencontre en agissant ici et maintenant ! Le présent ouvrage est un guide pratique qui vous livre les secrets des mécanismes des RR5 et qui, pas à pas, vous invite à devenir acteur de cette révolution que constitue le contact avec une forme exogène de vie ! Dans un précédent ouvrage (Ovnis et conscience 1), vous avez pu découvrir les idées et les concepts qui sont désormais déclinés en pratique, disposés dans une boîte à outils qui permet d’envisager l’expérimentation d’une rencontre rapprochée. Ce guide pratique vous donne tous les éléments nécessaires pour être à l’initiative du contact. À vous d’expérimenter si vous êtes prêt à bouleverser vos certitudes !

 

voir la page “ufologie ” sur ce site 

voir la page des derniers témoignages d’OVNI 

 

100 milliards de planètes potentiellement habitables … et seulement dans la voie-lactée

Mr Mondialisation

Une centaine de milliards, c’est à la grosse louche le nombre de planètes potentiellement habitables qui se baladeraient autour de leur étoile, uniquement dans notre galaxie. Selon les dernières projections, il y aurait des planètes « Earth-like » (comme la terre) tout autour de nous. Un chiffre démesuré qui remet en cause les projections établies jusqu’ici et certaines croyances scientifiques.

Ce sont les données toutes récentes du télescope Kepler qui ont permis aux scientifiques d’établir une projection à la hausse du nombre de planètes propices au développement de la vie dans notre seule galaxie.

Déjà en 2014, des chiffres impressionnants avaient été donnés par une équipe internationale de chercheurs : notre galaxie abriterait environ 100 millions de planètes potentiellement habitables. Mais d’autres chercheurs de l’Australian National University (ANU) viennent pulvériser ces chiffres avec une estimation 1000 fois supérieure. De quoi étonner. Quelles sont donc leurs méthodes ?

Avant tout, les chercheurs estiment « habitables » les planètes situées à une certaine distance de leur étoile afin que la quantité d’énergie reçue ne soit ni trop grande, ni insuffisante, pour que l’eau puisse exister sous sa forme liquide. Vulgairement : il y fait une température raisonnable pour le développement de la vie, du moins celle que nous connaissons.

Une estimation, pas une preuve

Il s’agit naturellement d’une projection sur base d’indices et non d’un fait. Pour y parvenir, les chercheurs vont d’abord analyser les données déjà observables. Le télescope Kepler a déjà détecté plus de 1000 exoplanètes. Malheureusement, les chercheurs remarquent que le télescope ne peut observer que les planètes les plus proches de leur étoile. La zone « d’habitabilité » reste difficilement observable mais il est possible d’en tirer une estimation. On découvre ainsi que le principal outil d’observation serait partiellement aveugle, tout particulièrement à la zone qui intéresse les scientifiques. Face à ce constat, l’équipe considère que le nombre d’exoplanètes dans notre galaxie serait largement plus important qu’estimé par l’observation directe.

Pour complémenter cette approche, les chercheurs utilisent la loi de Titus-Bode. Une règle empirique qui permet de prédire approximativement (pas de certitude donc) à quelle distance de leur soleil se situent les planètes qui composent la plupart des systèmes solaires. Sur base d’un échantillon de systèmes planétaires déjà observés, ils peuvent donc déduire que chaque étoile possède en moyenne deux planètes situées dans la zone habitable. Leurs résultats, publiés dans la revue Monthly Notices of the Royal Astronomical Society change profondément la conception des choses. Cette « petite moyenne » projetée aux milliards d’étoiles de la galaxie permet donc d’établir qu’il y aurait plusieurs milliards de planètes aux conditions proches de la terre (sans être identiques).

pour lire l’article

 

 

Les sources du vivant sur terre

selon les « origines de la vie » – André Brack-Université Paris 7

et microbiologie -HS sciences et avenir -janvier, février 2017-Jean-François Haït

origines de la vie sur Wikipédia

le beau livre de la Terre-Patrick De Waever

La terre s’est formée il y a 4,567 milliards d’années à la même époque que le soleil.

Cet article ne traite pas de la définition de la vie qui ne fait pas encore consensus chez les scientifiques même si la plupart s’accordent pour lui conférer deux propriétés : les organismes qualifiés de vivant  utilisent de l’énergie sous forme de nutriments et rejettent des déchets et d’autre part ils se reproduisent.

Les fossiles les plus anciens connus sur Terre sont des micro-organismes marins de type bactérien. L’âge de ces plus anciens micro-organismes est régulièrement repoussé dans le temps par des découvertes de nouveaux microfossiles. Cet âge est de plus de 3,5 Ga (milliards d’années). Il s’agit essentiellement de premières traces directes les stromatolithes constitués de cyanobactéries -« algues bleues »-dans l’Ouest australien -craton de Pilbara– et qui forment des empilements de lamines que l’on retrouve ensuite sous forme de reliefs ou de dômes fossilisés dans les sédiments.  Au sud-ouest du Groenland vers -3,8Ga -3,7 Ga, des premières traces indirectes suggèrent l’existence d’une activité biologique photosynthétique. En 2017, E. Bella et son équipe décrivent des fossiles de « micro-organismes putatifs » découverts dans des sédiments ferrugineux affleurant dans la ceinture de roches vertes de Nuvvuagittuq au Québec. Ils sont datés d’au moins 3,77 Ga, voire peut-être même de 4,28 Ga.

Par ailleurs dès 1953, qui marqua le début de la chimie prébiotique avec l’expérience de Miller, les chimistes ont cherché à reconstituer dans leurs tubes à essais des automates ressemblant à une cellule simplifiée en raison de la remarquable unité du vivant contemporain et de son mode de fonctionnement cellulaire. A partit d’un mélange de méthane, hydrogène ammoniac et eau soumis pendant 7 jours à des décharges électriques ils ont obtenu des molécules organiques. Mais on estime actuellement que l’atmosphère primitive qui régnait alors ne contenait pas ou très peu de méthane et plutôt du gaz carbonique ce qui rend cette expérience peu crédible pour expliquer l’origine de la vie sur terre.

Une autre hypothèse est celle des sources hydrothermales sous-marines. Lorsque deux plaques tectoniques s’écartent sous l’océan, l’eau s’engouffre dans la faille et à une température d’environ 350 C elle se charge en différents gaz. Ceci constituerait le berceau des automates chimiques – cf théorie de Günter Wächterhäuser

Une troisième théorie émet l’hypothèse de l’origine extra-terrestre des molécules organiques.  Ainsi les sondes Vega 1 et 2 ont montré que la comète de Halley était riche en en matières organiques.

Selon un article du Point Robert Pascal, directeur de recherche à l’Institut des biomolécules Max Mousseron , vice-président de la Société française d’exobiologie, expose que des chercheurs britanniques viennent d’ouvrir une voie particulièrement prometteuse dans le domaine de la chimie prébiotique, celle qui étudie les réactions permettant le passage de simples molécules inanimées à la toute première cellule vivante. En effet dans un article récemment publié dans la revue spécialisée Nature Chemistry, l’équipe dirigée par John Sutherland au Laboratoire de biologie moléculaire (LMB) de Cambridge présente les résultats de son expérience.

Dans leur laboratoire, les chercheurs du LMB ont fait réagir ensemble du cyanure d’hydrogène (HCN), du sulfure d’hydrogène (H2S) et des ions de cuivre (Cu), sous l’action d’un rayonnement ultraviolet simulant la lumière du Soleil. Des ingrédients simples qui ont généré une remarquable série de réactions chimiques conduisant à la formation à la fois de nucléotides – les briques de base de l’ADN -, de sucres et de nombreux acides aminés impliqués dans la synthèse des protéines et dans le métabolisme, mais aussi de glycérol, l’un des précurseurs des lipides entrant dans la composition des membranes cellulaires.

 

Les analyses de phylogénie moléculaire menées sur divers gènes des trois grands groupes d’êtres vivants, Archaébactéries, eubactéries et eucaryotes, suggèrent que tous les êtres vivants actuels ont pour origine un ancêtre commun qualifié en Anglais de Last Unicellular Common Ancestor ou LUCA. On suppose qu’un tel ancêtre hypothétique présentait les principales caractéristiques connues chez les cellules vivantes actuelles.

R∞ – L’Hypothèse du Tout

Précis de (méta)physique à l’usage du commun des immortels

Un article écrit à partir de  la  théorie du Tout 

La bonne question n’est pas : « pourquoi voit-on quelque chose plutôt que rien ? »

mais :

Pourquoi ne voit-on qu’une chose alors qu’il y en a une infinité ?

 Il est aujourd’hui possible et même nécessaire d’envisager l’option spirituelle de manière rationnelle et scientifique à condition de redéfinir un cadre d’analyse large.

Il faut repartir de l’Esprit, de l’Être, pour définir ce nouveau cadre par opposition au matérialisme qui relève d’une forme de croyance. En effet l’hypothèse spirituelle est aujourd’hui compatible avec les dernières avancées de la science.

Cette science nous amène à nous intéresser au vide doté d’une énergie intrinsèque et c’est notre hypothèse, vibrant d’une infinité de réels. Cette hypothèse s’inscrit dans l’interprétation des mondes multiples d’Everett. Voilà toute la mesure de la révolution métaphysique en cours.

Il n’y a pas de néant, il n’y a que le Tout.

Au cours des derniers siècles, science et spiritualité se sont éloignées et la science s’est développée sur le primat de la matière sur l’Esprit niant même toute existence à ce dernier.

Il convient de renverser le paradigme et de construire la science de la primauté de l’Esprit sur la matière ou pour le moins sa concomitance.

Dans l’hypothèse du Tout toute proposition y compris celle-ci, dans la mesure où elle conceptualise, appauvrit. Mais faute de mieux il faut d’abord décrire un cadre conceptuel mathématique pour organiser ce nouveau paradigme même si parfois il s’accompagne d’un cadre poétique ou liturgique.

Il ya quelques principes simples qui sous-tendent la formalisation mathématique :

  • ce n’est pas parce que vous êtes le témoin d’une seule réalité qu’il ne s’en déploie pas d’autres.
  • ce n’est pas parce que vous percevez un espace en trois dimensions qu’il n’y a pas une infinité de dimensions.

Les mondes scientifiques actuels peuvent donner une explication satisfaisante à de nombreux phénomènes physiques mais ils se heurtent à des limites fortes aux marges de l’édifice scientifique. Ces limites nous disent quelque chose de l’incomplétude. Elles touchent à l’infini : infini du passé, de l’espace, du grand, du petit.

Par exemple la théorie de Big Bang ne nous permet pas de remonter au delà du mur de Planck soit 10-43 seconde après la naissance de notre univers.

Selon nos connaissances scientifiques actuelles l’univers observable serait né il y a 13,6 millions d’années lumière. Mais même si ce nombre traduit des dimensions gigantesques ce n’est pas l’infini.

Il y a aussi l’indétermination quantique : en l’absence d’observateur une particule est localement dans plusieurs endroits à la fois. C’est une indétermination structurelle qui traduit que la particule  occupe un nuage de positions simultanées et c’est l’observation qui la localise en un point particulier.

L’observateur fait donc partie de l’équation.

En biologie quantique, aussi, des théories émettent l’hypothèse que l’ADN soit soumis à des phénomènes quantiques et que l’ADN serait multiple.

L’idée centrale de l’hypothèse du Tout est que tous les réels advenus sont considérés depuis un « sujet » c’est à dire depuis un état de conscience et le Tout est la totalisation de tous les  états de conscience.

Depuis l’expérience d’Aspect de 1981 la preuve est établie que deux photons intriqués partent dans des polarités indéterminées et c’est la mesure de la polarité de l’un qui détermine instantanément celle de l’autre.

En physique quantique le sujet est au coeur de l’équation et les réels apparaissent multiples, une instance de conscience donnée n’étant capable d’en observer qu’un.

Un ensemble R des nombres réels est sécable à l’infini : 1 ; 1,1 ; 1,11 ; 1,111 ; 1,1111 ; …

Einstein a étendu notre espace à trois dimensions issu de notre perception du réel à un espace à 4 dimensions qui échappe déjà à notre représentation du réel. Actuellement, la théorie des cordes fonctionne dans un espace à 26 dimensions que seul l’outil mathématique permet d’imaginer.

Mais la véritable nature du réel c’est une infinité de dimensions, tailles, formes etc… Le réel est donc infini et le symbole de ce nouveau paradigme s’écrit  : R∞.

Dans cet univers, posons le postulat que la distance entre 2 points est nulle ce qui explique alors que dans le monde à 3 dimensions on observe le phénomène d’intrication quantique.

La meilleure approche de cet univers est celui des fractales.

Postulons que l’objet conscience aux surfaces multiformes envahit tout l’espace et que tous les réels possibles coexistent et sont advenus. La conscience de l’observateur fixe un de ces réels.

Le temps n’est qu’une brise, un pur phénomène de surface. Passé et futur ne sont vrai que pour un sujet donné et chaque situation est éternellement vraie sous le régime du présent.

A mesure que la conscience s’éveille et s’élargit, le temps ralentit et donc celui-ci est en fait une promenade du sujet sur l’objet.

L’hypothèse du Tout c’est un monde sans loi physique absolue. C’est un monde où la loi physique n’est qu’une entreprise de structuration locale adaptée à une vision locale.

Une instance de conscience donnée est un lieu et un moment d’un réel existant.

Le hasard n’existe pas dans R∞ : tout est en relation. Dans Rle hasard apparaît comme une superstition ou une science vraie des probabilités.

Si l’on postule un réel unique la logique Aristotélicienne interdit qu’une chose et son contraire puissent être vrai. Dans R∞ plus rien n’est faux et il existe toujours un lieu de cet espace où cette chose ou son contraire est vraie.

Les taoïstes ne s’encombrent pas de cette contrainte Aristotélicienne et le Sage embrasse tous les multiples.

 » le contraire d’une vérité profonde peut être une autre vérité profonde » – Niels Bohr

Ce qui est assommant chez les nombreux ésotériques c’est qu’ils n’aient qu’une croyance et qu’elle tourne à l’obsession.

Trancher entre deux vérités locales c’est appauvrir la richesse infinie des réels.  » l’erreur c’est l’oubli de la vérité contraire » – Blaise Pascal.

Le reproche qui peut être fait aux sciences c’est qu’elles détruisent la capacité à rêver et restreignent les espaces des possibles. On devrait dire : « dans mon monde, le monde est comme ci comme ça ».

On voit bien que la fascination matérialiste commence à s’effriter ce qui permet de faire entrevoir au plus grand nombre la multiplicité des réels, l’impossibilité de la mort et peut-être de toucher à l’existence de Dieu.

Les enfants de trois à six ans savent quelque chose qu’on nous a fait oublier et qu’il ne sera plus possible d’ignorer encore bien longtemps.

 Pour accéder à la présentation de la théorie de l’Hypothèse du Tout

L’univers n’est pas ce qu’on croit !

sur le blog de Mathieu Grousson – Science et Vie

LE LHC EST À DEUX DOIGTS DE DÉCOUVRIR UNE NOUVELLE TERRA PHYSICA INCOGNITA

Fin novembre 2015, un signal est saisi par les deux grands détecteurs Atlas et CMS du LHC – Large Hadron Collider– du CERN à Genève. La petite « bosse » découverte sur la courbe de suivi des collisions du LHC serait révélatrice de la découverte d’une nouvelle particule « X ». L’information a été rendue publique le 15/12/2015.

Cette existence, si elle était avérée, c’est à dire si la probabilité de l’erreur de détection descendait en dessous du risque d’erreur admis exprimé  par une probabilité inférieure à 1 sur 3,5 millions – nous en sommes à 1 sur 3 millions- serait une révolution gigantesque dans le monde de la physique des particules car son existence – contrairement au boson de Higgs – n’est pas prévue par le modèle standard organisé autour de 26 particules – 12 particules de matières : électron, quarks, neutrinos…, 13 particules dites de force pour les quatre interactions fondamentales -photon, gluons, bosons et le graviton dont personne ne doute de l’existence même si il n’ a pas encore été observé et enfin le boson de Higgs dont l’existence a été révélée en 2012.

Cette hypothèse de découverte, en principe confirmée ou infirmée au plus tard début 2017 génére une effervescence considérable dans les milieux internationaux de la recherche fondamentale sur ces questions. Plus de 250 publications scientifiques ont déjà été produites sur le sujet en quelques mois !

Si la découverte de cette mystérieuse particule est confirmée il y aurait remise en cause du modèle standard.

Des théories en ce sens existent déjà. Elles pointent essentiellement dans trois directions qui pourraient justifier l’existence de cette particule :

Et si c’était le signe d’une nouvelle symétrie ? Dans la théorie de supersymétrie celle-ci prévoit l’existence de 5 particules de masse de plus en plus lourdes et le « X » pourrait être la seconde découverte après celle du boson de Higgs. Abdelhac Djouadi ou Adam Falkowski du Laboratoire de physique théorique d’Orsay, Riccardo Barbieri de l’Ecole polytechnique fédérale de Lausanne évoquent cette possibilité.

Et si c’était le signe d’une nouvelle force ? Le « X » serait, pour les prétendants de cette théorie et à l’instar du proton, une particule composite.

Une des formulations les plus abouties est celle de Yasunori Nomura de l’University of California de Berkeley : la nature ne compterait pas 4 forces fondamentales mais cinq !

Et si c’était le signe d’une quatrième dimension spatiale ?  Cette hypothèse est la plus radicale : en chaque endroit de notre espace à trois dimensions  spatiales se déploierait une minuscule dimension supplémentaire complétement repliée sur elle même. Selon un modèle proposé en 1999 par Lisa Randall à Harvard et Raman Sundrum à l’Université du Maryland, le graviton est susceptible de se propager dans cette dimension supplémentaire provocant une sorte d’écho dans les 3 autres dimensions spatiales et si suffisamment d’énergie est concentrée en un point – comme dans cette expérience du LHC qui profite de sa nouvelle puissance passée en 2015 de 6 TeV à 13 TeV (1 TeV = 1012 eV = 1,602 177×10-7 J)– il y a alors matérialisation d’une particule et donc création de la matière selon la fameuse équation E= mc.

Ceci nous renvoie à se poser la question de la matière noire qui compte pour 85 % de la masse de l’univers et dont nous ne savons rien sinon que nos théories actuelles nous disent son existence pour pouvoir être vérifiables. Autre sujet : pourquoi l’antimatière qui a fait jeu presque égal avec la matière à l’origine de notre univers a -t-elle totalement disparu de celui-ci ?

« On sort des sentiers battus » dit Abdelhak Djouadi et Aurélien Barrau du Laboratoire de physique subatomique et cosmologie de Grenoble enfonce le clou :  » Rien ne garantit que l’intégralité de la réalité matérielle soit descriptible par les outils de la physique« .

Je conclurai cet article en disant que le Temple des Consciences pointent du doigt l’Esprit – au delà de la matière en parcourant les sciences et suit le courant scientifique qui se développe pour une science post-matérialiste. Enfin je rappelle  l’orientation générale du site : vers un monde transrationnel.

Diamants sur canapé quantique

LE MONDE SCIENCE ET TECHNO |  | Par David Larousserie– pour lire l’article


Une équipe néerlandaise de l’université de technologie de Delft, associée à des Britanniques et des Espagnols, a mis en ligne le 24 août, sur le site dédié Arxiv.org, un article confirmant une bizarrerie quantique qui avait perturbé en son temps jusqu’à Albert Einstein : deux objets géographiquement séparés constituent une seule entité au point qu’ils peuvent s’influencer de façon littéralement instantanée – plus vite même que la lumière. De quoi bouleverser la notion de réalité, au sens philosophique ou physique. Le processus de relecture en cours interdit aux auteurs de l’étude tout commentaire sur leur travail.

Après de premières tentatives aux Etats-Unis dans les années 1970, Alain Aspect parvient au début des années 1980 à Orsay à faire le premier test considéré comme vraiment déterminant. En mesurant indépendamment l’état de deux photons intriqués, il trouve qu’ils sont corrélés au-delà du seuil défini par Bell distinguant théorie quantique et classique. « Auparavant, le sujet était quasi sulfureux et peu connu des physiciens. Ces expériences ont popularisé le sujet, en lui donnant une vraie légitimité scientifique, et en ouvrant de nouveaux champs de recherche », estime Philippe Grangier, directeur de recherche CNRS à l’Institut d’optique, qui a travaillé dans les années 1980 avec Alain Aspect sur ces questions.
….

Cependant, d’irréductibles physiciens ont souligné qu’il existe deux échappatoires pour sauver d’éventuelles théories non quantiques. D’abord, ces expériences, certes stupéfiantes, ne détectent pas tous les photons intriqués. L’échantillon mesuré pourrait alors ne pas être représentatif de ce qu’est vraiment la Nature.

Ensuite, à cause de la lenteur des mesures, de l’information aurait le temps de passer entre les deux jumeaux de la paire, faisant prendre pour quantique ce qui serait en fait classique.

….
L’expérience de Delft est donc la première à colmater simultanément ces deux brèches. « C’est le couronnement d’une ligne de recherche impulsée dans les années 1970, salue Alexei Grinbaum, du Laboratoire de recherche sur les sciences de la matière au Commissariat à l’énergie atomique. Ce n’est pas une nouvelle découverte mais une preuve expérimentale importante. » « Cela clôt un sujet en respectant enfin toutes les hypothèses du théorème de Bell, et cela en ouvre un autre », ajoute Philippe Grangier.
….

Comment ces physiciens ont-ils réussi ? Les jumeaux de la paire sont deux diamants séparés de 1,3 kilomètre. Plus précisément, chacun des jumeaux est un électron libre à l’intérieur de ces diamants. On commence par intriquer, dans chaque diamant, l’électron avec un photon créé en excitant le diamant par des micro-ondes. Ces photons rouges se rejoignent via une fibre optique en un autre point éloigné d’au moins 800 mètres. Là, ils sont mesurés simultanément, ce qui a pour effet d’intriquer les deux électrons, pourtant éloignés de plus de 1 kilomètre. Ne reste plus qu’à tester les corrélations sur ces particules et constater qu’elles sont 20 % supérieures à ce que prévoient des théories classiques.

 

 

 

 

 

 

11 février 2016 : publication de la découverte du passage d’ondes gravitationnelles

journal Le Monde

  • Les détecteurs américains LIGO ont perçu le passage sur Terre, le 14 septembre 2015 à 11h51 (heure française) d’ondes gravitationnelles qui avaient été engendrées il y un un milliard d’années par la fusion de deux trous noirs.
  • Cette détection est la première preuve directe de l’existence de telles ondes, prédites en 1916 par Albert Einstein.
  • Elle apporte simultanément une preuve directe de l’existence des trous noirs, et ce pour la première fois.

Pour en savoir plus

cf la présentation de valérie Greffoz de Science et Vie

découverte d’un trou noir gigantesque

Écrit par JP Fritz dans Astronomie – Blog de l’Obs 

Le trou noir géant qui était trop gros pour son âge

Dans l’univers, il y a des objets si gigantesques qu’ils font passer notre Soleil pour un grain de poussière. C’est le cas des trous noirs supermassifs, qui se trouvent au centre des grandes galaxies comme la Voie Lactée. Autour de ces trous noirs, la matière s’agglomère en des disques captifs de l’énergie gravitationnelle de ces monstres. Le centre hyperactif de ces galaxies, nourri par l’énergie du trou noir, forme ainsi une source de rayonnement radio d’une puissance colossale : des quasars, les objets les plus lumineux de l’univers.

SDSS J0100+2802, comme l’ont numéroté les astrophysiciens, est l’un d’entre eux. Ce monstre émet 420 000 milliards de fois plus d’énergie que le Soleil, et le trou noir en son centre serait 12 milliards de fois plus massif que notre bonne vieille étoile.

Cet objet remarquable se situe à 12,8 milliards d’années-lumière de nous… et s’est formé seulement 900 millions d’années après le Big Bang, ce qui en fait le quasar le plus lumineux découvert à ce jour pour cette période précoce de l’univers. « Ce quasar est unique, » explique Xue-Bing Wu, de l’université de Pékin, auteur principal d’un article sur cette découverte qui vient d’être publié dans la revue Nature. « Un peu comme le phare le plus lumineux dans l’univers lointain, sa lumière incandescente nous guidera pour mieux enquêter sur les débuts de l’univers ».

Moins poétique, son co-auteur Fuyan Bian, de l’institut d’astronomie et d’astrophysique de l’université nationale australienne (ANU) explique que cette découverte défie les théories sur la formation et la croissance des trous noirs à cette époque de l’univers. « La formation d’un trou noir si grand si rapidement est difficile à interpréter avec les théories actuelles », déclare-t-il. En effet, lorsque la matière du nuage situé autour d’un trou noir supermassif accélère dans sa direction, sa température augmente, émettant de très grosses quantités de lumière qui repoussent la matière qui arrive derrière. Ce phénomène, que l’on nomme pression de radiation, devrait limiter la croissance des trous noirs, selon le Dr Bian.

« Pourtant, ce trou noir au centre du quasar a gagné une masse énorme en un laps de temps court », ajoute-t-il. Faudra-t-il revoir la théorie ? « Ce quasar est un laboratoire unique pour étudier la manière dont le trou noir d’un quasar et sa galaxie hôte évoluent ensemble », affirme Yuri Beletsky, de la Carnegie Institution for Science (USA), autre co-auteur de l’article scientifique. « Nos découvertes montrent que dans un jeune univers, les trous noirs des quasars grossissaient probablement plus vite que leurs galaxies hôtes, bien que davantage de recherches soient nécessaires pour confirmer cette idée ».

Les observations se poursuivent pour tenter de trouver d’autres quasar du même type…

Crédit image : vue d’artiste d’un quasar (ESO/M.Kornmesser)

 

La forme dominante de vie dans le cosmos est probablement celle de super robots

sur Slate.fr

Si nous finissons enfin par rencontrer des extraterrestres, ils ne ressembleront probablement pas à de petits hommes verts ou à des insectes géants. Il est plus probable que ce ne soit pas des créatures biologiques mais plutôt des robots extrêmement avancés avec une intelligence supérieure à la notre dans des proportions que nous ne pouvons même pas imaginer.

Si de très nombreux écrivains, futuristes et philosophes ont prédit le développement de l’intelligence artificielle et considèrent pour certain, dont le célèbre Stephen Hawking, que c’est une menace pour l’humanité, cette menace était sur terre. Mais cette forme d’intelligence supérieure pourrait surtout venir de l’espace.

C’est la conclusion d’une étude, «Alien Minds» (L’esprit des extraterrestres dont on peut voir une présentation ici), de Susan Schneider, Professeure de Philosophie de l’Université du Connecticut. Elle doit être publiée prochainement par la NASA. Susan Schneider rejoint ainsi les thèses d’astronomes comme Seth Shostak, Directeur du Centre de recherche de la NASA sur l’intelligence extraterrestre ou SETI (Search for Extraterrestrial Intelligence), de l’astrobiologiste, toujours de la NASA, Paul Davies, et du responsable de l’astrobiologie de la Library of Congress Stephen Dick. Ils considèrent tous qu’uneintelligence dominante dans le cosmos est probablement artificielle.

Comme Susan Schneider l’explique à MotherBoard: «Beaucoup de gens ont une vision des aliens comme celle d’une icône. Ils les imaginent comme des créatures biologiques, mais cela n’a pas de sens dans l’échelle du temps». Seth Shostak va encore plus loin et affirme «avoir parié avec des dizaines d’astronomes que si nous recevons un signal extraterrestre, ce sera d’une vie artificielle… A partir du moment où une civilisation invente les ondes radio, elle est à 50 ans des ordinateurs et probablement ensuite à 50 ou 100 ans d’inventer l’intelligence artificielle. A ce moment là, les cerveaux mous et spongieux deviennent un modèle obsolète».

«Il y a une importante distinction à faire quand on parle d’intelligence artificielle», ajoute Susan Schneider. «Je ne dis pas que nous allons rencontrer des processeurs IBM dans l’espace. En toute probabilité, cette intelligence sera bien plus sophistiquée que tout ce que comprennent les humains».

Susan Schneider pense que la civilisation humaine est d’ailleus proche de l’étape où elleaméliore sa propre biologie et s’en affranchit peu à peu, l’homme machine. C’est ce queRay Kurzweil a appelé la singularité. Et pour Susan Schneider, nous n’allons pas seulement améliorer nos cerveaux avec de la technologie mais devenir progressivement totalement synthétique, ce qui ne veut pas dire qu’il n’y aura plus pas de pensée originale, de créativité et d’émotion.

Parvenir à la conclusion que les civilisations avancées extraterrestres sont très probablement artificielles est un raisonnement assez simple d’après Seth Shostak. «Si on considère que tout signal radio extraterrestre que nous recevons provient d’une civilisation au moins aussi avancée que la notre. Disons, de façon prudente, que la civilisation moyenne utilise la radio pendant 10 000 ans. D’un point de vue purement statistique, la chance de rencontrer une civilisation bien plus ancienne que la notre est très élevée».

 

 

Les pôles magnétiques terrestres peuvent s’inverser brutalement

 

pour lire la totalité de l’article sur passeurdessciences.blog.lemonde

Fin juin, l’Agence spatiale européenne (ESA) présentait les premiers résultats de sa mission Swarm, une constellation de trois petits satellites lancés en novembre 2013, qui étudie en détail le champ magnétique terrestre. Les mesures effectuées par ces engins montraient que ledit champ magnétique, qui protège notre planète des particules chargées émises par le Soleil, était en train de s’affaiblir rapidement, perdant 5 % de son intensité en une décennie, soit une baisse dix fois plus rapide que ce qui était envisagé auparavant. Ce résultat a ravivé l’hypothèse selon laquelle nous ne serions pas loin d’une inversion des pôles magnétiques, ce qui a provoqué ce commentaire de la part du responsable de Swarm, le Norvégien Rune Floberghagen : « Un tel renversement n’est pas instantané.  Il prendrait plusieurs centaines d’années si ce n’est quelques millénaires. » Trois mois après, Rune Floberghagen peut apporter un important correctif à sa déclaration. En effet, selonune étude internationale publiée dans le numéro de novembre du Geophysical Journal International, le renversement des pôles magnétiques terrestres, un événement susceptible d’avoir de graves répercussions sur notre civilisation technologique, peut se produire en moins de temps qu’il n’en faut à un homme pour vivre et mourir.

Des physiciens observent les premiers instants de l’Univers

Le Monde, sciences

Des physiciens américains sont parvenus à observer la trace des tout premiers instants du Big Bang, atteignant un des « objectifs les plus importants de la cosmologie aujourd’hui » selon les termes de John Kovac, professeur à Harvard et responsable de l’équipe à l’origine de cette découverte, annoncée lundi 17 mars.

La survenue du Big Bang, qui a marqué la naissance de l’Univers il y a 13,8 milliards d’années, s’est accompagnée de l’émission d’ondes gravitationnelles primordiales. C’est l’empreinte que ces ondes ont laissée sur le rayonnement fossile (lequel baigne le cosmos) que sont parvenus à détecter les scientifiques.

DES ONDULATIONS PRÉVUES PAR LA RELATIVITÉ

Ces ondulations de l’espace-temps, qui avaient été prévues par la théorie de la relativité d’Albert Einstein, sont la preuve de l’expansion extrêmement rapide de l’Univers dans les premières fractions de seconde de son existence, un phénomène appelé inflation cosmique.

Pour le physicien théoricien Avi Loeb, de l’université Harvard, cette avancée « apporte un nouvel éclairage sur certaines des questions les plus fondamentales. A savoir : pourquoi nous existons et comment a commencé l’Univers. Non seulement ces résultats sont la preuve irréfutable de l’inflation cosmique mais ils nous informent aussi du moment de cette expansion rapide de l’Univers et de la puissance de ce phénomène. »

L’observation de tels rayonnements a été réalisée par le télescope Bicep 2. Depuis l’Antarctique, il a scruté le fond diffus cosmologique, le rayonnement faible hérité du Big Bang. Les scientifiques sont parvenus à étudier de minuscules fluctuations dans ce rayonnement, comme autant d’indices sur la petite enfance de l’Univers.

Lire aussi : L’enfance de l’Univers dévoilée

UNE DÉCOUVERTE DIGNE DU NOBEL

Ces données permettent également de confirmer « la relation profonde entre la mécanique quantique et la théorie de la relativité générale ». Pour Tom LeCompte, un physicien au CERN et au Laboratoire national Argonne près de Chicago, qui n’a pas participé à ces travaux, cette percée « est la plus grande annonce en physique depuis des années », qui « peut potentiellement donner le prix Nobel » à leurs auteurs, a-t-il expliqué à l’AFP.

Google s’est payé un ordinateur quantique (qui fonctionne)

L’ordinateur quantique constitue sans aucun doute l’avenir de l’informatique moderne. Il y a un an, IBM se disait à l’aube d’une offre commerciale, même si la technologie nécessite encore quelques années de travail. Mais Google n’a pas voulu attendre si longtemps, et a décidé de se lancer dans la course… à domicile.
microfactory_00

Avec l’ordinateur quantique, ne pensez plus « bits », mais « Qubits » ! Les 1 et les 0, c’est déjà « tellement 20ième sicèle » ! Avec ce type de machine, le nombre d’états n’est plus limité par ces deux valeurs, ce qui permet -sur le papier- de multiplier très largement la puissance de calcul des ordinateurs. Outre la puissance brute, ce sont surtout les applications qui en découlent qui intéressent les scientifiques : casser des clefs de cryptage en quelques secondes, simuler des environnement complexes (impossibles à ce jour), mieux comprendre l’univers… Il faut bien se rendre compte qu’on parle ici de machines capables de calculer plusieurs dizaines de milliers de fois plus vite que le meilleur des super-ordinateurs existant. L’enjeu est colossal !
Pour lire la suite sur Actuwiki

LE PRIX NOBEL DE PHYSIQUE POUR LE BOSON BROUT, ENGLERT, HIGGS

Par Sylvestre Huet sur Sciences.blogs.liberation

Le prix Nobel de physique 2013 est attribué à François Englert et Peter W. Higgs pour la proposition théorique du boson BEH (Brout, Englert, Higgs) indépendament, en 1964. Le troisième auteur, Robert Brout est décedé en 2011.

Le jury du Nobel a bien sûr décidé de cette récompense… parce que le dit boson, la seule des particules du modèle standard de la physique des particules à ne pas avoir été découverte avant 2012, est justement tombée dans l’énorme piège construit à cet effet : le Large Hadron Collider du Cern. Une chasse dont le succès a été annoncé en juillet 2012.

Cette décision du Jury rend bien sûr justice à une proposition théorique qui a fait courir les physiciens durant près d’un demi-siècle. François Englert , né en Belgique en 1932  a passé sa thèse de physique en 1959 à l’Université Libre de Bruxelles où il est professeur émérite. Peter W. Higgs, né en 1929 à Newcastle upon Tyne, au Royaume Uni a passé sa thèse en 1954 au King’s College, Université de Londres. Il est professeur émérite à l’université d’Edimbourg.

pour lire la suite

 

Lasers : les feux de l’extrême

Ça s’emballe ! », constate Laurent Boudjemaa, responsable du département développement et produits laser chez le groupe électronique français Thales, en évoquant les ventes de lasers d’une puissance colossale. Ses équipes terminent la mise au point d’un de ces géants, Cetal. Il sera expédié, cet été, en Roumanie, près de Bucarest, où il sera l’un des premiers de cette catégorie en Europe : 1 petawatt, soit 1 milliard de mégawatts, ou l’équivalent d’un million de réacteurs de centrale nucléaire. En 2012, Thales a aussi installé un de ces monstres appelé Bella, désormais le plus puissant au monde, à l’université Berkeley, en Californie.

« Le marché grandit à raison de 30 % par an pour les lasers supérieurs à 0,1 petawatt », précise le concurrent de Thales, Gilles Riboulet, directeur d’Amplitude Technologies, créée par des anciens de Thales en 2001. Les deux entreprises se partagent désormais le marché mondial. Dans ses locaux d’Evry, les 150 caisses en bois d’un autre géant de 1 petawatt, Draco, sont prêtes à partir à Dresde, en Allemagne. Un second, Vega, suivra pour l’Espagne. A chaque fois, les budgets avoisinent les 10 millions d’euros. Et ce n’est pas terminé.

« Cette forte augmentation de la demande vient de ce que ces instruments permettent d’approcher les frontières de la connaissance. Ils sont moins chers et encombrants que d’autres infrastructures comme des synchrotrons ou des accélérateurs de particules », témoigne Philippe Balcou, directeur du Centre lasers intenses et applications (Celia), près de Bordeaux, associant le CNRS, le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et l’université de Bordeaux-I. « C’est aussi un moyen, pour des pays, de jouer dans la cour des grands », ajoute le chercheur, en citant la Corée du Sud, la Chine, le Brésil…

PUISSANCE GIGANTESQUE

Attention aux chiffres tout de même. Ces lasers d’un nouveau genre ne sont pas des centrales électriques. Leur puissance gigantesque est liée au fait que l’énergie est libérée dans des temps très courts, de l’ordre de quelques dizaines de femtosecondes (1 femtoseconde vaut 10-15 seconde). En un clin d’oeil, 100 000 milliards de femtosecondes s’écoulent. L’énergie, de l’ordre du joule, équivaut, elle, à soulever une masse d’1 kilogramme de 10 centimètres…

Pourtant, cette concentration brève et très locale d’énergie suffit à rendre possibles des projets dignes de la science-fiction : thérapies contre le cancer, transmutation des éléments radioactifs en d’autres moins dangereux, claquage du vide pour faire apparaître des particules à partir de rien, fusion de noyaux atomiques pour une nouvelle source d’énergie, déclenchement de la foudre. Ou encore, usine à boson de Higgs, cette particule, découverte en 2012, responsable de la masse des particules élémentaires. Ou même, simulation d’étoiles, de supernovae et de coeurs de planète en laboratoire…

Dire qu’au début du laser, à la fin des années 1950, on ne savait pas trop à quoi pourrait servir cet instrument !

Pour lire la suite : Le Monde-sciences-physique

 

 

De l’ozone pour dépolluer les eaux

Le Monde-sciences

Un polluant – l’ozone – peut se transformer en très efficace agent de dépollution. C’est la voie explorée par l’Institut polytechnique LaSalle-Beauvais (Oise) et l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). Elle pourrait déboucher sur un procédé innovant de décontamination de nappes phréatiques et de sols.

Le pouvoir désinfectant de l’ozone est connu et exploité de longue date, notamment dans le traitement des eaux usées. Ce gaz est en effet un très puissant oxydant. C’est du reste ce qui – à la différence de l’ozone de la stratosphère qui protège la Terre des rayons ultraviolets du Soleil – en fait, dans les basses couches de l’atmosphère, un élément très toxique, à l’origine des alertes estivales aux « pics d’ozone ». En conditions contrôlées, ce potentiel d’oxydation peut au contraire devenir salutaire, en servant à dégrader et à rendre inertes de multiples substances nocives pour l’environnement.

COCKTAILS DE POLLUANTS

Mené pendant trois ans par les deux partenaires, qui en ont financé à égalité le coût (600 000 euros), le programme de recherche OPOPOP (optimisations des paramètres d’ozonation en phase liquide pour des polluants multiples de sites pollués) s’achèvera mi-septembre. Avec des résultats « très prometteurs », assure Olivier Pourret, enseignant-chercheur en géochimie à LaSalle-Beauvais et responsable du projet. La technique mise au point, indique-t-il, permet de dégrader en quelques minutes des polluants habituellement difficiles à traiter ». Mais aussi d’éliminer simultanément des cocktails de polluants, comme on en trouve dans les milieux naturels où les contaminations sont souvent multiples.

Les chercheurs ont construit, à Beauvais, un prototype expérimental d’ozonation, en forme de colonne de sept mètres de haut, permettant de traiter 400 litres d’effluents en une dizaine de minutes, par réaction chimique avec de l’ozone injecté en circuit fermé. Le gaz, de formule chimique O3, est produit sur place à partir de l’oxygène (O2) de l’air. Des essais ont d’abord été réalisés sur différents polluants, seuls ou mélangés, tels que le benzène, le phénol, le cyanure ou le trichloréthylène. « Le système a été optimisé pour traiter simulaténement jusqu’à 25 molécules différentes », précise Olivier Pourret.

15 000 M3 DE DÉCHETS INDUSTRIELS

La méthode a ensuite été appliquée à des effluents réels, provenant des dépôts liquides (les lixiviats) d’une décharge de l’Oise : une ancienne carrière de calcaire de 4 hectares, abandonnée après la seconde guerre mondiale et devenue dans les années 1960 un  gigantesque dépotoir. Plus de 15 000 m3 de déchets industriels divers y ont été déversés, qui ont durablement souillé le sol et la nappe phréatique, gorgés de plus d’une centaine de substances polluantes.

Le terrain fait partie des quelque 180 sites « orphelins », ou « à responsables défaillants » – leur exploitant ou propriétaire n’étant pas identifié, étant insolvable ou refusant de faire face à ses obligations – dont l’Ademe a la responsabilité en France. Le plus souvent, il s’agit de sites industriels ou miniers désaffectés, chargés en produits toxiques. Dans le cas présent, l’établissement public a engagé 8 millions d’euros pour sécuriser et drainer la décharge, sur laquelle il exerce toujours une surveillance. Un champ d’expérimentation idéal, donc, pour tester l’ozonation. Ce que les chercheurs ont fait en prélevant des échantillons d’eau polluée et en les traitant dans l’installation pilote de l’Institut polytechnique.

UNE UNITÉ MOBILE

« Nous avons réussi, en trois ans, à maitriser le procédé industriel », indique Roland Marion, qui dirige les recherches sur la dépollution des eaux souterraines à l’Ademe. « La dépollution par l’ozone devient possible en termes techniques et économiques », ajoute Olivier Pourret.

La prochaine étape devrait être la mise au point d’une unité d’ozonation mobile, transportable sur un site pollué. Ce qui nécessitera de disposer, sur place, d’une capacité de production et de stockage d’ozone. Dans la foulée, les chercheurs envisagent ensuite d’élargir la technique au traitement non plus seulement des eaux, mais des sols contaminés.

L’enfance de l’Univers dévoilée

Vu sur le Monde 

 

 

 

 

 

 

Si une image vaut mille mots, celle rendue publique jeudi 21 mars par une équipe européenne d’astrophysiciens en vaut encore dix fois plus. Sous l’égide de l’Agence spatiale européenne, ces chercheurs viennent en effet de prendre une photo qui nous ramène 13,8 milliards d’années en arrière. Elle montre l’Univers le plus jeune qui soit possible d’observer, tel qu’il était à ses tout débuts, 380 000 ans seulement après sa création – elle dévoile un rayonnement qui a voyagé jusqu’à nous depuis la nuit des temps.

La qualité de l’image de ce bébé-Univers prise par le satellite Planck est dix fois plus grande que le dernier cliché disponible pris par la NASA en 2003. De quoi non seulement mieux décrire l’histoire qui conduit de l’enfance à l’adulte qu’il est devenu aujourd’hui. Mais aussi de quoi plonger pour la première fois de l’autre côté du miroir et saisir à quoi a ressemblé le Big Bang, moment-clé de nos origines. Avec à la clé quelques surprises.

« LE NOM SUR LE BRACELET »

« Une collègue, pour illustrer la qualité de ce travail, a réalisé trois photos de son enfant. L’une, très floue, correspondant à la précision d’il y a vingt ans. L’autre, plus nette, où l’on reconnaît le bébé, avec la précision d’il y a dix ans. Et enfin, la dernière, avec la qualité d’aujourd’hui, sur laquelle on distingue le nom sur le bracelet ! », explique Alain Riazuelo de l’Institut d’astrophysique de Paris et du CNRS.

Il faut cependant avoir l’œil du spécialiste pour reconnaître un Univers en formation sur l’image prise par la collaboration de Planck, forte de plus de deux cents personnes. A cette époque, l’Univers ne ressemble à rien de ce qu’il est aujourd’hui. Nulle étoile, nulle galaxie, pas le moindre caillou. La matière est chaude, à environ 3 000 °C et elle n’est faite que de particules microscopiques, des électrons et des protons qui, des millions d’années plus tard, s’assembleront en atomes lourds et molécules…

MÉLASSE BOUILLONNANTE

Elle est même totalement opaque, car nul grain de lumière ou photon ne peut en sortir. Ceux-ci sautent d’électron en électron sans pouvoir s’extraire de la mélasse bouillonnante. Mais ces électrons jouent aussi avec les protons et finissent par se regrouper avec eux, privant les photons de leurs partenaires. La lumière jaillit. Les instruments du satellite Planck envoyé en 2009 à quelque 1,5 million de kilomètres de la Terre n’ont plus qu’à l’enregistrer.

C’est finalement comme s’approcher d’une boîte de nuit bien insonorisée et ouvrir la porte : soudain un bruit assourdit les tympans. Reste à déduire de ce vacarme combien il y a de personnes, combien d’hommes et de femmes, ou l’heure qu’il est…

 

 

 

 

 

 

Dans le cas de Planck, en guise d’ondes sonores, les chercheurs ont affaire à du rayonnement micro-onde (à des fréquences 15 à 500 fois plus élevées que celles des téléphones mobiles en 3G), qu’ils convertissent en température. En outre ce « bruit » ne varie pratiquement pas : quel que soit l’endroit vers lequel pointent les détecteurs, la même température est mesurée, équivalente à quelque –270 ºC. D’où son nom de fond diffus cosmique ou rayonnement fossile.

Mais tout est dans le « pratiquement ». En réalité, des murmures sont audibles, un million de fois plus faibles que le bruit dominant. « Planck est capable de repérer des cailloux d’un millimètre au sommet d’une montagne de 1 000 mètres de haut », compare Jean-Loup Puget, de l’Institut d’astrophysique spatiale d’Orsay et du CNRS, responsable d’un des instruments de Planck. D’où l’aspect granuleux du cliché, équivalent aux vagues à la surface d’un océan. Ces petites vagues deviendront grandes et donneront naissance aux étoiles, galaxies, amas de galaxies…

 

GIGANTESQUE CRÊPE

« Les quelque 5 millions de pixels de l’image sont finalement transformés en six paramètres qui décrivent l’Univers et son évolution », explique François Bouchet, du CNRS, l’un des responsables de la mission. Le verdict décrit finalement la recette de la soupe cosmique. L’Univers est composé de 4,8% de la matière ordinaire que sont nos atomes, de 25,8% de matière dite noire, invisible aux télescopes (et de nature encore inconnue) et de 69,4 % d’énergie noire, qui le pousse à grossir. Cet Univers est également plat comme une gigantesque crêpe, alors que les estimations précédentes laissaient entrevoir la possibilité d’une légère courbure. Les chercheurs estiment aussi la vitesse avec laquelle les galaxies s’éloignent les unes des autres à quelque 66 kilomètres par seconde.

A cette moisson déjà bien fournie, il faut ajouter quelques surprises. La première : les résultats sont légèrement différents de ceux obtenus par le satellite précédent de la NASA, WMAP (Wilkinson Microwave Anisotropy Probe). « Le taux d’expansion de l’Univers que nous trouvons est plus faible et nous avons quelques pourcents de plus de matière noire et ordinaire, mais nous trouvons finalement le même âge pour l’Univers – 13,8 milliards d’années », constate Jean-Loup Puget. Cela promet quelques discussions agitées.

Deuxième surprise, « le modèle standard simple qui décrit l’Univers et son évolution reproduit bien tout ce qu’on observe », ajoute François Bouchet. En particulier, ces analyses valident l’hypothèse qu’un phénomène incroyablement spectaculaire a bien eu lieu juste après le Big Bang et bien avant 380 000 ans : l’inflation.

Cette phase, aux détails encore flous, correspond à une fantastique dilatation de l’espace. Quelques milliardièmes de milliardièmes de milliardièmes de seconde après le Big Bang (le chiffre précis n’est pas encore connu !), l’Univers passe d’une tête d’épingle à sa taille presque actuelle. Les mots en fait ne suffisent pas à décrire l’événement, car l’expansion correspond en réalité à une multiplication des distances par 1025, un « un » suivi de 25 zéros…

 

 

 

 

 

 

Ce faisant, les petites imperfections initiales, les moindres fluctuations primordiales se retrouvent propulsées et imprimées dans l’image du fond diffus, formant les vaguelettes repérées par les instruments. Et de ces variations de densité de matière naîtront les grains de poussière, les étoiles…

LES ENFANTS DE FLUCTUATIONS QUANTIQUES

Par définition, ces perturbations sont de nature quantique, l’adjectif idoine pour décrire l’infiniment petit. Si bien que nous sommes finalement aussi les enfants de fluctuations quantiques. « L’inflation, c’est un peu ce qui fait bang dans Big Bang », ironise Benjamin Wandelt, à l’Institut d’astrophysique de Paris. « Les détails du fond diffus permettent même de voir comment cette inflation s’est terminée », rappelle François Bouchet. C’est donc aussi une partie invisible de l’histoire que révèle ce cliché. « Nous avons aussi éliminé pas mal de modèles sans inflation », confirme Benjamin Wandelt, qui a testé bon nombre d’hypothèses alternatives.

En outre, cerise sur le gâteau, les chercheurs ont découvert quels objets massifs les photons fossiles ont rencontré sur leur trajet jusqu’à nous. Des analyses subtiles ont tenu compte des déviations imposées par des structures gigantesques comme les amas de galaxies sur la trajectoire du rayonnement durant ces milliards d’années. « Le travail doit se poursuivre mais d’ores et déjà la coïncidence entre notre carte des grandes structures et celles obtenues par d’autres observations est remarquable », constate Alain Riazuelo.

Enfin, les chercheurs confirment qu’il existe bien une anomalie non encore expliquée par le modèle standard, ni même par aucun autre actuellement. « C’est comme si les amplitudes des vagues de notre image situées très loin l’une de l’autre étaient plus faibles qu’attendu », estime Jean-Loup Puget. « Dans les semaines à venir, des dizaines d’articles fleuriront pour tenter d’expliquer le phénomène », prévoit Alain Riazuelo.

 

 

 

 

 

 

L’histoire est donc loin d’être terminée. Planck ne se contente pas de rendrepublics 29 articles d’analyses accompagnés de ces fameuses photos. Il fournit aussi les données pour que d’autres s’en emparent et les confrontent à des théories ou aux autres expériences. « Cette grosse dose d’informations va occuperla communauté pendant au moins dix ans », anticipe Jean-Philippe Uzan de l’Institut d’astrophysique de Paris et qui n’a pas participé à la mission.

L’équipe n’a pas non plus achevé l’analyse de ses propres données. Outre la température, elle a en effet aussi enregistré une propriété du rayonnement, appelée polarisation, qui pourrait encore améliorer nos connaissances sur l’inflation. Cette dernière, en déchirant l’espace avec une telle violence, a créé des ondes de matière qui s’impriment aussi dans le fond diffus. Personne n’a encore vu ces ondes dites gravitationnelles, mais la collaboration Planck dans un an espère soit les voir pour la première fois, soit mieux les cerner. Le bébé Univers n’a pas fini de crier.

Un épisode chaud du passé décrit grâce au forage des glaces du Groenland

vu sur science.gouv -> pour lire tout l’article

L’Histoire du climat vient d’être reconstituée sur 130 000 ans au Groenland grâce à l’analyse de carottes de glace extraites lors du forage NEEM1 mené par une équipe internationale de scientifiques impliquant en France, le CNRS, le CEA, l’UVSQ, l’université Joseph Fourier2 et l’IPEV. Les chercheurs ont pu récupérer pour la première fois en Arctique de la glace formée lors de la dernière période interglaciaire, il y a 130 000 à 125 000 ans, marquée par un important réchauffement arctique. Selon leurs travaux, la calotte du Groenland aurait contribué seulement de 2 mètres aux 4 à 8 mètres de montée du niveau marin caractéristique de cette période. Publiée le 24 janvier dans Nature, cette étude apporte des informations précieuses pour comprendre les relations entre climat et montée du niveau des mers.

A partir de ces analyses, les scientifiques ont été en mesure de décrire les changements climatiques sur les derniers 130 000 ans au Groenland. Résultats : durant l’Eemien, il y a 130 000 à 125 000 ans, le climat du nord du Groenland aurait été de 4°C à 8°C plus chaud qu’actuellement. Ces températures sont plus élevées que celles simulées par les modèles de climat pour cette période3. Pour autant et de manière surprenante, l’altitude de la calotte, au voisinage de NEEM, n’a baissé que de quelques centaines de mètres sous le niveau actuel. En effet, au début de la période interglaciaire, il y a environ 128 000 ans, elle était 200 mètres plus élevée que le niveau actuel, puis l’épaisseur de la calotte a diminué à un rythme d’en moyenne 6 cm par an. Ensuite, il y a près de 122 000 ans, l’altitude de la surface était environ 130 mètres sous le niveau actuel. L’épaisseur de la calotte est alors restée stable (autour de 2 400 mètres) jusqu’au début de la dernière glaciation, il y a près de 115 000 ans. La calotte du Groenland n’a donc pu contribuer que de 2 mètres aux 4 à 8 mètres de la montée du niveau marin caractéristique de l’Eemien.
Par ailleurs, les chercheurs estiment que le volume de la calotte du Groenland a diminué d’environ 25% en 6 000 ans durant l’Eemien. Au cours de cette période, une intense fonte de surface est enregistrée dans les carottes de glace par des couches de regel. Ces dernières résultent de l’eau de fonte, fournie par la neige de surface, qui s’est infiltrée dans les couches de neige plus profondes puis a regelé. De tels évènements de fonte sont très rares au cours des derniers 5 000 ans, confirmant que la température de surface au site de NEEM était nettement plus chaude pendant l’Eemien qu’actuellement. Ce phénomène a tout de même été observé durant l’été 2012 par l’équipe présente sur le site du forage NEEM.







La dangereuse imposture nucléaire

Par Jean-Jacques Delfour, professeur de philosophie en CPGE, ancien élève de l’ENS de Saint-Cloud


L’information commence à émerger : dans la centrale nucléaire de Fukushima, la piscine du réacteur 4, remplie de centaines de tonnes de combustible très radioactif, perchée à 30 mètres, au-dessus d’un bâtiment en ruine, munie d’un circuit de refroidissement de fortune, menace l’humanité d’une catastrophe pire encore que celle de Tchernobyl. Une catastrophe qui s’ajoute à celle de mars 2011 à Fukushima : 3 réacteurs percés qui déversent leur contenu mortel dans l’air, dans l’océan et dans la terre.

Les ingénieurs du nucléaire ne savent pas quoi faire face à tous ces problèmes. Ils ont déclamé que la sécurité, dans le nucléaire, était, est et sera totale, que, lorsqu’une catastrophe majeure a lieu, personne n’a de solution à proposer. Telle est l’effroyable vérité que révèle Fukushima. Tchernobyl avait été mis au compte de l’incompétence technique des Soviétiques. Impossible de resservir la même fable politique.

Si l’on fait usage de sa raison, il ne reste qu’une seule conclusion : l’incompétence des ingénieurs du nucléaire. En cas de panne du circuit de refroidissement, si l’échauffement du réacteur atteint un seuil de non-retour, il échappe au contrôle et devient un magma en fusion de radionucléides, de métal fondu et de béton désagrégé, très toxique et incontrôlable (le corium).

La vérité, posée par Three Miles Island, Tchernobyl et Fukushima, est que, une fois ce seuil franchi, les ingénieurs sont impuissants : ils n’ont pas de solution. Ils ont conçu et fabriqué une machine nucléaire mais ils ignorent quoi faire en cas d’accident grave, c’est-à-dire « hors limite ». Ce sont des prétentieux ignorants : ils prétendent savoir alors qu’ils ne savent pas. Les pétroliers savent éteindre un puits de pétrole en feu, les mineurs savent chercher leurs collègues coincés dans un tunnel à des centaines de mètres sous terre, etc. Eux non, parce qu’ils ont décrété qu’il n’y aurait jamais d’accidents très graves.

pour aller plus loin

Matière noire: polémique entre astrophysiciens

vu sur http://sciences.blogs.liberation.fr

 

Nous ne voyons pas de matière noire dans notre coin de Galaxie, clamait une équipe d’astrophysiciens. Vos travaux sont «incorrects» les tance une autre équipe, dans un article soumis à la critique des pairs sur le site arXiv.org qui vient leur répliquer de manière assez sévère.

Dessin: la vision classique de la matière noire dans notre galaxie.

L’affaire démarre en avril dernier, avec un article dont l’Observatoire européen austral fait la publicité auprès des journalistes, puisque les données d’observations ont été réalisées à l’aide d’un de ses télescopes, à La Silla, au Chili.

Le 24 avril, je publie sur le blog une note qui présente l’affaire ainsi:

Foi d’étoiles, il n’y a pas de matière noire jusqu’à 13.000 années lumière autour du Soleil.

Cette observation récente d’astrophysiciens européens vient bousculer les idées dominantes dans les laboratoires d’astrophysique. On y pense, en général, que l’Univers contient plus de 80% d’une matière inconnue, baptisée «noire» pour souligner son invisibilité et notre ignorance à son sujet. Depuis plusieurs décennies, on cherche en vain à la détecter, mais son existence semblait bien établie. Or, aucune trace de cette matière mystérieuse, d’après les mouvements des étoiles dans notre banlieue galactique.

C’est une patiente observation des mouvements de plus de 400 étoiles géantes rouges, situées à des altitudes très différentes au-dessus du plan de la Galaxie et dans la direction du pôle Sud galactique, qui est à l’origine de cette affirmation pour le moins troublante pour les astrophysiciens.

Réalisée à lObservatoire de La Silla de l’Observatoire Européen Austral (dans les Andes chiliennes), cette observation visait à cartographier la matière noire à travers son influence gravitationnelle sur les mouvements des étoiles. Or, explique le responsable de l’équipe, Christian Moni Bidin (Departamento de Astronomía, Universidad de Concepción, Chili), «la quantité de masse que nous avons déduite correspond très bien à ce que nous voyons – les étoiles, la poussière et le gaz – dans la région autour du Soleil, mais cela ne laisse aucune place pour la matière supplémentaire – la matière noire – que nous pensions trouver. Nos calculs montrent qu’elle aurait dû clairement ressortir dans nos mesures. Mais elle n’est pas là !».

L’origine de l’idée d’une matière noire est déjà ancienne (Fred Zwicky en 1933) et provient de l’analyse des mouvement des galaxies dans les amas de galaxies. Puis, c’est la rotation des galaxies sur elles-mêmes qui a semblé imposer cette idée dans les années 1970. Elles vont trop vite – surtout les étoiles des bords – relativement à la masse visible.

Dans les années 1980, c’est l’analyse des effets de loupes gravitationnelles des amas de galaxies (graphique ci-contre) qui a fait supposer qu’ils hébergent dix fois plus de masse invisible que de masse visible. Les scénarios post Big-Bang, notamment, la densité de l’Univers et les «grumeaux» de la carte du rayonnement cosmologique (le fond diffus des photons émis lors du découplage entre matière et lumière lorsque la température de l’Univers a été assez refroidie, environ 300.000 ans après le Big-bang), ont aussi exigé cette masse supplémentaire.

Enfin, cette matière noire s’est imposée comme une composante indispensable dans les théories qui expliquent la formation des galaxies, car elles exigent plus de masse que celle qui est visible.

De quoi serait-elle constituée ? Dans les années 1990, les astrophysiciens, aidés des physiciens des particules comme Michel Spiro, ont cherché des milliards de milliards de Jupiter ou de «presque étoiles» (les Machos, massives compacts objects) qui auraient peuplé les halos des galaxies. En vain. Même échec pour la recherche de particules exotiques, des partenaires supersymétriques des particules connues… dans les accélérateurs de particules, dans les détecteurs de rayons cosmiques. L’instrument AMS (lire ici une note qui raconte toute l’histoire de cette recherche) acheminé à bord de la station spatiale internationale par la navette Discovery lors de son dernier vol en avril 2011 fait partie de cette recherche. Pour l’instant, les astrophysiciens sont bredouilles.

L’ article de Moni-Bidin et al. publié dans The Astrophysical Journal, va t-il remettre en selle les débats autour d’une modification de la loi de la gravitation comme alternative à l’idée de la matière noire ? Ou relancer les hypothèse sur sa distribution et sa nature ?

Voilà comment j’avais présenté la chose. Puis, deux jours après, j’ajoutais un complément à cette note, sur la base de discussions avec des astrophysiciens d’emblée très sceptiques sur les méthodes utilisées. Voici cet ajout:

Ajout le 26 avril: consultés par mes soins, certains spécialistes du sujet émettent les plus vives réserves sur cette étude. Michel Crezé – l’un des auteurs des articles cités en référence dans l’étude – est connu pour avoir montré avec les données du satellite d’astrométrie Hipparcos, de l’Agence spatiale européenne, que le centre de la Galaxie ne contenait pas autant de matière noire que ce que proposent les modèles standards cosmologiques fondés sur la matière noire. Il pourrait donc se trouver conforté par ce résultat. Or, il me confie par courriel: «Plusieurs effets concourent à faire que l’évaluation donnée par les auteurs de la précision de leur résultat est totalement irréaliste. La seule conclusion raisonnable à tirer de ce travail est qu’il conforte la conclusion de plusieurs de ses prédécesseurs : il n’y a pas de concentration de matière sombre dans le plan de notre galaxie mesurable avec les moyens actuels. Mais cela reste largement compatible avec la plupart des modèles cosmologiques incluant de la matière sombre. C’est évidemment moins enthousiasmant.

La raison pour laquelle nous pouvons être aussi affirmatifs est la suivante. Pour afficher les «barres d’erreurs» qu’ils annoncent, il faudrait que les auteurs aient identifié exhaustivement la petite colonie d’étoiles qui fait l’objet de leurs soins, et mesuré avec une précision extrême la répartition dans l’espace (donc les distances) et les trois composantes de la vitesse des membres de cette colonie. Ce programme qui donnerait (donnera) la réponse attendue sur la matière obscure locale à la précision qu’ils indiquent existe : c’est la mission GAÏA de l’agence spatiale Européenne.

Or il n’ont pas fait cela. D’une part leur échantillon comporte de nombreuses étoiles qui ne sont pas des membres de la colonie en question (ce n’est pas un jugement, eux-mêmes le disent) d’autre part ils ne mesurent pas les distances et pour les vitesses ils ne mesurent que la composante radiale. Tout le reste est tiré d’autres travaux et repose sur une grande part de modélisation dont il est extrêmement difficile d’évaluer l’impact.

Les auteurs se livrent bien à quelques analyses des effets possibles d’une défaillance de telle ou telle de leurs hypothèses, mais ils sont loin de faire le tour de toutes les causes d’erreur et de plus ils les examinent séparément.»

Cette critique assez vive aura t-elle une suite dans un commentaire envoyé à la revue scientifique où l’étude est parue ? Cela dépend de la manière avec laquelle les spécialistes vont débattre entre eux. Ils pourraient considérer qu’il vaut mieux attendre les observations plus précises de GAÏA.  Ce satellite de l’ESA doit en effet mesurer la position et les mouvements de plus d’un milliard d’étoiles dans notre Galaxie. Ce qui permettra de tester de façon beaucoup plus approfondie l’hypothèse de la matière noire, et si elle existe bien, de mesurer sa distribution spatiale.

Or, il semble que cette critique faite au pied levé soit confirmée par l’étude soumise par deux astrophysiciens, Jo Bovy et Scott Tremaine, du prestigieux Institute of Advanced Studies de Princeton, le havre pour happy few de la science où Einstein a fini sa carrière après avoir quitté l’Allemagne nazie. Bon, les deux auteurs ne sont pas Einstein. Jo Bovy est un jeune astrophysicien (thèse en mai 2011), mais qui a suffisamment impressionné pour se voir invité en tant que «Hubble fellow» à travailler à l’IAS après sa thèse. C’est plutôt Scott Tremaine le cador des deux, un astrophysicien expérimenté et couvert de médailles. En tous cas, ils ont passé à la moulinette les travaux de l’équipe de l’ESO et ont repris leurs calculs dont le traitement leur semble «incorrect». Eux, trouvent un résultat inverse : avec les mêmes données d’observation, ils estiment qu’il s’agit de «la mesure la plus robuste de la densité de matière noire locale à ce jour.»

Extrait de leur résumé : «Using the correct approximation that the circular velocity curve is flat in the mid-plane, we find that the data imply a local dark-matter density of 0.008 ± 0.002M⊙ pc−3 = 0.3 ± 0.1Gev cm−3, fully consistent with standard estimates of this quantity. This is the most robust direct measurement of the local dark-matter density to date.»

pour lire les commentaires des internautes

L’étoile la plus vieille connue dans l’Univers

Vu sur http://ciel.science-et-vie.com/

SDSS J102915+172927 du Lion, l’étoile la plus vieille connue dans l’Univers. Photo ESO.

C’est l’un des rêves des astronomes de ce début de troisième millénaire, et ce rêve pourrait bien se réaliser pour la génération de chercheurs actuelle, ou alors la prochaine, ou bien la suivante, qui scrutera le ciel reflèté par les miroirs géants des télescopes des décennies 2030-2050… La première étoile de l’Univers. Quand s’est-elle allumée, et comment ? La question se pose depuis près d’un siècle, depuis que, grâce aux travaux théoriques d’Einstein, de Lemaître et grâce aux observations de Hubble, on sait que l’Univers n’a pas toujours été tel qu’il est aujourd’hui, que le ciel actuel est le fruit d’une histoire, d’une évolution, débutée voici 13,7 milliards d’années et des poussières, au moment du big bang. A cette époque, qui marque l’origine de notre univers, si ce n’est l’origine de l’Univers en soi, le cosmos entier était un brouillard homogène et brûlant, constitué de près de 75 % d’hydrogène et de 25 % d’hélium, plus quelques traces de lithium : bref, l’Univers c’était du gaz chaud.

Très chaud (des milliards de milliards de milliards etc. de degrés) au moment même du big bang, si cette expression a un sens, moins chaud (trois mille degrés environ) 380 000 ans plus tard, pour cause d’expansion universelle – l’expansion de l’Univers est inscrite dans les gènes de l’Univers, d’après les cosmologistes – et franchement froid 100 millions d’années après le big bang. C’est à cette époque là que se cache, nimbée de voiles d’hydrogène, la toute première génération d’étoiles… La Nature a offert aux astronomes un outil puissant pour la trouver : la vitesse finie de la lumière, qui permet, à raison de 300 000 kilomètres toutes les secondes, de remonter toujours plus loin dans le temps lorsqu’on regarde plus loin dans l’espace. Mutine, elle a aussi fait en sorte que ce ne soit pas simple du tout, que d’aller contempler l’origine du monde : dans le cosmos relativiste qui est le nôtre, plus on s’approche du big bang, véritable horizon phénoménologique, plus son image nous fuit….

On ne connait pas encore la taille de ces premières structures cosmiques, on ne sait pas si l’Univers a commencé à se structurer en petits objets, des protos amas, ou en grands objets, des proto galaxies, ou même des proto amas de galaxies, voire tout en même temps, mais dans ces nuages de gaz, les premières étoiles ont émergé. Au sein des nuages, des noyaux plus denses et chauds se sont effondrés sur eux-mêmes jusqu’à ce que leur température centrale atteigne le point d’ignition thermonucléaire. Une étoile c’est çà : une sphère de gaz, chauffée par son noyau thermonucléaire.

Voilà pour les grandes lignes. L’ennui, c’est que cette belle fresque théorique souffre de nombreux angles morts. En particulier, les astronomes ont réalisé qu’il est très difficile, dans les conditions de l’Univers primordial, de fabriquer des étoiles ! On l’a vu plus haut, l’Univers, à l’époque, c’est 75 % d’hydrogène pour 25 % d’hélium. Or ce mélange n’est pas favorable à la formation d’étoiles…

De fait, il existe, pour les astronomes, deux axes de recherche possibles pour trouver les plus vieilles étoiles de l’Univers : d’abord, les chercher « sur place », à 13,5 milliards d’années-lumière de distance et les observer telles qu’elles étaient à l’époque. Ce sera peut-être bientôt envisageable : les étoiles primordiales, au moment de leur explosion, brillent entre un et dix milliards de fois plus que le Soleil : un télescope géant, tels le E-ELT ou le JWST, prévus pour la prochaine décennie, seront peut-être capables de les détecter. L’autre piste consiste à chercher ici et maintenant, dans la Voie lactée, de vieilles étoiles, nées il y a environ 13 milliards d’années, quelques dizaines ou centaines de millions d’années après la toute première génération stellaire…

C’est ce qu’a entrepris l’équipe de recherche européenne de Elisabetta Caffau, et c’est le résultat de cette recherche qu’elle a publié dans la revue scientifique Nature, ce 1 septembre 2011. Elisabetta Caffau, Piercarlo Bonifacio, Patrick François, Luca Sbordone, Lorenzo Monaco, Monique Spite, François Spite, Hans Ludwig, Roger Cayrel, Simone Zaggia, François Hammer, Sofia Randich, Paolo Molaro et Vanessa Hill, ont observé avec le Very Large Telescope de l’ESO l’étoile SDSS J102915+172927. Cette très discrète étoile, un peu moins massive que le Soleil, se trouve à 4000 années-lumière d’ici, dans la constellation du Lion. Cet astre appartient à une liste de près de trois mille étoiles que l’équipe de Elisabetta Caffau soupçonne d’être très anciennes. C’est un spectre, obtenu avec le VLT, qui a permis de confirmer l’âge extraordinaire de SDSS J102915+172927 : environ 13 milliards d’années. Mais une surprise de taille attendait l’équipe européenne : d’après les données du VLT, cette petite étoile est composée à 99,999 % d’hydrogène et d’hélium, plus 0,00007 % d’atomes lourds ! En clair, la composition de l’Univers primordial… Or, d’un point de vue théorique, c’est en principe impossible, puisque seules des étoiles supergéantes – plusieurs centaines de fois plus massives que SDSS J102915+172927 ! – peuvent se former dans le gaz primordial. Ainsi, l’équipe de Elisabetta Caffau a mis la main sur une pépite : SDSS J102915+172927 est probablement l’une des plus vieilles étoiles de notre galaxie, la Voie lactée. Cet astre, extraordinairement vieux, aux caractéristiques inattendues, va obliger les théoriciens à revoir… leurs théories sur la genèse des premières étoiles. Si peu de chercheurs considèrent que SDSS J102915+172927 va bouleverser les scénarios cosmologiques actuels, il est néanmoins certain que la vénérable étoile – née plus de huit milliards d’années avant notre système solaire… – va être l’objet, dès que la constellation du Lion réapparaîtra dans le ciel, à la fin de l’hiver 2012, de toute l’attention des astronomes.

Serge Brunier

 

 

 

Des dizaines de milliards de planètes pourraient présenter des signes de vie sur la Voie Lactée

vu sur express.be

Une équipe d’astronomes de l’Institut de planétologie et d’astrophysique de Grenoble vient de révéler que la Voie Lactée pourrait contenir des dizaines de milliards de planètes avec une température qui pourrait permettre le développement de la vie.

Les chercheurs sont arrivés à cette conclusion après avoir étudié 102 étoiles du type « naines rouges » au moyen d’un télescope dans un observatoire chilien. L’équipe, menée par Xavier Bonfils, indique que les planètes rocheuses du type super-Terre (c’est-à-dire avec une masse jusqu’à 10 fois supérieure à celle de la Terre) sont bien plus communes dans notre système solaire que les planètes gazeuses telles que Jupiter et Saturne.

Selon leurs estimations, les naines rouges représentent 80% des étoiles de la galaxie de la Voie Lactée, soit 160 milliards d’étoiles. 40% d’entre elles pourraient avoir en orbite des planètes de type super-Terre

Comme les naines rouges sont moins lumineuses et moins torrides que le Soleil, toute planète avec de l’eau liquide devrait s’en trouver beaucoup plus proche que nous ne le sommes du Soleil pour permettre l’apparition de la vie, mais cela implique qu’elle serait irradiée de rayons X et d’ultraviolets nuisibles à la vie.

Les chercheurs, qui ont publié les résultats de leurs travaux dans le journal Astronomy & Astrophysics, voudraient maintenant étudier l’une de ces planètes comparables à la Terre situées sur l’orbite des naines rouges qui nous sont les plus proches pour obtenir des informations sur leurs atmosphères et rechercher de possibles signes de vie…

Des mirages dans le cosmos

Vu sur ciel.science-et-vie.com

 

Début février, le STSCI (Institut scientifique du télescope spatial Hubble) a rendu publique une image extraordinaire prise avec le plus célèbre des télescopes. L’image, qui ouvre cet article, montre, autour d’un amas de galaxies lointain, un jeu délicat d’auréoles bleutées, à l’étrange symétrie. J’y reviendrai plus loin… Mais, au delà de la découverte qu’annonce le communiqué de presse du STSCI, centré sur l’image du télescope spatial, il est intéressant de remonter à la source de cette découverte, de montrer comment elle a été rendu possible, de révéler l’effort incroyable que doivent faire les astronomes aujourd’hui pour explorer l’Univers. C’est comme cela, seulement, que la photographie prise par Hubble prend tout son sens…

La clé, et l’origine, de cette histoire, c’est le nom de cet amas de galaxies : RCS2 032727-132623. RCS2 ? Red Sequence Cluster Survey n°2. 032727-132623 ? Ce sont les coordonnées, en ascension droite et en déclinaison (la longitude et la latitude, dans le ciel), de l’astre observé : désormais, le nombre d’objets célestes détectés par les télescopes est tellement énorme que les astres sont ainsi nommés, avec en en-tête, le nom du relevé scientifique ou du télescope, suivi d’un numéro, les coordonnées de l’astre, donc. Le RCS2 est un grand relevé astronomique, c’est à dire un scan complet de plusieurs régions célestes, effectué en 2008 avec le télescope franco-canadien d’Hawaï (CFHT)….

Le RCS2 a réalisé son objectif : le relevé a permis la découverte d’environ vingt mille amas de galaxies, jusqu’à une distance de l’ordre de sept milliards d’années-lumière… L’analyse des champs photographiés par le couple CFHT/Megacam est humainement impossible : Equivalent à une photographie qui compterait une centaine de milliards de pixels, le RCS2 a enregistré plusieurs centaines de millions de galaxies, perdues parmi plusieurs millions d’étoiles… C’est donc à un logiciel d’intelligence artificielle, doué pour l’astronomie, appelé PPP (Picture Processing Package), qu’a été confié la tâche pharaonique de trouver les amas galactiques et, parmi eux – oui, on y arrive – le fameux amas RCS2 032727-132623…

Cet amas de galaxies, situé à environ cinq milliards d’années-lumière de la Terre, exhibe une masse totale de plus de cent mille milliards de masses solaires. Or, on sait depuis 1915 et la publication de la théorie de la relativité générale par Albert Einstein, que l’espace-temps est déformé par les masses qu’il contient. Chaque astre de l’Univers – planète, étoile, galaxie, amas – est en quelque sorte un « puits gravitationnel » dans la trame de l’espace-temps : les rayons lumineux qui passent non loin d’un astre, quel qu’il soit, sont légèrement déviés dans leur trajectoire, ils suivent non plus une ligne droite, mais une géodésique de l’espace-temps ; en bref, leur trajectoire s’incurve en passant non loin du puits gravitationnel. Le cas extrême de cette courbure de l’espace-temps, c’est bien sûr le trou noir : le puits, ici, est sans fond, la lumière « tombe dedans », et on ne voit plus rien. Les astronomes, depuis une vingtaine d’années, mettent à profit cet extraordinaire phénomène naturel, car, comme dans l’Univers, la plupart des structures ont une symétrie sphérique, l’espace courbé autour des masses cosmiques se comporte comme une véritable lentille : il agrandit la taille de l’astre se trouvant par hasard exactement dans l’axe Terre-lentille et amplifie sa luminosité, d’un facteur pouvant atteindre 10 à 100 fois…

nous observons aujourd’hui cette galaxie telle qu’elle existait voici dix milliards d’années, c’est à dire moins de quatre milliards d’années après le big bang –…

La galaxie RCS2 032727-132609 (ou plutôt les divers arcs lumineux qui la représentent) est désormais la plus lumineuse et la plus grande galaxie connue dans l’Univers très lointain

Regardez bien la photographie prise par Hubble… Ce document est exceptionnel. D’abord, l’alignement géométrique entre la Terre, l’amas de galaxies et la galaxie amplifiée est d’une extraordinaire perfection : sur les quelques dizaines de milliers d’amas enregistrés par le RCS2, seuls une cinquantaine se sont révélés comme des amas lentilles… Le champ de l’image, à la distance de l’amas lentille, mesure un peu plus d’un million d’années-lumière. L’amas RCS2 032727-132623 contient des centaines de galaxies, dont Hubble parvient, ici, à percevoir quelques dizaines seulement : ce sont des galaxies elliptiques géantes, de couleur jaune : chacune d’entre elles compte cent à mille milliards d’étoiles…

Au dessus et à gauche de l’amas, et en bas et à droite, apparaissent les « mirages gravitationnels », bleutés : il s’agit de quatre images, déformées, de la galaxie RCS2 032727-132609, située en réalité cinq milliards d’années-lumière derrière l’amas. La puissance de la lentille gravitationnelle est telle qu’il est possible de reconnaître une galaxie spirale, parcourue de zones de formation d’étoiles. Même si, bien sûr, l’image de la galaxie RCS2 032727-132609 est déformée, elle constitue une source d’information unique pour les astronomes. Ils connaissent déjà la distance de cette galaxie (dix milliards d’années-lumière, sa masse, dix milliards de masses solaires, sa luminosité réelle, six fois plus importante que celle de la Voie lactée… Les astronomes savent déjà qu’ils ont sous les yeux une jeune et brillante galaxie spirale, qui produit près de quatre vingt nouvelles étoiles par an, c’est à dire cent fois plus – à masse égale – que la Voie lactée aujourd’hui !

Pour lire tout l’article

Le boson de Higgs découvert avec 99,9999 % de certitude

vu sur le Monde/sciences

Cette fois, il n’y a plus de doute. Une nouvelle particule a bien été découverte au Centre européen de recherche nucléaire (CERN), près de Genève, grâce à l’accélérateur de particules LHC et ses deux principaux détecteurs, Atlas et CMS.

Le CERN et les deux porte-paroles de ces expériences ont annoncé avoir mis au jour un boson ressemblant fort au célèbre boson de Higgs. Cette particule, qu’il convient plus exactement de nommer « de Brout-Englert-Higgs » du nom de ses géniteurs théoriciens, est la pièce manquante au bel échafaudage construit par les physiciens pour décrire le monde de l’infiniment petit.

A l’issue de la présentation des résultats au CERN, l’Ecossais Peter Higgs, qui a donné son nom à ce Boson, a tenu à féliciter toutes les équipes ayant participé à la détection de cette particule. « C’est extraordinaire que cela soit arrivé de mon vivant », a-t-il déclaré. Le Belge François Englert, qui lui aussi avait été convié à la conférence du CERN, s’est associé à ces félicitations. Il a tenu à exprimer « sa tristesse que notre collaborateur et ami de toute une vie, Robert Brout, n’ait pas pu assister à cette extraordinaire présentation ». Englert et Brout avaient cosigné en août 1964 un article décrivant un mécanisme donnant une masse aux particules. Peter Higgs avait décrit une particule du même type le 15 septembre 1964. La dénomination populaire du boson n’a retenu que son nom, sous l’influence de Steven Weinberg (Nobel de physique 1979) qui a contribué à vulgariser cette particule.

Elle joue un rôle majeur dans la nature car, sans elle, les particules n’auraient pas de masse. C’est comme si des objets initialement sans masse traversaient un milieu visqueux et se mettaient donc à peser de plus en plus lourd. La manière d’agréger la « boue » dépendant de l’interaction avec le fameux boson. Ainsi l’électron devient l’objet que nous connaissons et peut ensuite donner naissance à des atomes, des molécules… Bref à toute la matière qui nous entoure.

Lire : « Le boson de Higgs : les raisons d’une quête »

Il s’agit de la première particule élémentaire découverte depuis 1994. Elle était la dernière à échapper aux recherches et complète admirablement le modèle standard, sorte de table de la loi de la physique qui décrit les douze particules et les trois forces qui les unissent pour former la matière ordinaire.

découverte de deux trous noirs géants

 Deux trous noirs ayant une masse correspondant à près de dix milliards de fois celle du Soleil, un record absolu, ont été découverts au cœur de deux galaxies géantes situées à plusieurs centaines de millions d’années-lumière de la Terre, selon une étude publiée lundi 5 décembre.

 

pour aller plus loin….

 

prix Nobel de physique pour la découverte de l’accélération de l’expansion de l’univers

   vu sur : http://www.20minutes.fr/sciences/799456-prix-nobel-physique-decerne-perlmutter-schmidt-riess

 

 

SCIENCES – Les chercheurs ont découvert le phénomène d’accélération de l’expansion de l’Univers…

Les astrophysiciens Saul Perlmutter, Brian Schmidt et Adam Riess se sont vus attribuer ce mardi le prix Nobel de physique. Ils sont récompensés pour leur travaux, qui ont permis de révéler «l’accélération de l’expansion de l’Univers» grâce à «l’observation de supernovas lointaines», a révélé l’académie royale suédoise des Sciences dans un communiqué.

Permutter, 52 ans, et Riess, 42 ans, sont Américains, tandis que Schmidt, 44 ans, possède la double nationalité américaine et australienne.

Saul Permutter, responsable du «Supernova cosmolgy project» , une des deux équipes qui a permis de mener à la découverte, touchera la moitié de la récompense de 10 millions de couronnes suédoises. Brian Schmidt et Adam Riess se partageront l’autre moitié. Les vainqueurs recevront leur prix  lors d’une cérémonie qui aura lieu le 10 décembre.

«Cela semblait complètement fou comme résultat»

«Ils ont étudié plusieurs dizaines d’étoiles en explosion, appelées supernovae, et découvert que l’expansion de l’univers accélère constamment. Cette découverte a été une surprise totale pour les lauréats eux-mêmes», a déclaré l’Académie royale des sciences. Cette découverte remonte à 1998, dix ans après les premiers travaux lancés par Saul Perlmutter et son équipe, quatre ans après ceux entamés par Brian Schmidt et Adam Riess.

Les chercheurs s’en sont rendu compte en étudiant les supernovae très éloignées, dont ils ont observé la lumière pâlir. «Cela semblait complètement fou comme résultat et je crois qu’on avait un peu peur», s’est souvenu Brian Schmidt lors d’une conférence de presse téléphonique. Depuis les années 1920, on sait que l’univers s’étend, conséquence du Big Bang il y a 14 milliards d’années, mais on ignorait jusqu’aux travaux du trio que cette expansion allait en s’accélérant. Si cette accélération se poursuit, prédisent d’ailleurs les chercheurs, l’univers finira glacé.

Cette accélération serait due à l’énergie noire, une sorte de gravité inversée, qui repousse tout ce qui s’en approche. L’énergie noire, qui demeure une des grandes énigmes de la physique, constituerait les trois quarts de l’univers.

Le prix Nobel de physique a été créé il y a 110 ans, en 1901. Il avait été décerné cette année-là à l’inventeur des rayons X, l’Allemand Wilhem Röntgen.

La plus forte éruption solaire depuis 2005

La plus forte éruption solaire depuis 2005 s’est produite le 19 janvier. « L’éruption elle-même n’avait rien de spectaculaire mais elle a projeté dans l’espace une masse coronale (nuage de plasma au champ magnétique intense) à la vitesse phénoménale de 6,4 millions de kmh », a déclaré à l’AFP Doug Biesecker, physicien au Centre de prévision météorologique spatiale de la NOAA (1).

D’après les prédictions de la NOAA , le plus fort de l’interaction de cette bouffée de particules avec le champ magnétique terrestre est attendu le 24 janvier vers 14h UTC (plus ou moins 7h).

Cette tempête géomagnétique est classée « catégorie 3 » sur une échelle qui en compte 5. Elle est donc considérée comme « forte » mais pas « sévère ». Néanmoins elle peut provoquer des perturbations dans les systèmes informatiques embarqués à bord de satellites, et dans les communications radio au niveau des pôles.

L’autre conséquence attendue est la survenue d’aurores boréales en Europe et en Asie, provoquées par le piégeage des particules chargées du Soleil dans le champ magnétique de notre planète.

Qu’est-ce qu’une éjection de masse coronale ?
L’atmosphère solaire la plus externe, la couronne solaire, est structurée par de forts champs magnétiques. Lorsque ces champs sont fermés, souvent au dessus de tâches solaires, l’atmosphère confinée solaire peut soudainement et violemment libérer des bulles de plasma, gaz complètement ionisé, et des champs magnétiques appelés éjections de masse coronale.

Les éjections de masse coronale ou CME (en anglais, coronal mass ejection) sont des phénomènes à grande échelle : leur taille peut atteindre plusieurs dizaines de rayons solaires. Elles modifient les caractéristiques du vent solaire, se déplaçant à très grande vitesse dans le milieu interplanétaire (entre 100 km/s et 2 500 km/s) et peuvent parcourir la distance Terre-Soleil en quelques jours (typiquement trois jours).

Le champ magnétique des CME est très fort : une CME atteignant la Terre peut donc provoquer des orages magnétiques en interagissant avec le champ magnétique terrestre.

vu sur science.gouv.fr

Manteau océanique: le plus grand habitat microbien sur Terre?

 

Vu sur http://www.techno-science.net/

S’il est désormais admis que la vie colonise tous les recoins habitables de notre planète, roches incluses, l’étendue de cette colonisation et les stratégies mises en oeuvre par les microorganismes pour se développer dans ces environnements dit extrêmes, mais plus encore, leur impact sur le bilan carbone de notre planète, restent encore à élucider. Une équipe pluridisciplinaire composée de chercheurs français de l’Institut de Physique du Globe de Paris (Université Paris Diderot – PRES Sorbonne Paris Cité – CNRS) et italiens de l’Université de Modena e Reggio Emilia a récemment mis en évidence la présence de niches microbiennes dans le manteau océanique hydraté, environnements qui pourraient bien avoir hébergé les premières formes vivantes sur notre planète. Cette découverte a été publiée en ligne le 10 janvier 2012 par la revue Nature Geoscience.

Observations en microscopie électronique à balayage de niches microbiennes (hydrogrenats en bleu) au sein de pyroxènes serpentinisés, mettant en évidence des assemblages atypiques de minéraux (serpentines polyhédrales, en vert, et oxydes de fer, en rouge) intimement associés à des molécules organiques dont la signature obtenue par spectroscopie Raman atteste d’une origine biologique (reliques du  » biofilm  » en jaune).
© IPGP (CNRS, Univ Paris Diderot, PRES Sorbonne Paris Cité)/Università di Modena e Reggio Emilia
Ces nouvelles signatures du vivant reportées dans un contexte rappelant l’environnement de notre Terre Hadéenne (4,5 – 3,8 milliards d’années), ouvrent  des perspectives intéressantes autour de l’émergence de la vie sur notre planète. Pour que les premières cellules vivantes puissent apparaître à partir de CO2, de roches et d’eau, une source soutenue d’énergie est nécessaire. La serpentinisation, désormais considérée avec une attention croissante, apparait comme un candidat de choix. Source naturelle d’énergie chimique, elle aurait pu fournir les premières voies biochimiques qui sous-tendent l’apparition et le développement d’écosystèmes microbiens, exploitant, plutôt que provoquant, des processus géochimiques existants. Dans cette perspective, les hydrogrenats ont dès lors pu constituer un environnement prébiotique plus que favorable.Référence:

Life in the hydrated suboceanic mantle, Bénédicte Ménez, Valerio Pasini and Daniele Brunelli, Nature Geoscience, doi:10.1059/ngeo1359


 

Sept expériences qui peuvent changer le monde

Broché: 265 pages

  • Editeur : Du Rocher (21 avril 2005)

 

 

 

 

 

Le biologiste Rupert Sheldrake propose sept expérience fascinantes qui pourraient bouleverser notre vision de la réalité. Les scientifiques n’ont jamais réussi à expliquer des phénomènes aussi courants que la migration des oiseaux, la construction des nids hautement complexes des termites ; le  » sixième sens  » de nos animaux domestiques. Ils en viennent même à se demander si les  » constantes fondamentales  » de la nature sont effectivement constantes !…. La nature renferme indubitablement des mystères qui défient les connaissances scientifiques les plus poussées. Plutôt  de les ignorer ou de les balayer d’un haussement d’épaules, Rupert Sheldrake propose de les attaquer de front. Pour ce faire, il suggère un véritable programme de recherche, qui présente l’avantage d’être à la portée de chacun, tant sur le plan de l’investissement que de la compréhension.
Parfaitement rigoureux en termes scientifiques, le protocole exposé renferme le germe d’une vision révolutionnaire de l’homme et de la nature.


le boson de Higgs et la masse

La chasse au boson de Higgs touche, presque, à sa fin

Récit | | 13.12.11 | 13h05   •  Mis à jour le 13.12.11 | 16h38a

vu : http://www.lemonde.fr/planete/article/2011/12/13/la-chasse-au-boson-de-higgs-touche-presque-a-sa-fin_1617905_3244.html

Simulation du boson de Higgs au CERN.AFP/FABRICE COFFRINI

Les mailles du filet se resserrent autour d’une mystérieuse particule, le boson de Higgs, la pièce cruciale – encore manquante – du modèle standard de la physique. Certes, il échappe toujours à la traque menée dans le temple de la recherche internationale dans le domaine de l’infiniment petit, l’Organisation européenne pour la recherche nucléaire (CERN) de Genève. Mais les caches où il pourrait se dissimuler sont de plus en plus réduites.

Le directeur général de l’installation, Rolf-Dieter Heuer, et les responsables des deux principales expériences, Fabiola Gianotti (pour l’équipe d’Atlas) et Guido Tonelli (pour celle de CMS), devaient dévoiler, mardi 13 décembre après-midi, les résultats très attendus d’une année consacrée à tenter de percer les secrets de la matière. Leur espoir est de trouver le chaînon manquant qui permettrait de résoudre un des grands mystères de l’Univers : pourquoi les particules élémentaires ont-elles une masse ? Le responsable présumé est cet insaisissable boson, dit de Brout-Englert-Higgs (du nom des théoriciens qui ont postulé son existence), ou tout simplement de Higgs. Mais personne ne l’a encore jamais vu.

D’où la construction d’un microscope géant, le Large Hadron Collider (LHC), qui, depuis fin 2009, fracasse à grande vitesse des protons les uns contre les autres, dans un manège souterrain de 27 kilomètres de circonférence. Dans ce genre d’expérience, « voir » c’est en effet « détruire ». Et, comme pour une orange pressée, les chercheurs espèrent faire sortir un pépin – le Higgs – de ces collisions à très haute énergie.

Ce pépin, les responsables des expériences Atlas et CMS ne l’ont pas encore observé. Mais, mardi, ils devaient confirmer les rumeurs qui circulaient ces derniers jours. Un « frémissement » de boson est apparu sur leurs écrans, indiquant une masse possible, pour cette particule furtive, de quelque 133 fois la masse du proton, soit environ 125 giga-électrons-volts (GeV) dans les unités utilisées en physique. Sur les courbes enregistrant les collisions, ce frémissement prend la forme d’une légère bosse.

Eurêka ? Pas encore. Trouver ce boson n’est pas comme découvrir la mâchoire d’un australopithèque dans des sédiments africains, ou une nouvelle molécule dans une éprouvette. Dans le monde de l’infiniment petit, les statistiques règnent en maître. Ainsi, les signaux détectés et attribués au Higgs auraient une chance sur 300 d’être le fait du hasard. C’est peu, mais encore bien trop pour sonner l’hallali. Cela suffit toutefois pour affirmer, en langage de physicien, que « la courbe d’exclusion n’exclurait pas le boson de Higgs à basse masse ». Autrement dit, qu’il y a comme un pépin qui semble percer la peau d’orange, dans une fourchette de masse comprise entre 115 et 130 GeV.

Simulation du boson de Higgs au CERN.D.R.

Les chercheurs ne seront sûrs de leur fait que lorsque les lois statistiques leur diront qu’il existe moins d’une chance sur plus d’un million que le phénomène observé soit dû à un aléa expérimental. Pour ce faire, ils doivent, comme il en va pour les sondages, multiplier le nombre de collisions entre protons, donc le nombre possible d’apparitions d’un Higgs. On ne parle pas là d’un petit millier de « personnes interrogées », mais de millions de milliards de collisions. C’est dire si la chasse est délicate.

Pour l’ensemble de l’année 2011, sur quelque 400 000 milliards de collisions, une dizaine de sondés seulement ont répondu « oui » : une dizaine de chocs dans lesquels un boson de Higgs serait apparu avant de se désintégrer aussitôt en d’autres particules, repérées par les détecteurs CMS et Atlas. Pour atteindre le niveau de précision requis, il faudra tripler, voire quadrupler le nombre de collisions l’an prochain. Fonctionnant 24 heures sur 24, le LHC devrait atteindre ce niveau avant l’été. On saura alors sans doute définitivement si les signaux présentés mardi persistent et sont donc bien imputables au Higgs.

« Nous observons une mer bouillonnante et, de temps en temps, une vague passe au-dessus de la jetée. C’est une fluctuation qui ne nous intéresse pas. Nous devons descendre tout près de la surface de cette mer agitée pour trouver quelque chose qui sorte de l’ordinaire », image Yves Sirois (CNRS), de l’expérience CMS. Malgré toutes les données déjà accumulées, « nous restons prudents », souligne Daniel Fournier (CNRS), de l’expérience Atlas. Si finalement bosses et pics se dégonflent, les physiciens devront soit prendre encore plus de temps pour fouiller d’ultimes recoins mal explorés, soit se passer du Higgs pour expliquer la masse des particules.

Les idées ne manquent pas. Du reste, même avec une éventuelle découverte du boson de Higgs certifiée conforme aux canons de la rigueur scientifique, l’histoire ne s’arrêtera pas l’été prochain. Il faudra jauger la bête, la tester. Car sur le papier, plusieurs bosons existent. Certains portent une charge électrique, d’autres non. Ils peuvent interagir avec les autres particules plus ou moins fortement. Certains ne seraient même pas des particules élémentaires ! Ces « détails » sont fondamentaux pour poursuivre le chemin, encore inconnu, qui mène des énergies sondées actuellement jusqu’à celles qui régnaient aux débuts de l’Univers, lorsque tout n’était qu’une « soupe » de particules élémentaires extrêmement chaudes et agitées.

Quelles lois physiques régissent ces domaines d’énergie que le LHC commence à peine à sonder ? Telle est la quête dont le boson n’est que la première étape. En fonction des résultats de 2012, des choix seront faits, en concertation internationale, pour savoir quel type d’accélérateur-microscope sera nécessaire : un « bélier » avec des protons pour explorer des énergies toujours plus hautes, ou un scalpel très fin avec des électrons, pour décrire au mieux ce qui se passe déjà aux échelles d’énergie du LHC ? C’est le financement et la localisation de ces recherches qui seront alors peut-être un pépin.

David Larousserie

Translate »