pour une présentation condensée sur le blog le Temple des Consciences :
—
Les facultés de télépathie, (échange entre personnes) de voyance , vision dans l’espace et le temps cette dernière qualité appelée clairvoyance, – qui regroupe la rétrocognition, (voir des événements du passé, la précognition (voir des événements du futur) de médiumnité, -perception de l’au-delà et des esprits- de psychokinèse-action par la pensée sur la matière-ou de voyage astral relèvent pour les unes du surnaturel – en lien avec un ou des mondes de l’au-delà, dieu, anges, entités diverses – et pour les autres de dispositions naturelles mais qui sont au delà du mental et donc relèvent de propriétés de conscience que je qualifie de transrationnelles. Jocelin Morisson parle ici de super pouvoirs.
Cet article est une illustration parfaite de ce que le site le Temple des Consciences va essayer de montrer : nous ne sommes pas que mental et raison et notre monde perceptible est beaucoup plus que le simple monde de la matière… pourtant déjà si complexe. Nous abordons là de façon non exhaustive d’autres dimensions de l’humain.
La théorie de l’évolution, elle-même, permet d’envisager le principe d’une évolution ultérieure des espèces et donc de l’homme. D’autre part, les sciences et les techniques l’orientent vers l’homme augmenté et le transhumanisme. Sans même s’opposer à cette dernière vision, certains pouvoirs possédés par des humains montrent d’autres orientations possibles pour notre humanité. C’est l’ouverture au-delà du mental qui crée un horizon immense : l’homme devient alors essentiellement spirituel. Il est le point de jonction entre matière et Esprit, entre le monde de la matière et le monde de la Lumière.
Déjà, des protocoles scientifiques sont mis en place pour approcher et prouver l’existence d’autres mondes, d’autres capacités ouvertes aux humains et pour aborder par exemple les états de conscience modifiés.
Les recherches sur la télépathie – Le terme télépathie est une francisation du mot anglais telepathy, inventé par le physicien Frederic William Henry Myers et al. en 1882– ont pris un essor en 1920 aux Etats-Unis avec le professeur Joseph Banks Rhine. Le chercheur allemand Stefan Schmidt a analysé 36 études d’interaction à distance entre systèmes vivants. Le chercheur américain Dean Radin a montré la fiabilité statistique de phénomènes psi.
En Occident, ces facultés sont largement ignorées de la science et même actuellement de l’Eglise alors que, par exemple et pour cette dernière, Paul – Corinthiens 12.1 à 12.11- énonce déjà un certain nombre de pouvoirs donnés aux hommes et qu’il appelle « dons » comme le don des langues, prophéties, miracles etc…
« 1 Corinthiens 12
…8En effet, à l’un est donnée par l’Esprit une parole de sagesse; à un autre, une parole de connaissance, selon le même Esprit; 9à un autre, la foi, par le même Esprit; à un autre, le don des guérisons, par le même Esprit;10à un autre, le don d’opérer des miracles; à un autre, la prophétie; à un autre, le discernement des esprits; à un autre, la diversité des langues; à un autre, l’interprétation des langues.… »
En revenant à l’évolution, sommes-nous devenus tous mutants ? cf les mutants de X-Men ?
Aldous Huxley marqua son intérêt pour les « potentialités humaines » et aborda ce thème en 1960 dans une conférence donnée en Californie qui fut à l’origine de la création de l’Institut Esalen. Dans un livre publié en 1992 et qui fait référence The Futur of the Body le cofondateur d’Esalen, Michael Murphy explique que le potentiel humain inclut toutes sortes de capacités supra-normales qui annoncent selon lui l’homme de demain.
et développe un projet « d’archéologie intuitive » en Méditérranée : le projet Oracle.
Dean Radin au sein de l’Institut des sciences noétiques – Californie-a testé l’action de la conscience sur la matière à l’échelle quantique par l’influence des méditants sur le passage des photons dans l’expérience très connue en physique quantique des fentes de Young.
les phénomènes psi
psychokinèse (PK) appelée parfois télékinésie: c’est l’action de la pensée sur la matière.
On distingue la macro-PK comme les déplacements d’objets ou les célèbres torsions de métal.
La micro-PK qui agit à l’échelle atomique ou subatomique comme l’influence sur des générateurs de nombres aléatoires.
Enfin la bio-PK concerne l’action à distance sur des systèmes vivants comme la guérison sans contact. Entrent dans cette catégorie les phénomènes de poltergeist, d’ectoplasmie.
La perception extrasensorielle désigne la télépathie, les différentes formes de voyance avec ou sans support : connaissance d’événements passés : rétrocognition ou d’événements à venir : précognition. La psychométrie, la clairvoyance à partir d’un objet et la radiesthésie, l’acquisition d’informations à l’aide d’un pendule ou d’une baguette de sourcier par exemple.
« Au commencement était le Verbe » et le Verbe était en Dieu et le Verbe était Dieu ( Jean 1,1)
La lumière, la vraie, celle qui éclaire tout homme, venait dans le monde.(Jean 1,9)
—
figures de Chaldni au Palais de la Découverte
« Si vous voulez comprendre l’univers, pensez à l’énergie, à la fréquence et à la vibration. » ~ Nikola Tesla
Regardez cette expérience de résonance extraordinaire…. La géométrie sacrée du son
Ces résultats sont tirés de l’expérience aux figures de Chladni à l’aide d’un générateur de sons, un pilote WAVE (système de haut-parleur) et une plaque métallique fixée au haut-parleur. Ajoutez du sable à la plaque et commencez ensuite à jouer une tonalité.
Certaines fréquences vont faire vibrer la plaque en métal de façon à ce qu’elle crée des zones où il n’y a aucune vibration. Le sable « se verse » sur ces zones en créant de beaux motifs géométriques. Lorsque la fréquence augmente les motifs à pas graphique dans les modes de tangage deviennent plus complexes.
Les “Cymatics” (expérience d’une interaction physique avec leur environnement sonore) révèlent la symétrie étrange et belle dans l’œuvre de la nature.
Inspirées par le travail du Dr Hans Jenny, les images sont le miroir des symétries trouvées dans le monde naturel, des formes dissimulées dans les flocons de neige aux formations nuageuses hexagonales massives trouvées sur Saturne.
à propos de la cymatique ; c’est un sous-ensemble de phénomènes vibratoires modaux. Le terme a été inventé par Hans Jenny disciple suisse de l’antrhoposophie. Différents modèles émergent dans le milieu excitateur en fonction de la géométrie de la plaque et de la fréquence d’entraînement.
Le musicien et physicien allemand Ernst Chladni a remarqué au XVIIIe siècle que les modes de vibration d’une membrane ou d’une plaque peuvent être observés en saupoudrant la surface vibrante d’une fine poussière (par exemple, de la poudre de lycopodium , de la farine ou du sable fin). La poudre se déplace sous l’effet de la vibration et s’accumule progressivement en des points de la surface correspondant à la vibration sonore. Les points forment un motif de lignes, appelées « lignes nodales du mode de vibration ». Les modes normaux de vibration, et le motif des lignes nodales associées à chacun d’eux, sont complètement déterminés, pour une surface à caractéristiques mécaniques homogènes, à partir de la forme géométrique de la surface et de la façon dont la surface est contrainte.
…
En 2014, le musicien Nigel Stanford a produit » Cymatics « , un clip instrumental et musical conçu pour démontrer les aspects visuels de la cymatique
Si Dieu est absolu, alors rien n’est impossible. Tel pourrait être le fil conducteur de la pensée de Léon Chestov, ce philosophe iconoclaste à la devise fracassante — « avec Dieu, sans maître » —, ce déconstructeur des idoles, fussent-elles chrétiennes, qui défend la liberté absolue du croyant contre toutes les nécessités ainsi que la philosophie existentielle contre la philosophie spéculative. Ce fil conducteur amène l’émigré russe, ami de Berdiaev et de Boulgakov et inspirateur d’un Albert Camus, à proclamer l’absurde salvateur contre la réalité implacable, la révélation contre la raison, la Bible contre Aristote — Jérusalem contre Athènes.
—
Léon Issaakovitch Chestov(en russe : Лев Исаакович Шестов), né Yehuda Leyb Schwarzmann (russe : Иегуда Лейб Шварцман) le 31 janvier 1866 ( dans le calendrier grégorien) à Kiev et mort le à Paris, est un avocat, écrivain et philosophe russe.
Il étudie la philosophie rationaliste de la tradition grecque et influence, dès 1933, Albert Camus, notamment dans Le mythe de Sisyphe et Caligula.
Fils d’industriel, il prend la direction de la manufacture de son père en 1908 après avoir vu son projet de thèse en droit refusé car jugé révolutionnaire. Il s’exile en 1919. Il séjourne notamment à Vienne, Berlin, Rome, Paris et effectue plusieurs séjours en Russie. Il s’installe en Suisse de 1910 à 1914 puis retourne s’installer à Moscou qu’il quitte définitivement en 1920 pour rejoindre sa soeur installée à Paris. Il déménagera à Boulogne Billancourt en 1930 où il résidera jusqu’à sa mort et il est enterré au nouveau cimetière Pierre Grenier à Boulogne Billancourt.
« Dieu n’a-t-il pas convaincu de folie la sagesse du monde ? », demande Paul, l’apôtre de l’Église, dans sa première épître aux Corinthiens.
Avant d’ajouter : « Car puisque le monde, avec sa sagesse, n’a point connu Dieu dans la sagesse de Dieu, il a plu à Dieu de sauver les croyants par la folie de la prédication. […] Dieu a choisi les choses folles du monde pour confondre les sages. » (1 Cor. 1, 20-27).
Est ainsi affirmée l’opposition absolue entre la sagesse de Dieu, qui est folie aux yeux du monde, et la sagesse du monde, qui est folie aux yeux de Dieu.
Pour Léon Chestov, cette sagesse du monde désigne la raison, la sophia grecque, la philosophie léguée par la pensée hellénistique. Or, comme le montre l’auteur russe dans Athènes et Jérusalem, il existe une contradiction indépassable entre la philosophie grecque et la pensée biblique, ces deux traditions antagonistes irriguant la pensée occidentale.
…
D’après notre auteur, la raison se définit elle-même comme la découverte, par l’intellect, de vérités supposées éternelles : « Les hommes, les grands comme les petits, naissent et meurent, apparaissent et disparaissent, mais les vérités demeurent. Quand personne n’avait commencé à penser, à chercher, les vérités qui plus tard se sont révélées aux hommes existaient déjà. Et lorsque les hommes auront définitivement disparu de la face de la terre, ou auront perdu la faculté de penser, les vérités n’en pâtiront pas. » Or, ces vérités sont éternelles parce que l’univers fonctionne selon des lois immuables, les lois physiques. La raison consiste alors à comprendre ces lois en admettant leur nécessité, l’anankè d’Aristote. Ainsi, la philosophie, l’usage de la raison, implique l’acceptation, voire la justification, de la nécessité.
…
La philosophie spéculative, inspirée de la pensée grecque, pousse les êtres humains à se soumettre aux lois du cosmos et à leur obéir, quel qu’en soit le coût. Les hommes, « contraints par la vérité même » (Aristote), n’ont d’autre choix que d’obéir à la nécessité, à laquelle même les dieux olympiens sont assujettis. Se révolter contre la nécessité relèverait de la pure folie, de l’hubris.
Pour Chestov, toute la pensée biblique constitue une révolte contre la nécessité et, partant, un attentat contre l’autorité de la raison.
Telle est la foi pour le penseur russe : l’homme touché par la grâce « oublie le pouvoir de la nécessité, la toute-puissance de cet ennemi ». Il affirme, contre l’inévitabilité de la mort, la résurrection des corps.
…
Contre la tentation de maints philosophes d’assujettir Dieu aux vérités de la raison, Chestov choisit, à l’opposé, de soumettre la vérité à Dieu : la vérité n’est pas une entité incréée et éternelle surplombant Dieu, elle est assujettie à Dieu qui peut donc l’abolir ou la modifier.
Ainsi, choisir de suivre Dieu revient à remettre en cause la nécessité et ses contraintes : « ce qui paraissait impossible devient possible et ce qui paraissait inaccessible devient accessible », puisque « Dieu, cela veut dire que tout est possible, qu’il n’y a rien d’impossible ». Dans les récits bibliques, les droits de la nécessité sont bafoués et, par conséquent, le pouvoir de la raison est mis en cause, puisque les morts peuvent ressusciter, les malades guérir, les faibles triompher des forts, les hommes marcher sur l’eau, la vierge enfanter… : « Rien n’est impossible à Dieu » (Lc. 1, 37).
…
De l’injonction de Chestov, après Pascal, à nous « abêtir » et à refuser la dictature de la raison découle sa critique d’une seconde idole, la morale : « Notre moralité, fondée sur la religion, nous interdit de nous hâter vers l’éternité. «
…
Pour Chestov, la recherche de la morale et de la vertu est ainsi à la base du péché et « le contraire du péché n’est pas la vertu mais la foi », c’est-à-dire la croyance selon laquelle rien n’est impossible à Dieu. Or, la foi conteste la morale puisqu’elle conduit « à fonder l’univers sur un arbitraire illimité » dépassant toute règle morale : la volonté de Dieu.
…
Outre la morale, Chestov s’en prend, au nom du christianisme, à toutes les autres idoles que l’homme rend absolues, c’est-à-dire qu’il met à la place de Dieu : « Le péché mortel des philosophes, ce n’est pas la poursuite de l’absolu : leur plus grand tort, c’est que lorsqu’ils constatent qu’ils n’ont pas trouvé l’absolu, ils sont prêts à reconnaître pour l’absolu l’un des produits de l’activité humaine — la science, l’État, la morale, la religion, etc. »
…
« Le juge suprême dans tous les différends, ce n’est pas l’homme, mais Celui qui est au-dessus des hommes. Et, par conséquent, pour trouver le vrai il faut se libérer de ce que les hommes considèrent ordinairement comme vrai. »Tout savoir, toute réalité, tout absolu humains sont donc, pour le croyant, relatifs et relativisés devant le « juge suprême » qu’est Dieu.
…
« la foi n’examine pas, elle ne regarde pas en arrière » vers un passé nostalgique mais constitue une lutte pour l’avenir, pour l’irruption du Royaume de Dieu futur dans notre présent humain. Ainsi que l’exprime Chestov, « une grande et dernière lutte attend les âmes. La philosophie […] est lutte. Et cette lutte n’aura pas de fin. Le royaume de Dieu, ainsi qu’il est dit, s’obtient par la violence ». Le croyant doit ainsi lutter, tel Jacob, contre Dieu, c’est-à-dire face à Dieu, auprès de Dieu, pour faire advenir l’impossible dans un monde fini, limité, humain.
Dans Athènes et Jérusalem, Chestov présente ses pensées les plus essentielles, qui toutes se ramènent à un unique credo sous-tendant sa réflexion : le salut de l’humanité ne pourra être atteint que par le rejet du savoir et de l’arbre de la connaissance au profit de la foi et de l’arbre de la vie.
L’auteur défend dans cette perspective une forme radicale de religiosité philosophique proche du fidéisme de Pascal, ainsi qu’un existentialisme judéo-chrétien parent de celui de Kierkegaard, et oppose la raison (« Athènes ») à la foi biblique (« Jérusalem »), unique voie d’accès à la vérité et à la liberté. Selon le philosophe russe Basile Zenkovsky (ru), c’est précisément dans cet ouvrage que Chestov « va jusqu’au bout de l’idée » selon laquelle « la véritable philosophie découle de l’existence de Dieu », et nous rapproche de « l’être authentique ».
Athènes et Jérusalem est reconnu pour ses qualités littéraires, et est même considéré par ses commentateurs comme la meilleure réalisation de la prose philosophique russe. Le texte est néanmoins émaillé de citations en grec ou en latin, ce qui peut en rendre la lecture difficile. Ouvrage d’inspiration biblique, Athènes et Jérusalem s’appuie essentiellement sur l’Ancien testament et s’inscrit en rupture avec la tradition gréco-latine du christianisme.
Pour Chestov, la pensée doit changer de nature, cesser d’être rationnelle et spéculative pour devenir une « vision surnaturelle » dépendant de la libre volonté. Ainsi une transformation du monde s’opère-t-elle, et l’être lui-même entre dans une nouvelle réalité où ses lois ne soumettent plus l’homme, mais sont au contraire soumises à sa volonté.
Alors que la majorité des philosophes, y compris ceux qui s’appuient sur l’intuition, ne traitent que de ce qui est « normal » ou « raisonnable », le véritable philosophe franchit quant à lui les limites de la raison, atteint celles de la vie – frayant ainsi avec la mort – et mène une existence libre en communion avec un Dieu prêt à lui donner tout son pouvoir.
Partie II – « les hommes vivants »
Opposant ici « le savoir et le libre arbitre », Chestov aborde les « hommes vivants » – Luther, Nietzsche, Kierkegaard – les « chevaliers de la foi » – Abraham, Moïse, Job – ainsi que le récit de la Chute, qui est au fondement de son ontologie et de son anthroposophie. Il affirme le lien originel, dès le péché d’Adam, entre le savoir rationnel et le mal, la raison excluant par nature la vérité de la foi. La cause du mal est l’action d’Adam après la Chute qui, effrayé par le néant, fait de la raison une nécessité toute puissante puis une catégorie esthétique.
Partie III – « Sur la philosophie médievale »
Dans cette troisième partie, intitulée « Sur la philosophie médiévale », est exposé le problème de la relation d’ « Athènes », c’est-à-dire de la sagesse humaine naturelle des Grecs, adeptes des « vérités éternelles », avec « Jérusalem », c’est-à-dire de la sagesse divine surnaturelle provenant de la foi biblique et de la « philosophie biblique ». Chestov s’emploie ardemment à démontrer l’impossibilité de jeter un « pont » entre Athènes et Jérusalem comme avait commencé à le faire Philon d’Alexandrie et, à sa suite, nombre de philosophes médiévaux comme saint Augustin ou Thomas d’Aquin. Il estime par ailleurs que les tentatives de restitution des vérités de la foi biblique réalisées par Tertullien, Pierre Damien, puis par Dostoïevski, Nietzsche et d’autres, ont échoué à cause de la grande difficulté qu’ont les Européens, élèves des Hellènes, de comprendre la parole de Dieu, pris qu’ils sont dans leur désir de savoir plutôt que de croire.
Partie IV – » la seconde dimension de la pensée »
La quatrième et dernière partie, nommée « La seconde dimension de la pensée », se distingue des précédentes par sa forme non construite, puisqu’elle est composée de divers aphorismes. Il s’agit pour Chestov d’exprimer le caractère paradoxal et antinomique d’un questionnement qui est similaire à celui que « nos ancêtres » adressaient à Dieu.
Chestov montre également qu’il existe dans l’âme humaine, au-delà des limites imposées par la raison universelle, des vérités singulières indémontrables qui sont pour elle « ce qu’il y a de plus important », et où réside l’insondable mystère de l’homme.
Conclusion : critique de la philosophie européenne
Athènes et Jérusalem constitue une critique radicale de toute la tradition philosophique de l’Europe, ainsi que de toute la théologie dogmatique ou rationaliste d’inspiration philosophique.
La conclusion finale de sa critique de la tradition philosophique européenne est alors double :
la philosophie est une entreprise intellectuelle totalitaire fondée sur le pouvoir de la raison.
la culture européenne, fondée sur l’idée de la raison illimitée, se révèle être un culte de la violence et de l’intolérance.
Apologie de l’impossible
Léon Chestov défend dans Athènes et Jérusalem une philosophie existentielle où la liberté doit pouvoir s’exercer sans aucune limite. Cette philosophie qu’il juge la seule authentique est une lutte pour l’impossible motivée par la foi. Elle aspire non pas à comprendre le monde ou la vie, mais à vivre dans la croyance religieuse, à s’engouffrer dans l’abîme insondable et fantastique de la foi. La foi biblique est pour Chestov la réalité vivante de l’impossible, et en ce sens, le plus grand miracle de Dieu et son plus grand don. Elle se présente comme un « démon » auquel il faut s’en remettre, une force centrifuge qui entraîne aux confins de la vie et de la mort.
L’impossible est par définition irréalisable et même impensable si l’on ne renonce pas aux notions grecques du vrai et du bien, de la raison et de la science, renoncement qui, pour Chestov, doit se faire au nom du Dieu vivant de la Bible, éternellement caché mais essentiel. Chestov considère ainsi que les profondeurs de l’être cachent « un monde autre », proprement spirituel, où les lois n’ont pas de caractère contraignant. Dans ce monde fantastique, l’homme se doit d’être libre et créateur, fantasque lui-même, car il a été fait à l’aune de Dieu. Celui-ci n’exige d’ailleurs de l’homme que l’impossible, comme avec le Job de la Bible ou l’homme du souterrain de Dostoïevski, car dans ses veines coule « un sang de roi » par lequel il est « appelé à légiférer » plutôt qu’à être légiféré.
La lutte pour l’impossible peut selon Chestov conduire au crime, à la mort ou à la folie, et même à nier l’existence de Dieu. Elle insuffle à l’homme une « force créatrice qui est au-delà du concevable », qui « détermine l’être et lui donne forme ». Le but final de cette lutte est la transformation radicale de la nature de l’homme, l’élimination complète du mal dans le monde, la restauration du monde et de l’homme dans la liberté créatrice qui est le bien suprême.
Voir une lumière au bout du tunnel ou la vie défiler devant ses yeux, avoir le sentiment de flotter au-dessus de son corps, etc. Nombreux sont les témoignages concordants d’expérience de mort imminente. Mais peu nombreux sont les éléments scientifiques qui peuvent l’expliquer. Une nouvelle recherche laisse entendre qu’au moment où le cœur lâche, le cerveau, lui, devient hyperactif…
Ils sont des centaines de milliers à travers le monde. Peu importe le pays, le sexe ou la culture d’origine, de nombreux témoignages de personnes ayant vécu une expérience de mort imminente concordent. Victimes d’un arrêt cardiaque ou d’un profond coma qui aurait dû les entraîner vers la mort, certains survivants racontent avoir vu des flashs lumineux, leur vie défiler devant leurs yeux ou ressentir un sentiment de paix et de tranquillité.
« Beaucoup de personnes pensent avoir vu le paradis, précise Jimo Borjigin, neurobiologiste à l’université du Michigan. La science ne leur a pas apporté de réponse plus convaincante. » Mais grâce à son travail et celui de ses collaborateurs, les choses pourraient un peu évoluer. Car la scientifique vient de mener une expérience sur le rat qui suggère une explication au phénomène : après l’arrêt du cœur, le cerveau pourrait rentrer dans une phase d’hyperexcitabilité, qui se caractérise par une activité anormalement élevée, dans les zones chargées de la conscience.
Le cœur s’arrête, le cerveau s’active
Tout a commencé en 2007. La biologiste travaille sur les sécrétions de neurotransmetteurs dans le cerveau de rats. Une nuit, deux des rongeurs meurent. En reprenant les données, elle aperçoit aux alentours de l’heure du décès des pics d’activité étranges. Que se passe-t-il dans le cerveau au moment de la mort ?
Lorsque le cœur arrête de battre, le cerveau souffre de ne plus être irrigué en sang et donc en oxygène et nutriments. À priori, privé d’énergie, l’organe devrait progressivement perdre son activité et s’éteindre dans la minute, le tout étant représenté par un électroencéphalogramme plat. Dans les faits, c’est tout l’inverse qui se produit.
Comme expliqué dans les Pnas, des électrodes ont été directement placées sur le cerveau de neuf rats. Ceux-ci ont reçu une injection de chlorure de potassium, ce qui stoppe les battements cardiaques. Les auteurs ont noté 30 secondes plus tard une augmentation de l’intensité des ondes cérébrales de hautes fréquences, dites oscillations gamma. Leur intensité a même été la plus forte au moment de la dernière pulsation cardiaque, alors que les rats étaient encore bien vivants.
L’expérience de mort imminente, aussi pour les rats ?
Or, selon la théorie en vigueur, ces ondes gamma seraient l’une des caractéristiques neuronales sous-jacentes à la conscience, et spécifiquement lorsqu’il s’agit d’établir un lien entre des informations émanant de plusieurs régions du cerveau. Ainsi, les chercheurs suggèrent que ce même processus se déroule également dans notre crâne dans les instants précédant notre fin, ce qui pourrait expliquer ces sensations particulières ressenties. Seuls ceux qui arrivent à s’en remettre peuvent alors témoigner de ce qu’ils ont connu.
Voici au moins un début d’explication au phénomène, qu’il faudrait désormais creuser. Les personnes ayant vécu une telle expérience de mort imminente racontent avoir vu des flashs lumineux. Il faut donc aller vérifier si le cortex visuel est concerné par cette décharge d’ondes gamma. Et cela semble être le cas. « Nous avons noté une augmentation du couplage entre les ondes de basses fréquences et les ondes gamma, une des caractéristiques de la conscience et de la sensation visuelles », reprend Jimo Borjigin.
Mais les auteurs ne sont malgré tout pas affirmatifs. Il est en effet un peu tôt pour tirer des conclusions définitives de ces expériences menées sur le rat. Il faudrait obtenir des informations sur l’Homme. L’expérience a déjà été tentée, mais les électroencéphalogrammes des personnes en train de mourir n’ont jamais rien décelé. Peut-être parce que les électrodes n’ont pas capté le faible signal depuis le cuir chevelu des patients, alors qu’elles deviennent assez sensibles directement placées sur le cerveau. L’affaire ne fait donc que commencer…
Alors que la France regorge de talents et d’intelligences créatrices, le constat est sévère : la recherche scientifique est en panne.
Que s’est-il passé ? Que se passe-t-il ? Jean-Pierre Petit a mené l’enquête.
Si on n’en finit plus de décrire au public les fantastiques développements de la technologie, qui ne sont en réalité que la mise en oeuvre d’outils qui ont vu le jour entre 1895 et 1960, celui-ci sait-il que la science fondamentale connaît, depuis six décennies, une crise sans précédent ? Jean-Pierre Petit révèle, par exemple, que la cosmologie se fonde sur deux articles originaux de Karl Schwarzschild datés de 1916. Des articles rédigés en allemand, mal traduits en anglais, avec de graves erreurs ayant faussé les travaux des astrophysiciens depuis… 1970 !
En répondant aux questions pertinentes et percutantes du journaliste Jean-Claude Bourret, Jean-Pierre Petit, le chercheur qui trouve et qui a vu des découvertes importantes pillées par des pays étrangers, dresse un bilan dont l’électrochoc pourrait être salvateur pour le monde scientifique.
La France a 30 ans de retard face aux américains sur le sujet…Dixit JP Petit. Jean-Pierre Petit, est un scientifique français spécialiste en mécanique des fluides,physique des plasmas, magnétohydrodynamique et en physique théorique ; il a été directeur de recherche au Centre national de la recherche scientifique en activité en tant qu’astrophysicien à l’observatoire de Marseille. Il est un pionnier d’un pan de recherche abandonné dans les années 1970, la magnétoaérodynamique. Il a notamment mis au point le principe de convertisseur MHD pariétal. Il a participé régulièrement à des colloques internationaux sur la MHD. En cosmologie, il a travaillé sur la « théorie de la bigravité ».
Commençons par présenter Laurent Aventin auteur de cet article : Laurent Aventin est docteur en santé publique et économie de la santé – Université Aix Marseille II. Il est depuis plus de 11 ans consultant indépendant et auteur le 27/10/2021, en tant que catholique, d’une lettre ouverte aux évêques de France au sujet de leur position sur la vaccination contre le COVID qu’il ne partage pas- cf riposte catholique
« Des nanotechnologies dans les vaccins » est le titre qu’il donne à son article du 2 mai sur le Courrier des stratèges – cf ici .
Cet article commence par la présentation de la publication du scientifique à l’origine de cet article :
Pablo Campra, docteur en chimie et diplômé en biologie, rattaché à l’université d’Alméria, a réalisé une étude indépendante sur la composition des vaccins – sans lien avec son université. Sa double compétence disciplinaire et le matériel dont il dispose lui ont permis de mettre en évidence dans les sérums un ensemble d’éléments qui correspond à un réseau de nanosenseurs sans fil. ( cf article sur l’avancée sur les biocapteurs)
Cet article a pour but d’expliquer ce que l’on découvre dans les vaccins. Par « on » il faut entendre notamment le Dr Pablo Campra, attaché universitaire, même si d’autres chercheurs chimistes et/ou biologistes ont également confirmé ce que Campra annonce dans un document mis en ligne fin novembre 2021 : la présence de nano capteurs, de nano routeurs ou de nano antennes.
Pablo Campra précise dans sa publication scientifique : » Nous montrons ici quelques objets de géométries fréquentes qui pourraient être observés dans des flacons scellés de différents échantillons aléatoires de vaccins à ARNm COVID19, en utilisant la microscopie optique à fond clair ou sombre, en utilisant de faibles grossissements entre 100x et 600X. COMME HYPOTHÈSE DE TRAVAIL, certains de ces objets ont été proposés comme éléments possibles d’un RÉSEAU DE NANOSENSEURS SANS FIL (WNSN), que ce soit en tant que nano-capteurs, en tant que nano-routeurs ou en tant que nano-antennes : https://corona2inspect.blogspot.com /2021/09/redes-nanocomunicacion-inalambrica-nanotecnologia-cuerpo-humano.html .
La plupart de ces objets apparaissent après séchage à température ambiante des échantillons. Ils restent noyés dans l’hydrogel restant. A notre connaissance, ni l’identité de ces objets, qu’il s’agisse de cristaux minéraux ou de dispositifs nanotechnologiques, n’ont pas été précisés par les fabricants, ni correctement caractérisés par des laboratoires indépendants. (En réalité – comme expliqué dans un article précédent, (la convention d’Oviedo n’a pas légiféré sur l’obligation d’indiquer dans les produits médicaux la présence de nanotechnologies, il existe donc un vide juridique) – La caractérisation de ces objets sort du cadre de ce rapport.
Notre intention est simplement de rendre ces images d’usage public pour une discussion technique par des experts dans le domaine de la cristallographie ou de l’ingénierie des nano-communications. »
—
La méthode utilisée par Campra repose sur une observation de différents échantillons de vaccins à ARNm (Pfizer-BioNtech, Janssen) contre le Covid. Les sérums sont choisis aléatoirement et l’observation microscopique avec champ clair ou sombre exploite des grossissements entre 100x et 600x. La publication en haut de cet article de 4 photos donne une idée des observations du docteur Pablo Campra.
Dans un article publié le 14/07/21 sur nouveau monde.ca Karine Bechet-Golovko s’interroge ; que viennent faire les nanotechnologies dans les vaccins ? à propos d’une vidéo du forum de la santé 2020 à St Pétersbourg.
A la question posée par Anna Popova à la tête de l’Agence fédérale de la consommation, Natalia Bieloziorova, directrice du Centre de recherche et de développement de l’Institut des vaccins de Saint-Pétersbourg, est pour le moins surprenante :
Les vaccins, dans le Centre de l’Institut de recherche de Saint-Pétersbourg, sont développés sur la base de trois plateformes : d’ADN modifié, de protéines recombinées et de nanotechnologies.
—
Quelle est la fonction des nanotechnologies dans les vaccins contre Covid ?
Laurent Aventin précise :
» Alors que viennent faire des nano routeurs dans un vaccin ? Lors d’un récent article, je me suis fait insulter par un lecteur en qualifiant la vaccination contre le Covid de projet transhumaniste, je me suis dit que je manquais de pédagogie. La présence d’oxyde de graphène dans les vaccins avait déjà été abordée au Courrier des Stratèges le 28 avril 2022 et le rôle de ce matériau est important pour le fonctionnement de ce qui s’apparente à un réseau de nano-communications sans fil intracorporel.
Il existe un lien étroit entre les points quantiques de graphène observés dans les vaccins et les nano routeurs ou nano capteurs qui participent à un nanoréseau de communication. Ces dispositifs existent dans la littérature scientifique ; Akyildiz et al. montrent que l’interconnexion de centaines ou de milliers de nanocapteurs et de nanoactionneurs, situés à l’intérieur du corps humain est acquise. Un nano réseau introduit par la vaccination est présent dans tout le corps, y compris dans le cerveau. Un autre scientifique, Mik Andersen, a réalisé un travail remarquable, son blog est régulièrement attaqué et indisponible, voici ce qu’il dit à propos du nano réseau introduit par les vaccins : « Il permet de contrôler en temps réel les neurotransmetteurs responsables de la transmission des informations dans le système nerveux, qui sont donc responsables des stimuli, du désir, du plaisir, de l’apprentissage, du conditionnement, de la dépendance, de la douleur, des sentiments, de l’inhibition, entre autres ». cf ici un résumé sur le nano-réseau d’implants corporels de Mik Andersen et pour aller plus loin .
Dans un long article scientifique paru le 18/2/2022 sur Xochipelli.fr Mik Andersen présente l’auto-assemblage de cristaux d’ADN . Le résumé de cet article sur le site est le suivant :
La présence de cristaux d’ADN auto-assemblés dans les échantillons de vaccins a des implications importantes pour les recherches en cours. Tout d’abord, leur simple présence dans les vaccins implique l’utilisation de nanotechnologies très avancées, l’auto-assemblage d’objets selon des modèles et des gabarits prédéterminés en laboratoire, et confirme donc une intentionnalité et une finalité préméditées, avec le fait clair et évident qu’il y a de l’ADN artificiel synthétique, qui avec le graphène constitue un nouvel élément non déclaré dans le vaccin.
Deuxièmement, cette découverte a des implications importantes pour les axes de recherche qui portent sur l’étude et l’analyse des vaccins, puisqu’il n’y a plus seulement le graphène ou un hydrogel à disposition. Nous devons maintenant envisager la présence de toutes sortes d’objets auto-assemblés avec de l’ADN, ce qui élargit les possibilités de bio-ingénierie dans le corps humain, le développement de biocapteurs et de dispositifs dans le contexte du réseau intracorporel de nanocommunications sans fil.
Troisièmement, la présence de cristaux d’ADN ayant été démontrée, elle implique donc, avec une forte probabilité, la présence de circuits et de systèmes informatiques basés sur l’ADN. Comme cela a été démontré, il existe de nombreuses preuves scientifiques qu’il est possible de développer des circuits, des transistors et des dispositifs électroniques avec des brins d’ADN, permettant le fonctionnement de toutes sortes de signaux et de données, notamment de type binaire.
Stéphane FOUCART est un journaliste français né en 1973. Ancien élève de l’École supérieure de journalisme de Lille (5ème promotion de la filière scientifique), il est chargé de la couverture des sciences au sein du journal Le Monde, en particulier les sciences de l’environnement et les sciences de la Terre.
Il décroche, avec Stéphane Horel le Prix européen du journalisme d’enquête en
Stéphane Horel est une journaliste et réalisatrice de documentaires française née en 1976. Collaboratrice du Monde, elle a réalisé plusieurs enquêtes sur les conflits d’intérêts et les lobbys.
Sylvain Laurens est sociologue Directeur d’études à l’ EHESS -Habilité à Diriger des Recherches
Dans leur ouvrage Les Gardiens de la raison, deux journalistes du Monde et un chercheur mettent en lumière les agissements d’une galaxie d’individus et d’organisations qui – sous couvert de défendre la science – défendent surtout les intérêts de grands groupes industriels.
Au journal Le Monde, Stéphane Foucart est un journaliste scientifique, spécialisé en science de l’environnement et multi récompensé pour ses différentes enquêtes. Mais sur Twitter, il est la bête noire de plusieurs centaines de comptes. Mobilisés contre lui, on trouve un étrange mélange d’ingénieurs, de vulgarisateurs scientifiques, de journalistes très suivis, de lobbyistes, d’agriculteurs, de youtubeurs, de zététiciens et de libertariens. Parmi eux, des personnalités comme le futurologue anti-Greta Thunberg Laurent Alexandre, le présentateur de télé Mac Lesggy, ou les journalistes Géraldine Woessner et Emmanuelle Ducros. On compte aussi des associations comme l’AFIS (Association Française pour l’Information Scientifique). Tous l’invectivent à la moindre occasion en mettant en doute ses papiers, au nom d’une véracité scientifique dont ils seraient les véritables gardiens.
Journalistes d’investigation et anti-vax, même combat ?
Ce camp qui se dit du côté de la science est justement le sujet principal du livre Les Gardiens de la Raison, écrit par Stéphane Foucart, Stéphane Horel, journaliste au Monde spécialisé sur les lobbies et Sylvain Laurens, sociologue et maître de conférences à l’EHESS. Touffu et très documenté, l’ouvrage revient sur la manière dont quelques twittos se sont emparés des débats scientifiques sur les réseaux sociaux. Du glyphosate à la 5G en passant par le nucléaire ou la vaccination, ils sont sur tous les fronts.
Leur objectif : conjurer ceux qu’ils considèrent comme des promoteurs de fake news, rétablir « la vérité » à coup de fact checking et surtout opposer de soi-disants faits scientifiques a un camps jugé hystérique et bien trop porté sur le principe de précaution. Leurs méthodes ? Mettre dans le même panier des journalistes d’investigation, des ONG ou des partis écologistes et des mouvements anti-vax, anti-5G ou des défenseurs de l’homéopathie. Très actifs sur Twitter, ils se font passer pour les combattants de la vraie et bonne science tout en répétant ad nauseam, parfois même sans le savoir, des éléments de langage mensongers issus de cabinets de lobbying. Décryptage d’une guerre culturelle et politique qui ne dit pas son nom.
Dans votre livre vous évoquez une sorte de guerre culturelle qui prend place sur les réseaux et qui tourne autour des sujets scientifiques et techniques. Pourquoi avoir consacré un ouvrage à ces gardiens de la raison ?
Stéphane Foucart : Depuis quelques années nous avons observé, Sylvain Laurens, Stéphane Horel et moi-même des convergences dans le débat public et notamment l’utilisation de l’autorité de la science pour défendre des intérêts économiques ou idéologiques. On a pu apercevoir ce phénomène sur des débats liés à la santé et à l’environnement, mais aussi quand on travaille sur les techniques de lobbying. On a vu comment certains éléments de langage, ou certaines histoires complètement fausses peuvent faire leur chemin et saturer la conversation sur les réseaux, au point de s’imposer dans le débat public. On a donc voulu comprendre comment s’était formé cet écosystème qui relaye massivement ce genre de discours, de manière consciente ou non.
Comment décrivez-vous cet écosystème ?
S.F. : Il engage un certain nombre d’acteurs du monde académique aux réseaux sociaux en passant par des trolls ultralibéraux, des associations de vulgarisation et des agences de communication qui travaillent le débat public. Ces dernières font beaucoup appel à la micro influence c’est-à-dire, l’influence exercée au plus près de l’opinion des amateurs de science, des étudiants ou des youtubeurs. Ils sont bien plus écoutés et crédibles qu’un communiqué de presse venant d’une entreprise. Il ne s’agit pas de dire que tous ces gens sont à la solde des vilains lobbies. Cependant, il existe une synergie entre ces différents acteurs qui finissent par s’agréger, généralement pour des raisons contingentes. Certains veulent défendre le secteur industriel dans lequel ils travaillent, d’autre mettent le doute systématique qui doit être appliqué aux croyances ou bien encore défendent un modèle politique basé sur le libre marché.
Vous évoquiez des discours et des éléments de langage qui sont répétés ad nauseam. Comment cela fonctionne ?
S.F. : Grâce aux Monsanto Papers, on sait comment les firmes de l’agrochimie portent une attention considérable à la fabrication d’arguments et leur diffusion sur les réseaux sociaux. Une fois qu’ils sont mis en circulation, par l’intermédiaire de revues ou de blogs spécialisés, ces éléments vont être réutilisés, souvent de bonne foi par des individus qui y voient de véritables arguments ou discours scientifiques. L’un des exemples les plus marquants est celui de l’interdiction du DDT dans les années 70 qui serait le fait d’une sorte de folie hystérique des écologistes. Cette décision aurait provoqué indirectement la mort de millions de personnes en Afrique et en Asie qui ne peuvent plus se protéger des moustiques qui transmettent le paludisme. En réalité, il s’agit d’une fable, d’une histoire complètement fausse. Ce produit a été interdit aux Etats-Unis, mais uniquement dans ses usages agricoles, et après plusieurs expertises scientifiques conduites par des institutions plutôt conservatrices, sous l’administration Nixon ! On est loin des vilains écolos extrémistes. Son usage est toujours autorisé pour lutter contre les moustiques pour des raisons sanitaires ! La principale raison au fait qu’il est de moins en moins utilisé est simplement qu’il est de moins en moins efficace, du fait de l’adaptation des populations de moustiques… Il ne représente plus aucun intérêt économique et l’histoire de sa prétendue interdiction totale obtenue par les écologistes est une réécriture de l’histoire, destinée à porter un message idéologique : les écologistes et leur principe de précaution sont dangereux.
Dans votre livre vous indiquez que cet écosystème met particulièrement en avant la « sound science ». Vous pouvez expliquer ce concept ?
S.F. : Ce terme est arrivé dans le débat public dans les années 80 aux États-Unis, au moment où l’industrie du tabac a vu arriver les premières études portant sur le tabagisme passif. À cette époque, les communicants de Philip Morris ont inventé le concept de « sound science » qui désigne des études menées en laboratoires et dont les résultats seraient reproductibles et très fiables. Ils l’ont opposé au terme de « junk science », qui représente les études épidémiologiques qui tentent de déterminer l’impact d’un produit ou d’une technologie sur la santé ou l’environnement. Par nature, ces études sont difficilement reproductibles, car elles se basent sur l’observation de grands échantillons de personnes et tous les paramètres ne peuvent être contrôlés. Lorsqu’on étudie les personnes sujettes au tabagisme passif au cours de leur vie, on comprend bien que la même expérience ne pourra être refaite en prenant les mêmes personnes, sans les exposer à la fumée ambiante de cigarette ! Le hiatus entre la « sound science » des laboratoires industriels et la science indépendante réalisée dans le monde réel, existe encore aujourd’hui.
Quelles sont les principales fractures entre ces deux formes de science ?
S.F. : Le concept de « sound science » est très utilisé pour opposer la science académique à la science réglementaire par exemple. La première est composée de recherches qui sont publiées dans la littérature savante. Elle est lisible, transparente et critiquable. La seconde est plutôt une mise en pratique de la science, réalisée par l’industrie et conformément aux réglementations, et qui permet aux autorités de permettre ou de refuser la mise sur le marché d’un produit. Il arrive que sur certains sujets, la science réglementaire soit très en retard sur la science académique. Ça s’est vu pour des médicaments autorisés il y longtemps puis retirés du marché, mais aussi pour des pesticides ou bien plus généralement sur la prise en compte des capacités de certaines substances à être des perturbateurs endocriniens. Ce terme existe dans la science académique depuis les années 1990, mais n’a une existence réglementaire en Europe que depuis trois ans. On voit que la science réglementaire peut avoir plus de deux décennies de retard sur la science académique !
On a beaucoup vu cette opposition pendant toute la polémique qui a accompagné les enquêtes d’Envoyé Spécial sur le glyphosate.
S.F. : En fait, cela remonte même à 2015 quand le Centre international de recherche sur le cancer (CIRC) a classé ce désherbant comme cancérogène probable. À partir de là, une machine de guerre s’est mise en place pour donner l’impression que « la science » disait le contraire. Les défenseurs du glyphosate se sont basés sur les agences réglementaires qui continuent de classer ce produit sans danger cancérogène. Ils vont aussi sortir plusieurs éléments de langages qui vont totalement pourrir le débat : « Le CIRC n’évalue pas le risque, mais le danger », ou bien encore « C’est la dose qui fait le poison donc si on boit un verre de glyphosate, on va bien évidement tomber malade ». Tous ces éléments ont été répétés à l’infini avant, pendant et après l’enquête d’Envoyé Spécial avec l’aide de comptes Twitter influents afin de décrédibiliser le travail sur le sujet. On peut rappeler qu’il existe à ce jour cinq méta-analyses suggérant des associations statistiques significatives entre le glyphosate et des cancers du système lymphatique. Pourtant, aucune de ces études ne sont jamais citées par nos « gardiens de la raison ».
Vous indiquez dans le livre que l’idée de la défense de la science, de l’esprit critique et de la rationalité était historiquement des valeurs de gauche. Or, on retrouve parmi ces nouveaux gardiens, des groupes et des personnalités situés plutôt dans le camps ultralibéral. Comment expliquez-vous ce glissement ?
S.F. : Il y a plusieurs raisons à cette trajectoire. La première, c’est que ça reflète un changement dans la structure de la communauté scientifique. Les chercheurs sont de plus en plus incités à travailler avec des sociétés privées et l’organisation de la recherche publique est de plus en plus axée sur l’innovation technique au détriment de la
recherche fondamentale. La seconde, c’est la place de plus en plus importante des ingénieurs, au détriment des chercheurs, dans les mouvements ou les associations d’amateurs de science. Pour Sylvain Laurens qui a étudié le phénomène, ces derniers ont une approche de la science qui est plus tournée vers la résolution de problèmes techniques et la commercialisation de produits, qu’une démarche exploratoire curieuse. Il ne faut pas non plus oublier l’existence d’une véritable croisade libertarienne menée aux États-Unis et dont l’objectif est de substituer la loi du marché à l’action de l’Etat. Ils considèrent que l’existence et la raison d’être d’une technologie sont justifiées si elle est adoptée par le marché. Tous ces gens défendent la science comme vecteur de progrès techniques qui permettrait d’apporter des solutions à tous nos problèmes.
Certaines personnes faisant partie de ce conglomérat semblent pourtant de bonne foi et veulent vraiment défendre la science. Sont-ils des idiots utiles ?
S.F. : Je n’aime pas vraiment cette expression, mais je pense qu’on est tous susceptibles d’être, à un moment donné, un « idiot utile ». Moi aussi, je me suis déjà fait avoir. Il y a quelque temps j’ai donné une interview à Conspiracy Watch sur le thème du glyphosate et à la fin de l’entretien j’ai dit : « bon, malgré tout ce qu’on peut dire, le glyphosate est quand même réputé être l’un des produits les moins problématiques pour la santé ». Le lendemain, j’ai reçu un mail d’un copain épidémiologiste qui me demande sans animosité quelle est ma source pour cette information. Et je me suis rendu compte que je n’en avais pas, mais que j’avais entendu tellement de fois cet « argument » que j’avais fini par l’intégrer de bonne foi.
Vu la prédominance des discours scientifiques biaisés ou orienté sur les réseaux, comment peut-on vraiment bien s’informer et garder une certaine forme d’objectivité ?
S.F. : Tout d’abord, il faut se méfier des fact checking que l’on a pu voir fleurir sur Twitter et qui tentent de trancher des questions extrêmement complexes. Le fact checking est un très bon outil pour vérifier les déclarations d’un politique, mais il n’est pas destiné à trancher des controverses scientifiques ou sociotechniques.
Ensuite, il faut être attentif à qui nous parle sur les réseaux. Un chercheur qui est vraiment spécialisé sur une question et qui participe à la littérature scientifique dans ce domaine en particulier sera toujours plus crédible qu’un scientifique qui n’est pas spécialiste de ce sujet précis, ou de n’importe quel ingénieur, vulgarisateur, ou amateur de science.
Enfin, il ne faut pas hésiter à se demander si une question scientifique engage un choix politique. Le débat sur la 5G est à ce titre très révélateur. Les défenseurs de cette technologie expliquent que les ondes ne sont pas dangereuses et que par conséquent on doit l’utiliser parce que c’est le progrès. Mais on est aussi en droit de se demander si notre société veut bien d’une technologie qui va interconnecter les objets du quotidien et étendre les capacités de surveillance de la population par exemple. Quand on utilise l’autorité de la science pour défendre « le progrès », il est bon de se demander de quel « progrès » il s’agit !
Après les OGM voici venir les humains génétiquement modifiés
près
Le docteur Alexandra Henrion-Caude est généticienne, ancienne directrice de recherche de l’hôpital Necker-enfants malades et membre de l’Espace éthique Ile-de-France.
—
Avec le vote de la loi de bioéthique (AMP-assisted reproductive technology) nous entrons dans un cauchemar digne de sciences fictions – film Bienvenue à Gattaca ou du livre le meilleurs des mondes
l’état stocke les gamètes des jeunes français : l’état devient géniteur
le stockage des gamètes peut conduite un père à avoir 100 voire 1000 enfants ( Pays Bas) d’où les risques de consanguinité
l y a beaucoup d’effets secondaires aux traitements hormonaux dont on ne parle pas.
On systématise le tri des embryons et la loi permettra au ministre de modifier l’aménagement de celui-ci ( selon les chiffres 2016 il y avait déjà 300 000 embryons stockés). Quelle liberté de la mère sur ce tri ?
La France détient déjà le record mondial des tests prénataux.
On peut donner des embryons à la recherche jusqu’à 14 jours ( l’embryon est déjà visible et le coeur est formé). Le chercheur pourra créer des gamètes à partir de ces embryons et même créer des embryons génétiquement modifiés voire des chimères homme/animal
—
Loi de Bioéthique : Sont-ils devenus fous ? Avec Alexandra Caude-Henrion. Part 1
CLONAGE HUMAIN ET CHIMÈRE. Avec Alexandra Caude-Henrion Part.2
le texte a été proposé par Mme Agnès Buzin, ministre des solidarités et de la santé et déposé le 24 juillet 2019 à l’Assemblée
Rapport n° 2243 de M. Jean-Louis TOURAINE, Mme Coralie DUBOST, MM. Hervé SAULIGNAC, Philippe Jean BERTA, Jean-François ELIAOU et Mme Laëtitia ROMEIRO DIAS, fait au nom de la commission spéciale, déposé le 14 septembre 2019
Contribution du Comité consultatif national d’éthique à la révision de la loi de bioéthique
états généraux de la bioéthique (contributions déposées sur la plateforme du 12 février au 30 avril 2018 ont toutes été lues et intégrées à une synthèse cartographique)
rapport au nom de la commission spéciale déposé le 14 septembre 2019 exposé de la loi
– au cours de ces débats est survenu un incident relaté ici par FranceTV .fr et relatif au vote de l’amendement 2123 (sur 2500) présenté par le député LREM de Charente-Maritime Raphaël Gérard : Le président de l’Assemblée nationale, Richard Ferrand, met donc aux voix l’amendement. Comme il est d’usage lors de ces votes, notamment lorsque le nombre d’amendements est si important, le scrutin se déroule à main levée. Quelques secondes suffisent et le président annonce l’adoption de l’amendement.
« Non ! Il n’était pas adopté ! », lancent des députés du groupe Les Républicains. Des bras se lèvent et des huées sont entonnées. « Monsieur le président ! Il faut voter par ‘assis-debout’ !, demande le député LR Thibault Bazin pour clarifier la situation.
Deux jours après l’événement, chacun campe toujours sur ses positions. Plusieurs députés des Républicains continuent d’affirmer que la majorité des votants était contre. Et ils ne sont pas seuls. « Je pense que c’était mal compté. Je crois en mon for intérieur qu’il aurait dû être rejeté au vu des votes », a expliqué la députée PCF Elsa Faucillon à LCP.
analyse du scrutin du vote ( 60 voix pour, 37 contre et 4 abstentions)
groupe LREM : pour 45 ; contre 7 ; abstentions 3 ; non-votants 6
groupe Les Républicains : pour 1 ; contre : 20
groupe Mouvement démocrate et apparentés : pour 7 ; contre 2 ; abstention 1 ; non-votants 2
groupe socialiste et apparentés : pour 1 ; contre 1 ; non-votants 1
groupe UDI ;: contre 4
groupe Liberté et territoires : contre 2
groupe La France Insoumise : pour 2
groupe Ecologie, démocratie et solidarité :1
groupe Agir Ensemble : pour 2
groupe de la gauche démocrate et républicaine : pour 1
non inscrit : contre 1
Le 31 juillet 2020, l’Assemblée nationale a adopté en deuxième lecture le projet de loi. Elle a rétabli dans ses grandes lignes le projet de loi, tel qu’elle l’avait voté en octobre 2019, avec plusieurs modifications d’importance.
Comme en première lecture et à l’instar du vote des sénateurs, les députés ont rejeté la légalisation de la PMA post-mortem(avec les gamètes d’un conjoint décédé) au bénéfice des veuves.
Les députés ont également rejeté le don d’ovocytes dans un couple de femmes, selon la technique dite de la « ROPA »,(La méthode ROPA consiste en un traitement de fécondation in vitro qui permet aux couples de femmes de devenir mamans. L’une d’entre elles devient la mère génétique qui apporte l’ovule et l’autre devient la mère biologique en portant le bébé dans son ventre.)
Les nouveaux amendements votés permettent notamment :
aux établissements privés à but lucratif, sous conditions, de conserver des gamètes ;
la possible levée de l’anonymat des donneurs pour les enfants nés sous PMA avant la loi ;
pour les enfants nés de GPA, la limitation de la transcription d’un acte d’état civil étranger au seul parent biologique. Le second parent dit « d’intention » devra passer par une procédure d’adoption.
—
Texte voté par l’Assemblé en 2ième lecture le 31 juillet, transmis au Sénat le 3 août 2020 pour vote en deuxième lecture
la position du Dr Henrion-Caude sur Présent -13 février 2020 :
En fait, et pour être synthétique, ce projet institutionnalise la marchandisation du corps des individus, possiblement la création de chimères homme-animal, et facilite le recours au clonage humain. Bref, il nous fait rentrer de plain-pied dans le monde du Meilleur des mondes d’Aldous Huxley, et dans toutes les craintes ancestrales, de toutes cultures, qui anticipaient la dangerosité de ces mélanges, notamment la mythologie.
En tant que généticienne, je rappellerai trois choses simples.
La première est le consensus scientifique indiscutable selon lequel la vie d’un individu débute à l’établissement de son propre patrimoine génétique. Chez l’homme, c’est donc lors de la dernière étape de la fécondation, à la fusion du patrimoine génétique du père et de la mère, que débute la vie, ce processus continu qui le conduira à la mort. Ainsi, toute manipulation sur l’embryon humain ne peut se défendre sur le plan éthique sans enfreindre le code de Nuremberg.
La seconde est que les tests génétiques sur lesquels se fondent les diagnostics reposent sur une conception primitive erronée de notre génome qui se révèle beaucoup plus complexe qu’« une mutation, une maladie », grâce à ce qu’on appelle le non-codant, que l’on a longtemps appelé l’ADN poubelle. Par ailleurs, l’extension de ces pratiques institutionnalise de fait l’eugénisme.
La troisième est qu’il est bon de partager les découvertes formidables de l’épigénétique (modifications produites par l’environnement, qui entraînent un changement de l’expression du génome) et de l’origine développementale des maladies et de la santé. Ces connaissances bien établies depuis maintenant plus de dix ans soulignent la folie qui consiste à étendre la pratique de la PMA, quand il s’agit de s’intéresser plutôt à l’enjeu de santé publique que le recours à ces techniques soulève.
— Le nouveau projet de loi tel qu’il a été voté par le Sénat prévoit un allongement du délai de culture de l’embryon passant de 7 à 21 jours (quand les députés avaient réclamé son allongement à 14 jours). Qu’est-ce que cela implique concrètement ?
A 21 jours, l’embryon humain est normalement bien enfoui dans l’utérus maternel, son cœur commence à battre, son lien avec sa mère est déjà bien développé, et le développement de son cerveau est si avancé que l’appareil auditif s’ébauche. Alors pourquoi 21 jours ? Ce stade correspond à la limite technique d’aujourd’hui, qui fait que nous ne savons pas cultiver l’embryon humain au-delà des 21 jours. Donc, contrairement à ce que l’on fait croire aux Français, ce n’est pas un encadrement légal, mais bien une limitation technique.
Donc, si demain la connaissance technique nous permet de poursuivre la « culture » in vitro de l’embryon humain à un mois, la loi sera modifiée en fonction, et la technique d’ectogenèse, qui est celle de l’utérus artificiel, ira de l’avant. Où est le progrès médical à externaliser les premiers stades de développement de l’embryon, alors qu’on découvre sans cesse la richesse des interactions materno-fœtales ?
— Ce nouveau projet de loi propose aussi de supprimer la clause de conscience dans le cas d’interruption médicale de grossesse. N’est-ce pas, finalement, la volonté affichée de promouvoir une médecine déshumanisée dans ce sens où le médecin n’est plus qu’un simple exécutant, sans âme ni intelligence ou conscience, des volontés du patient ?
Vous l’avez compris, la tendance actuelle, qu’on appelle à tort « progrès », consiste en la dépossession de l’homme de lui-même. J’externalise la reproduction au point de proposer la PMA sans plus aucune indication médicale. J’externalise la grossesse au point de développer des embryons humains jusqu’à 21 jours. J’externalise ma conscience de scientifique au point d’avoir des lois qui me dictent la frontière de ce qui est éthique, de ce qui ne l’est pas. Pour finir, j’affranchis les hommes de penser, que ce soit la femme qu’on presse de faire son interruption médicale de grossesse, en l’empêchant de réfléchir pendant une semaine (ou plutôt de comprendre tout ce qui lui a été dit), et que ce soit la clause de conscience qui permet aux praticiens d’avoir dans leur pratique un libre arbitre. C’est cela aussi ce projet de loi.
— Jacques Bigot, chef de file socialiste sur le texte, a eu ces mots au moment du vote : « Cette loi doit être une loi de confiance dans l’individu sur les grandes avancées médicales […] plutôt qu’une loi d’interdiction. » Vous, qui avez lancé ce vibrant appel aux sénateurs, que lui répondriez-vous ?
— Comment ose-t-il parler de « grandes avancées médicales » quand l’Académie nationale de médecine, 2 000 médecins sous l’égide du Dr Raphaël Nogier, et d’autres personnalités compétentes, notamment l’éminent Dr Jacques Testart, se sont tous exprimés de façon unanime sur les dérapages d’ordre médical de ce projet de loi. ( cf le manifeste des médecins)
Je lui répondrai donc de ne pas être sourd à ces appels unanimement convergents par des personnalités si diverses. Je lui demanderai d’avoir la curiosité de cliquer sur tous les liens postés sous ma vidéo YouTube filmant mon appel, à la façon de l’abbé Pierre, sur la loi bioéthique : PMA, embryons. Je lui demanderai de se renseigner mieux, par exemple à l’international, et d’écouter l’éminent biologiste de la reproduction australien, le Pr John Aitken, quand il s’inquiète des générations d’enfants infertiles produits par la fécondation in vitro.
Lire ce projet de loi – en tant que généticienne – a provoqué chez moi un vertige effroyable comme si ce projet semblait être chargé d’écraser tout ce qu’il y a d’humain dans l’individu sous couvert du progrès de la science. Seule la méthode employée par ce projet pour noyer les consciences, et notamment à coups de sigles incompréhensibles, semble être scientifique. •
Suite à la tribune parue le 17 mars 2016, dans le journal Le Monde, signée par 130 médecins et biologistes, intitulée «Nous médecins avons aidé les couples homosexuels à avoir un enfant même si la loi l’interdit», suite aux récentes déclarations du Pr René Frydman qui demande la PMA pour toutes les femmes (janvier 2017) ;
Nous, médecins, impliqués dans la vie quotidienne de nos concitoyens voulons par ce manifeste rappeler quels sont les rôles, les limites et les exigences de notre profession.
Les tentations sont grandes pour les pouvoirs publics et les usagers de s’approprier les techniques bio-médicales à des fins partisanes. Nous mettons en garde contre ces tentations.
L’objectif de la Fabrique des Questions Simples est de donner le primat aux questions sur les disciplines scientifiques, pour permettre de conduire une recherche impliquée, au service de la société. Notre ambition est de pleinement prendre acte de la mesure de la dégradation de l’environnement global et de contribuer à la recherche pour la mise en oeuvre des recommandations des Nations unies.
Pourquoi les questions simples?
L’essentiel de la recherche est focalisée sur l’avancée des connaissances à l’intérieur de champs disciplinaires. L’expression des questions est complexe et s’appuie sur un corpus de connaissances très étendu dans le cadre de méthodologies bien établies. Les questions simples à l’inverse sont focalisées sur des problèmes en rupture du point de vue des traditions disciplinaires. Leur expression ne présuppose en général pas beaucoup de connaissances. Elles sont essentiellement compréhensibles en-soi. Leur réponse relève par contre d’une grande complexité.
Il existe différents types de questions simples. Certaines ont une motivation scientifique propre. C’est le cas par exemple des efforts du mathématicien Alan Turing pour définir formellement ce qu’est un calcul, ou du physicien Erwin Schrödinger pour comprendre la vie et le fonctionnement de la cellule. D’autres questions simples prennent leur origine en dehors des sciences, dans les problèmes concrets de la société. Le projet Manhattan par exemple répond par une mobilisation massive à une question simple, comment faire la bombe atomique avant l’Allemagne nazie. Transformer les sociétés pour les adapter au dérèglement climatique est une question simple dont la réponse est d’une grande complexité.
Du point de vue disciplinaire, les questions simples sont souvent mal posées, car aucune méthodologie ne permet de savoir comment les appréhender. Leur portée par contre est très ambitieuse. Pour autant, bien que leur motivation puisse être extrêmement concrète, les efforts pour les traiter peuvent conduire à des retombées scientifiques majeures dans différents domaines, voire à l’émergence de nouvelles disciplines.
La mission
La Fabrique des Questions Simples développe des activités en partenariat à la rencontre entre science, pratique et politique, qui associent donc étroitement les acteurs de la gouvernance, de l’activité socio-économique, et du secteur académique.
Sa mission est triple :
mettre la science au service de la société en participant à la construction de solutions.
partager les connaissances avec un plus large public, scolaire, universitaire, acteur socio-économique, administration publique, citoyen.
favoriser l’émergence d’une pensée politique de l’anthropocène afin de pouvoir appréhender les extraordinaires défis pour le futur, et de permettre de sortir du déni en donnant du sens à l’action sociale, économique et politique.
» Le drame de notre temps, diagnostique Olivier Rey, vient de ce que notre culture est organisée et dominée par ce qu’il y a de plus antinomique avec la culture, à savoir la science, puisque celle-ci ne cesse de briser notre lien avec la totalité, ce que le poète Hölderlin appelait le divin. »
—
Itinéraire de l’égarement. Du rôle de la science dans l’absurdité contemporaine, d’Olivier Rey, Le Seuil, 338 pages – 1/10/2003
Peut-on en vouloir aux scientifiques d’avoir soumis la totalité du monde à la dictature du calcul et de l’efficacité interroge le mathématicien Olivier Rey dans un brillant essai sur la modernité.
Professeur de mathématiques à l’École polytechnique, chercheur au CNRS, il enseigne aujourd’hui la philosophie à l’Université Paris 1. Olivier Rey nous donne à réfléchir sur l’errance de la science depuis les débuts de l’âge moderne. Itinéraire de l’égarement reprend à nouveaux frais dans un style limpide la question vertigineuse qu’avaient posée les philosophes Whitehead (le Concept de nature) et Husserl (la Crise des sciences européennes) il y a quelques décennies : pourquoi la science, à partir de Descartes et de Galilée, a-t-elle emprunté la voie de la mathématisation de la nature plutôt qu’une autre ?
…
Est absurde, en effet, ce qui est ruineux pour le sens. Or la science, qui prend le parti de la partie contre le tout et celui de l’élément contre l’ensemble, est ruineuse pour le sens. Ce n’est pas qu’Olivier Rey conteste l’efficacité de la science en matière aussi bien technique que théorique – seulement nous assisterions depuis quatre siècles à un écartement croissant de la connaissance et de la compréhension. Plus nous savons de choses sur le monde, et moins nous le comprenons. Le pacte de connaissance fondé par l’antique sagesse (efforce-toi de connaître et tu comprendras) a été brisé : parce qu’elle ne saisit qu’en amoindrissant, la science aboutit à la dissolution de son objet.
…
Mise entre parenthèses du sujet, et donc de l’homme, l’objectivité est à ce prix. Plus encore, le réel ne sera considéré que par morceaux. Cette réduction a un symbole : avant même de grossir un objet, le premier rôle d’un microscope et d’un télescope est de l’isoler en restreignant le champ de vision comme le chirurgien masque le corps du patient pour mieux voir la zone à opérer. La neurobiologie qui rabat l’ensemble du mental sur le physiologique représente aujourd’hui le triomphe caricatural d’un réductionnisme auquel Olivier Rey adresse cette objection topique : si un état mental comme une croyance n’est que la traduction d’un état cérébral, à quel état cérébral correspondrait une croyance fausse ?
Mais que serait celui qui appréhende le monde dans son ensemble sur le mode scientifique, sinon, comme l’écrit Rey, un monstre psychopathe ? L’égarement n’est pas seulement théorique, philosophique, il est pratique, existentiel. L’homme moderne a objectivé tout ce qui l’entoure. Il en est résulté un monde d’autant plus aliéné que l’homme, loin d’en être absent, s’y retrouve partout, d’autant plus étranger que, dans quelque direction qu’il se tourne, il ne rencontre que lui-même – ses constructions, ses conceptions. Le rejet de l’anthropomorphisme par la science a abouti à cette situation paradoxale : l’homme se retrouve désormais sans ouverture ni horizon. La seule ressource qui lui reste, pour prévenir l’angoisse qui monte, est de se transformer à son tour en objet, de devenir de part en part justiciable de la science. C’est pour cela que la conception d’une science indifférente au sujet, englobant l’ensemble de la réalité physique, a connu une telle fortune. Le drame de notre temps, diagnostique notre auteur, vient de ce que notre culture est organisée et dominée par ce qu’il y a de plus antinomique avec la culture, à savoir la science, puisque celle-ci ne cesse de briser notre lien avec la totalité, ce que le poète Hölderlin appelait le divin.
Cette domination sans partage, cette pensée unique de la science n’empêchent pourtant pas ses thuriféraires de feindre de se croire menacés et de ferrailler contre des fantômes : le biologiste luttant contre les pensées et les idéologies dominantes, écrit joliment Olivier Rey, » c’est le peintre pompier fêté au salon, croulant sous les commandes officielles et qui pose en artiste maudit. Le système de pensée et l’idéologie qui règnent, ce sont les siens. Faire comme si une Inquisition féroce et bornée était toujours à vaincre, c’est agir à la manière du chat qui joue avec une bête aux reins brisés, qui s’imagine qu’elle est encore bien vivante pour le plaisir de la terrasser de nouveau « .
—
table des matières sur pedagopsy.eu
Introduction
I. Misère
1. De l’émerveillement au non-sens
2. Naissance d’une énigme
3. L’énigme n’est pas sans enjeu
4. De l’utilité d’un retour en arrière
5. Des difficultés d’un retour en arrière .
6. Une pensée sous influence
7. Qu’il vaut la peine d’essayer
II, Le grand tournant
8. La naissance de la science moderne
9. L’alphabet mathématique du monde
1(). Un faisceau préparatoire
11 . La mutation métaphysique
12. L’héritage de Platon
13. D’un monde incréé â un monde créé
14. La réification de la vérité
15. De l’expérience à l’expérimentation
16. Le malentendu
17. La voie cartésienne
18. La science de Descartes
19. Les impasses de la science cartésienne
III, L’individu et la science
20. Religion et science répartition et dispute des rôles
21, La science pour la liberté
22. « À nous deux maintenant »
23. Les souffrances de l’individuation
24. Contre le projet moderne : l’imprécation réactionnaire, la tentation bouddhique
25 L amour-passion
26. La voie de l’action, ou le surmenage et la science
27. Entre autonomie et disparition
28. L’apaisement et l’exacerbation du mal
IV. Les raisons du succès
29. L’élimination de Dieu
30. La teneur du « miracle »
1. Mathématiques et action
32. Les mathématiques émancipées
33. Des mathématiques à la physique
34. Un monde univoque
35. La science comme langue parfaite
36. La majoration du succès
37. Le rôle de la pensée, et son élimination
V. Les limites du succès
38. L’incomplétude des mathématiques
39. Conséquences de l’incomplétude mathématique
40. L’oubli du sujet
41. L’ébranlement relativiste
.42. La révolution quantique
43. Le rôle de la liberté
44. Ordre et désordre
45. Entropie, temps et vieillissement
46. La fragmentation de la science
47. Par-delà la fragmentation de la science .
48. Les sciences de l’homme
49. Le biologisme
50. Les apories du neurobiologisme
51. La résistance de la conscience
VI. La vie captive
52. Les rnenaces d’effondrement
53. De la peur au ressentiment
54. Du savoir à la recherche
55. Les poses avantageuses, l’affairement, le fatalisme
Sciences Critiques et le Festival du livre et de la presse d’écologie (Felipé)ont le plaisir de vous inviter à une conférence-débat sur l’« intelligence » des plantes, intitulée : L’« intelligence végétale » pour repenser radicalement notre (rapport au) monde ?, le dimanche 24 novembre, à Paris, de 15h15 à 16h30.
Les thèmes de la « vie secrète » et de l’« intelligence » des plantes font florès au sein de la recherche scientifique et du grand public, comme en témoignent les récents succès en librairie de livres comme ceux de l’ingénieur forestier allemand Peter Wohlleben, La vie secrète des arbres (Les Arènes, 2017), du biologiste italien Stefano Mancuso, L’intelligence des plantes (Albin Michel, 2013), ou encore de l’écologue français Jacques Tassin, Penser comme un arbre (Odile Jacob, 2018). Pourtant, la thèse de l’« intelligence végétale » reste encore très controversée au sein même de la communauté scientifique.
Les citadins regardent les arbres comme des « robots biologiques » conçus pour produire de l’oxygène et du bois. Forestier, Peter Wohlleben a ravi ses lecteurs avec des informations attestées par les biologistes depuis des années, notamment le fait que les arbres sont des êtres sociaux. Ils peuvent compter, apprendre et mémoriser, se comporter en infirmiers pour les voisins malades. Ils avertissent d’un danger en envoyant des signaux à travers un réseau de champignons appelé ironiquement « Bois Wide Web ». La critique allemande a salué unanimement ce tour de force littéraire et la manière dont l’ouvrage éveille chez les lecteurs une curiosité enfantine pour les rouages secrets de la nature.
—
Les plantes sont-elles intelligentes ? Oui, et bien plus que nous ne pourrions l’imaginer, nous répond Stefano Mancuso. Savant de renommée mondiale, fondateur de la neurobiologie végétale, il est le premier à avoir démontré que, comme tous les êtres vivants, les plantes discernent formes et couleurs, mémorisent des données, communiquent. Elles ont une personnalité et développent une forme de vie sociale basée sur l’entraide et l’échange.
Véritable manifeste écologique, ce livre pionnier, qui a bénéficié d’une reconnaissance internationale, nous plonge dans un incroyable voyage au coeur du monde végétal. Un monde qui, en formant plus de 99 % de la biomasse, s’avère aujourd’hui indispensable pour l’humanité. Car si les plantes peuvent très bien vivre sans nous, nous ne survivrions pas longtemps sans elles !
À l’heure où l’on recherche d’autres modes de vie, où les ressources naturelles s’épuisent, nous avons tout à apprendre du monde végétal dont dépendent la survie et l’avenir de l’homme.
—
Depuis quelques années, dans le sillage d’importantes découvertes scientifiques liées à la communication végétale, une tendance de fond nous incite à prendre l’arbre pour modèle, voire à pénétrer les arcanes de sa « vie secrète ». Mais, au-delà des métaphores et des analogies faciles, que peut-on vraiment espérer de ce nouveau rapprochement avec l’arbre ? Une source d’inspiration, un modèle écologique, la clé d’un nouveau bien-être fait d’ouverture et de partage ? Un écologue passionné nous livre ses réponses empreintes de science, de sagesse et d’un infini respect pour l’arbre :
« L’arbre semble vouloir s’adresser aux grands primates irrévérencieux que nous sommes devenus. Des primates aujourd’hui perdus au bord du chemin pour avoir sottement oublié qu’ils vivaient sur la planète des arbres. » J. T.
—
Les végétaux, qui forment plus de 99 % de la biomasse de la Terre – et desquels dépendent les femmes et les hommes pour leur survie –, sont-ils vraiment « intelligents » ? Que recouvre exactement ce qualificatif pour les chercheurs et les philosophes ? Si les plantes (arbres, fleurs, légumes, algues…) sont capables de communiquer, de discerner formes et couleurs, d’apprendre, de se souvenir, de ressentir, de penser, de développer une forme de vie sociale basée sur l’entraide et l’échange, etc., ont-elles pour autant ce qu’on appelle chez les êtres humains une « conscience » ? Ou certains scientifiques pécheraient-ils plutôt par excès d’anthropocentrisme et de zoomorphisme ? Les débats, épineux, entre spécialistes se poursuivent…
Et si, après la science, les plantes étaient reconnues, par le droit, comme des « êtres sensibles » – à l’instar des animaux –, le règne végétal pourrait-il alors basculer d’objet scientifique à sujet politique ? Autrement dit, les végétaux représentent-ils plus que jamais aujourd’hui, à la faveur de la (re)découverte de leurs impressionnantes facultés, des sources d’inspiration ? Plus encore, comment tisser des liens avec ces « autres qu’humains », à l’heure où les dérèglements climatiques et l’effondrement de la biodiversité nous enjoignent à revoir radicalement nos modes de vie ?
>Avec :
–François Bouteau, biologiste, maître de conférences à l’Université Paris 7-Denis Diderot.
– Quentin Hiernaux, philosophe, chercheur au Fonds National Belge de la Recherche Scientifique (FNRS), coordinateur de l’ouvrage Philosophie du végétal (Éditions Vrin, 2018).
Bruce Harold Lipton (né le 21 octobre 1944 à Mount Kisco, dans l’État de New York ) est un biologiste américain du développement reconnu pour son idée selon laquelle l’expression des gènes peut être influencée (via l’ épigénétique ) par des facteurs environnementaux. Il est l’auteur du livre The Biology of Belief et a été chercheur à la faculté de médecine de l’Université de Stanford .
Cet ouvrage constitue une percée dans le domaine de la nouvelle biologie. Cette synthèse des dernières recherches les plus poussées en biologie cellulaire et en physique quantique est profondément porteuse d’espoir et acclamée comme une découverte majeure prouvant qu’il est possible de changer notre corps en modifiant notre façon de penser. L’auteur, un biologiste cellulaire de grande renommée, décrit les voies moléculaires précises qui en sont responsables. Dans un langage simple, avec des illustrations, un soupçon d’humour et des exemples de tous les jours, il démontre comment la nouvelle science de l’épigénétique vient révolutionner notre compréhension du lien qui existe entre l’esprit et la matière, ainsi que les effets profonds de ce lien sur nos vies personnelles et la vie collective de notre espèce.
—
EXTRAIT DU LIVRE DU Dr BRUCE LIPTON LA BIOLOGIE DES CROYANCES sur Médiapart (Ça va sûrement en transformer quelques-un(e)s, c’est cadeau !)
Les recherches alliant physique quantique, ingénierie électrique, chimie et biologie, sont particulièrement pertinentes, car elles pourraient donner naissance à des thérapies entraînant beaucoup moins d’effets secondaires que les médicaments. Or, ces recherches confirmeront ce que « savent » déjà, sans l’avoir réalisé, le scientifique et le non-scientifique : tout organisme, y compris l’humain, communique avec son environnement et le décode en évaluant les champs d’énergie. Comme l’humain dépend étroitement des langages parlé et écrit, il a négligé ses senseurs d’énergie en tant que système de communication. Comme pour toute fonction, le non-usage mène à l’atrophie. Les aborigènes utilisent encore quotidiennement cette fonction hypersensible, et il n’y a pas chez eux d’atrophie sensorielle. Ainsi, ils sont capables de sentir l’eau enfouie profondément dans le sable. Quand aux chamans de l’Amazonie, ils communiquent avec l’énergie des plantes médicinales.
Vous avez déjà eu, à l’occasion, un aperçu de cet ancien mécanisme sensoriel. Par exemple, vous est-il déjà arrivé de marcher dans une rue sombre la nuit et de vous sentir soudainement vidé de toute énergie ? Que pensez-vous avoir ressenti ? Tout simplement une interférence « destructive », comme les cailloux déphasés dans l’eau. Dans le jargon populaire, il s’agit de mauvaises vibrations, d’ondes négatives. Vous est-il déjà arrivé aussi de rencontrer inopinément une personne et d’être, au contraire, énergisé au point d’avoir l’impression de « planer » ? Dans ce cas, vous avez ressenti une interférence constructive, c’est-à-dire de bonnes vibrations ou des ondes positives.
Quand j’ai abandonné l’idée que nous sommes faits de matière inerte, j’ai non seulement compris que la science où je faisais carrière était dépassée, mais aussi que je devais favoriser davantage d’interférences constructives dans ma propre vie. J’avais besoin d’une mise au point quantique dans ma propre vie.
On attribue la paternité de l’épigénétique dans son sens moderne au biologiste et embryologisteConrad Hal Waddington qui la définit en 1942 comme une branche de la biologie étudiant les implications entre les systèmes gènes + environnement et leurs produits donnant naissance au phénotype d’un individu. Cette idée venait combler des lacunes du modèle génétique postulant une équivalence unique entre phénotype et génotype qui ne pouvait expliquer tous les phénomènes liés à la différenciation cellulaire. Il fut alors élaboré une théorie dans laquelle chaque cellule indifférenciée passait par un état critique qui serait responsable de son développement futur non uniquement lié à ses gènes, et pour cette raison qualifié d’épigénétique.
L’étape suivante qui se développe depuis les années 2000 est le travail sur le rôle de facteurs environnementaux sur l’expression génétique, comme en 2007 avec l’exposition au bisphénol A qui perturbe la méthylation de l’ADN de souris. On étudie alors la possibilité de transmission des caractères acquis et le rôle des gamètes pour savoir si elles peuvent conserver certains des marqueurs épigénétiques. Souvent polémique parce que non prévue par la théorie synthétique de l’évolution (bien que son principe ait été suggéré par Lamarck hors de toute connaissance génétique, et que Darwin lui-même laisse ouverte explicitement dans L’Origine des espèces la possibilité chez les chiens pointers d’effets cumulatifs du dressage), mais surtout parce que prises à tort par le grand public pour une réfutation de l’existant plutôt qu’un complément, ces études accordent volontiers à l’épigénétique un rôle davantage que marginal pour expliquer quelques mécanismes d’adaptation et d’évolution des formes vivantes.
Les caractères épigénétiques ne s’opposent pas aux théories génétiques associées à la sélection naturelle, mais les complètent. Ainsi, l’hérédité épigénétique « présente une plus grande sensibilité à l’environnement et une stabilité inférieure à celle des modifications de la séquence de l’ADN ».
Selon Jean-Claude Ameisen qui vulgarise le sujet, les expérimentations scientifiques dans le domaine se sont multipliées dans les années 2000 et 2010. Par exemple sur la transmission de caractères provoqués par le contexte, comme la présence d’une odeur ou un vécu traumatique. Chez la souris par exemple, un trauma précoce semble avoir des répercussions comportementales et métaboliques sur les générations suivantes, y compris si les descendants n’ont jamais été mis en contact avec les parents (fécondation in vitro et « mère porteuse »). Globalement l’étude de ce qui est transmis par les cellules séminales paternelles est utilisée afin d’isoler des caractères exclusivement innés.
On a récemment montré (2017) chez le rat de laboratoire que l’exposition d’une mère à de l’atrazine (désherbant) au moment de la formation des gonades de ses embryons faisait que cette molécule (ou le stress induit in utero par cette molécule) pouvait reprogrammer durablement des cellules souches gonadique et être source de problèmes épigénétiques dans les générations suivantes (susceptibilité aux maladies induites par l’atrazine, chez les mâles et les femelles). De même une chimiothérapie subie par un adolescent semble induire des effets épigénétiques (transmis donc à la descendance) via une modification qualitative du sperme (anomalies de l’ADN). C’est la 1ère démonstration du fait qu’une exposition chimique précoce peut reprogrammer durablement l’épigénome des cellules souches spermatogènes. Les épimutations de la lignée germinale (cellules du sperme) identifiées suggèrent que la chimiothérapie peut changer l’hérédité épigénétique à la génération suivante.
Des chercheurs de l’université de Glasgow sont parvenus à photographier pour la première fois l’intrication quantique entre deux particules, un phénomène physique si étrange qu’Albert Einstein l’avait baptisé « action effrayante à distance ». Explications.
–
« L’ACTION EFFRAYANTE À DISTANCE »
Également appelé intrication quantique, ce phénomène décrit une situation où les particules peuvent rester reliées entre elles de telle sorte que les propriétés physiques de l’une affectent l’autre, quelle que soit la distance les séparant. Détestant cette idée violant les descriptions classiques du monde, Einstein avait trouvé un moyen de faire coexister cette intrication avec la physique classique, en évoquant une variable inconnue, ou « cachée », agissant comme un messager entre les deux particules intriquées, et maintenant leur sort lié.
Le physicien John Bell avait mis au point un test réfutant l’existence de ces variables cachées dans les années 1960, mais il se trouve que des chercheurs de l’université de Glasgow sont récemment parvenus à capturer le premier cliché de cette fameuse intrication quantique.
Grâce à un système sophistiqué de lasers et de cristaux, les scientifiques écossais ont capturé la toute première photo d’intrication quantique, violant l’une des « inégalités de Bell ». Comme l’a expliqué Miles Padgett, auteur principal de cette recherche publiée dans la revue Science Advances : « Il s’agit d’une preuve cruciale de l’intrication quantique. Bien que les gens utilisent cette dernière et les inégalités de Bell dans des applications comme l’informatique et la cryptographie, il s’agit du premier cliché permettant de confirmer ce phénomène physique. »
Pour ce faire, Padgett et son équipe ont dû entremêler des photons, ou particules de lumière selon une méthode éprouvée : en frappant un cristal avec un laser ultraviolet, certains des photons du laser se sont séparés en deux, et « grâce à la conservation de l’énergie et de l’élan » chacune des paires de photons résultants étaient intriquées. Ces dernières se révélaient par ailleurs corrélées, ou synchronisées, beaucoup plus fréquemment que ce à quoi on pourrait s’attendre si une variable cachée était impliquée. Le cliché a été pris à l’aide d’un appareil photo spécial capable de détecter les photons.
Selon les chercheurs, cette expérience « montre que les effets quantiques modifient les types d’images pouvant être capturées ».
Né en 1940 Jean-Marc Lévy Leblond est docteur d’État en sciences physiques (physique théorique) -université d’Orsay en 1965-professeur à l’université Paris 7, et à Nice. Il a enseigné dans les départements de physique, de philosophie et de communication. Il fut directeur de programme au Collège international de philosophie de 2001 à 2007. Il a publié de nombreux articles sur ses travaux de recherche qui portent principalement sur la physique théorique et mathématique et sur l’épistémologie.« Depuis longtemps, Jean-Marc Lévy-Leblond tire la sonnette d’alarme sur la nécessité d’une intelligence publique des sciences, où se noueraient savoirs, recherche, culture et politique. »
Cet article est paru dans l’édition du Monde du 19.03.88. Il a également été diffusé en anglais dans la revue Nature (télécharger la version anglaise en pdf).
Ce texte est signé par de nombreuses personnalités scientifiques ( cf ci-dessous renvoi 1)
Le désir de connaitre le monde est aujourd’hui débordé par le besoin de l’exploiter. La production des connaissances scientifiques et des innovations est largement prise en charge par des institutions à buts technologiques. La recherche, qu’elle soit dite “fondamentale” ou “appliquée”, est orientée par des choix économiques, sociaux, sanitaires ou militaires.
Le chercheur ne peut ignorer cette orientation, et la société est en droit de la juger. Fonctionnant sur un mode réductionniste, en ignorant toute autre forme de connaissance et de vérité, la science entre en conflit avec la nature, la culture et les personnes.
Ainsi, sauf à être contrôlée et maîtrisée, elle fait courir des risques graves à l’environnement, aux peuples et aux individus. Pourtant le processus de développement scientifique s’auto-accélère avec l’assentiment naïf de sociétés qui acceptent de ne rêver l’avenir que dans l’artifice technique, alors que l’identification de la production scientifique au progrès, et même au bonheur, est largement une mystification.
…
Au nom de la vérité scientifique, la vie est réduite à ses aspects mesurables. La spécialisation de plus en plus étroite des chercheurs encourage leur myopie quant à leur fonction dans la société et crée des cloisons étanches entre les disciplines scientifiques.
…
Nous croyons que la lucidité doit primer sur l’efficacité et la direction sur la vitesse. Nous croyons que la réflexion doit précéder le projet scientifique, plutôt que succéder à l’innovation. Nous croyons que cette réflexion est de caractère philosophique avant d’être technique et doit se mener dans la transdisciplinarité et l’ouverture à tous les citoyens.
(1)Ce texte a été signé par les personnes suivantes : Jean Arsac, informatique, univ. Paris-VI ; Michel Bounias, biochimie, univ. Avignon ; Michel Cassé, astrophysique, CEA Saclay ; Jean-Paul Deleage, physique, univ. Paris-VII ; André Gsponer, physique des hautes énergies, ISRI, Genève ; Albert Jacquard, génétique, INED Paris ; Jean-Marc Levy-Leblond, physique théorique, univ. nice ; Jean-Marc Meyer, embryologie, univ. Strasbourg ; Michel, pneumologie, univ. Montpellier ; Jacques Panijel, immunologie, CNRS-Pasteur ; Bernard Prum, statistique médicale, univ. Paris-V ; Jean-Paul Renard, embryologie, INRA-Pasteur ; Jean-Claude Salomon, cancérologie, CNRS, Villejuif ; Jean-Louis Scheidecker, astronomie, CNRS, Nice ; Jean-Paul Shapira, physique nucléaire, Orsay ; Michel Sintzoff, informatique, univ. Louvain ; Jacques Testart, biologie, INSERM, Clamart
Nous aborderons, entre autres sujets, l’histoire du mouvement technocritique en Europe, les imaginaires du progrès technique, l’apparition de l’Anthropocène comme conséquence de la « démesure technicienne », les effets et les méfaits du techno-capitalisme et enfin la nécessité de faire émerger une communauté technocritique aujourd’hui, à travers notamment le projet politique alternatif de la décroissance, l’action directe contre les machines ou encore le retour à une véritable culture humaniste.
—
« Pourquoi (et comment) critiquer la technologie à l’heure de la crise sociale et écologique ?
Première table-ronde (de 15h à 18h)
– L’Anthropocène, ou les dégâts du Progrès
– Une (brève) histoire de la technocritique
– Les imaginaires de l’innovation technique
– Les effets et les méfaits du techno-capitalisme
—
Pour l’émergence d’une communauté technocritique !,
Seconde table-ronde (de 19h30 à 22h30)
– Pour l’émergence d’une communauté technocritique
– La décroissance pour sortir de la « Mégamachine »
– La révolte contre les machines aujourd’hui
– La culture face à la tyrannie technologique
—
Vous pouvez aborder les sujets suivants sur le site de Sciences critiques :
– « Se débarrasser du capitalisme est une question de survie ». Un « Grand Entretien » avec Paul Jorion.
Paul Jorion (né le à Bruxelles) est un anthropologue, sociologue et essayiste belge
–
Nous vivons aujourd’hui dans un système politique extrêmement inégal, qui engendre la concentration de la richesse par quelques-uns. Or, les personnes bénéficiaires de ce système bloquent l’accès à une vie meilleure pour tout le monde.
Le développement technologique est indépendant du développement des sociétés. Il peut être une catastrophe uniquement parce qu’il manque autour de lui l’environnement pour le canaliser.
En janvier dernier, des chercheurs d’Oxford ont affirmé que la robotisation créera à l’horizon 2022 un million d’emplois aux États-Unis.
En réalité, il y aura peut-être un million de travailleurs supplémentaires, mais 100 millions d’emplois vont disparaître dans le même temps… Il est très difficile, en réalité, d’imaginer les conséquences du développement technologique.
Ceux qui calculent combien d’emplois vont disparaître dans les années qui viennent sont naïfs, parce qu’ils considèrent que seul l’emploi manuel sera remplacé. Or, le système financier actuel conduit aussi à remplacer le travail qui coûte cher, même, et surtout, le travail intellectuel.
Si l’on accepte le principe que c’est le marché qui dirige, c’est-à-dire le simple rapport de force entre la main-d’œuvre et les employeurs, les salaires se rapprocheront de zéro… A fortiori dans un monde où la concurrence entre les candidats pour un emploi augmente. Il n’y a plus de limite, c’est ça le problème !
—
– « Il faut décoloniser les sciences ». Un « Grand Entretien » avec Serge Latouche.
Serge Latouche, né à Vannes le , est un économiste français, professeur émérite de l’université Paris-Sud.
La science occidentale – on la fait remonter à Galilée – part du principe que la nature serait more geometrico, qu’elle obéirait à la raison mathématique. Or, si les mathématiques sont effectivement une science abstraite − une formidable construction par ailleurs −, en revanche, la nature n’obéit pas à cette réalité mathématique.
la science qui pense qu’il n’y a pas de limite aux possibilités de l’homme de tout faire, de tout résoudre, c’est ce qu’on appelle « la science prométhéenne » 4, qui pense l’homme comme un démiurge. Cette science-là, il faut la réviser.
Toutes les autres conceptions de la science avaient, bien sûr, un idéal de la connaissance, de la curiosité scientifique, mais elles n’étaient pas dévorées par la volonté de puissance, si caractéristique de notre conception. Toutes les autres conceptions de la science avaient, bien sûr, un idéal de la connaissance, de la curiosité scientifique, mais elles n’étaient pas dévorées par la volonté de puissance, si caractéristique de notre conception.
—
– Qu’est-ce que le progrès technique ?. Une tribune libre d’Alain Gras.
Alain Gras, né le , est un sociologue français et professeur des universités émérite.
L’idée de progrès ne fait plus recette, c’est un fait. Les politiques, ou plutôt les acteurs de ce « pouvoir » qui n’est pas nécessairement politique, ont tiré depuis longtemps les leçons de cette désaffection et les économistes de service ont rebaptisé « croissance » le progrès en lui enlevant tout contenu éthique.
Mais qu’y a-t-il de plus absurde qu’une croissance illimité dans un monde limité ?
Dans le domaine techno-scientifique survit cet aphorisme archaïque : « On n’arrête pas le progrès ! ». Même si l’on sait que cette direction nous amène dans une voie sans issue !
L’une des raisons doit être, selon moi, à chercher dans la manière dont l’évolutionnisme progressiste bénéficie d’un privilège méta-philosophique.
« C’est dans l’évolutionnisme qu’est la racine logique des cynismes théorisants qui jettent sur la réalité le regard olympien des maîtres.
Les théories de l’évolution recueillent l’héritage métaphysique au bénéfice des sciences.
Elles seules ont une force logique suffisante pour intégrer d’un regard englobant le Mal, la décadence, la Mort, la douleur, toute la somme des négativités qui sont la part de l’être vivant.
L’« évolution » (progrès) est pour cela la théodicée moderne, cette théodicée permet l’ultime interprétation logique de la négativité. »
—
– Aujourd’hui, il est trop tard. Une tribune libre de Joël Decarsin.
Joël Decarsin, artiste de formation et membre fondateur de l’association Technologos.
En novembre 2017, un cri d’alerte a été lancé par 15 364 scientifiques de 184 pays, dont la revue américaine BioScience puis le journal Le Monde ont fait leurs unes : « Notre planète est en danger, il sera bientôt trop tard. »
Refuser d’admettre que si l’idéologie de la croissance a pris l’ampleur que l’on connaît, c’est justement parce qu’elle a pour corolaire la sacralisation de l’État, quasiment théorisée dès le XVème siècle par Machiavel.
Parce que nous avons laissé les scientifiques − dont ceux qui poussent aujourd’hui des cris d’orfraie… − jouer aux apprentis-sorciers en triturant la matière dans ses plus intimes retranchements et parce que, contrairement à la fable de Goethe, aucun maître-sorcier ne viendra jamais mettre un terme au sortilège déclenché, la catastrophe est inéluctable.
—
– Impasse de la technoscience. Une tribune libre de Joël Decarsin.
Joël Decarsin, artiste de formation et membre fondateur de l’association Technologos.
L’idée domine par conséquent qu’on peut jouer avec le feu tant que l’on dispose d’extincteurs toujours plus performants, réalité que résume l’adage : « On n’arrête pas le progrès ».
Ce goût du risque est né au lendemain de la Seconde Guerre mondiale, après qu’il a été d’usage d’afficher sa foi dans ce fameux progrès et sans que l’on ait vraiment pris la peine ensuite de peser le sens de ce mot. Aux tranchées de Verdun avaient succédé les Années folles, Hiroshima et Auschwitz ont distillé un parfum d’angoisse et d’incertitude : chacun a appris que les applications de la science pouvaient être létales à grande échelle.
e qui la lie à la science et à la technique à la fois et ce sur quoi elle s’appuie quand elle prétend en même temps comprendre la société et agir sur elle, c’est l’exercice de la modélisation.
« Je propose, écrit Saint-Simon vers 1830, de substituer le message suivant à celui de l’Évangile : l’homme doit travailler. L’homme le plus heureux est celui qui travaille, la famille la plus heureuse est celle dont tous les membres emploient utilement leur temps ».
Et dix ans plus tard, Ernest Renan déclare : « Organiser scientifiquement l’humanité, tel est le dernier mot de la science moderne, telle est son audacieuse mais légitime prétention. » Or, c’est là précisément l’objectif que s’assignent l’économiste – du moins dans sa version néo-classique, qui domine aujourd’hui – puis l’entrepreneur.
—
– L’université sous hypnose numérique. Une tribune libre de François Jarrige.
François Jarrige est maître de conférences en histoire contemporaine à l’Université de Bourgogne
L’UNIVERSITÉ française et la science qu’elle produit sont en phase de mutation accélérée. Elles sont lancées dans une course effrénée à l’innovation, sans cesse stimulée par les injonctions de l’État et des milieux économiques, ainsi que par la mode des classements internationaux, tel celui de Shanghai.
Depuis les années 1980, les innovations et les trajectoires technoscientifiques sont de plus en plus modelées par un nouveau régime de production néolibéral des sciences avec sa flexibilité accrue, sa valorisation des performances à court terme et son pilotage croissant de la recherche par les grandes firmes et les marchés financiers.
Comme de nombreux autres secteurs de la société, l’université est envahie par les outils et les discours du numérique censés résoudre « la crise ». En dépit des idéologies de l’horizontalité et du partage qui devaient accompagner les nouvelles technologies numériques, c’est bien l’imposition par en haut qui l’emporte dans les faits. Mais à l’égard du numérique, les universitaires semblent plongés dans une véritable hypnose collective qui met en péril leur capacité critique.
—
– La technologie est une politique. Une tribune libre de Philippe Godard.
Philippe Godard, né en 1959, est un écrivain et essayiste français. Il écrit notamment, pour la jeunesse, des ouvrages documentaires sur des sujets de société et, pour les adultes, des essais. Il est par ailleurs intervenant à l’Institut Régional du Travail Social de Franche-Comté et a été directeur de collections chez différents éditeurs.
La rationalité politique n’est plus compréhensible par les citoyens puisqu’elle est dominée par une autre rationalité, cachée, celle d’un système économique dominé par des réalités technologiques. Or, de nos jours, cette rationalité technologique, qui a envahi le champ du politique, rend encore plus illusoire une émancipation politique, culturelle et sociale, sans repolitisation du corps social.
—
– Religiosité de la technoscience. Une tribune libre de Simon Charbonneau.
Simon Charbonneau, est né en 1941, il a été professeur de droit de l’environnement à l’Université de Bordeaux Montesquieu et à l’Université d’Aix-Marseille, a publié de nombreux ouvrages et articles sur le thème de l’écologie militante, dans la lignée de son père Bernard Charbonneau.
La science remplit dans notre société technicienne le rôle que la religion jouait jadis dans les sociétés du passé. C’est donc la posture de liberté d’esprit qui doit être aujourd’hui à l’origine de sa remise en question comme religion séculière. – « Les deux cultures », ou la défaite des humanités. Un texte du collectif Pièces et Main-d’Oeuvre (PMO).
Puisque le vivant est désormais computable, pourquoi la culture ne le serait-elle pas ? Bienvenue dans l’ère des humanités numériques, un mouvement qui a pris son essor dans les années 2000 au sein des sciences humaines et sociales, des arts et des lettres, pour les rendre, eux aussi, connectés, numérisés, big datés. Reductio ad numerouniverselle, dont l’objectif est d’annihiler toute humanité dans la compréhension et le récit du monde.
—
– La technologisation de la vie : du mythe à la réalité. Un article d’Anthony Laurent.
Après des années d’études de sciences naturelles à l’Université de Franche-Comté, à Montbéliard (Doubs), Anthony Laurent se tourne vers le journalisme scientifique. Deux années de formation à l’Université Paris 7-Denis Diderot l’ont ensuite conduit à l’École des Hautes Études en Sciences Sociales (EHESS) où il obtient un Master de sociologie, histoire et philosophie des sciences au Centre Alexandre Koyré. Anthony s’intéresse notamment à la place de la technique dans la société contemporaine au sein de l’association Technologos. Il est co-créateur et rédacteur en chef du site Sciences Critiques (site d’information dédié exclusivement aux sciences, traitant tout particulièrement des sciences « en train de se faire », dans les laboratoires comme en-dehors – par opposition aux sciences « déjà faites » que sont les découvertes scientifiques et les innovations technologiques)
Le déferlement technologique bouleverse notre vie quotidienne. Le travail, les relations familiales et amicales, les loisirs, etc. Quasiment plus aucun pan de l’existence humaine, individuelle comme collective, n’échappe désormais à l’emprise numérique. Or, cette « technologisation » de la vie et de la société − largement impensée − a des effets déterminants, voire des impacts préoccupants, et pour la plupart irréversibles, sur la nature, la santé, la politique et in fine sur le devenir de notre « communauté de vie et de destin ». Dans le cadre d’une séance publique, tenue en janvier dernier à l’Université du Bien Commun à Paris ( cf ici lancement de cette université), Sciences Critiques était invité à dresser un constat critique de cet état de fait.
A la suite des luttes contre l’introduction des OGM en France, auxquelles il avait participé autour de l’an 2000, Bertrand Louart – menuisier de son état et ancien étudiant en biologie – a décidé d’examiner de plus près la conception de l’être vivant comme machine qui sous-tend l’ingénierie génétique. Il en est sorti cet ouvrage ambitieux, histoire critique d’une discipline profondément conditionnée, à chaque époque, par les idéologies politiques et les intérêts économiques.
Dans le sillage des travaux d’André Pichot, Bertrand Louart dévoile les fondements idéologiques des notions de « sélection naturelle » et de « programme génétique » ; et il met en évidence le poids des représentations eugénistes dans cette communauté scientifique. Critiquant le darwinisme d’un point de vue athée et égalitaire, il oppose au paradigme de la machine une vision de l’autonomie des êtres vivants.
La vie n’existe pas !
Depuis les années 1990, André Pichot a écrit une douzaine d’ouvrages sur l’histoire des sciences et plus particulièrement sur l’histoire de la biologie, son domaine de prédilection.
L’histoire qu’il nous raconte n’est pas celle d’un long fleuve tranquille menant aussi paisiblement qu’inéluctablement au triomphe des théories actuelles sur le vivant.
…
C’est surtout le récit du triomphe, envers et contre toutes les évidences du contraire, d’une conception fondamentalement erronée : celle de l’être vivant comme machine.
Autrement dit, Pichot retrace une histoire de la biologie qui est avant tout critique. Ce point de vue original repose d’une part sur une solide documentation, un retour vers les textes originels qui permet de démonter les nombreux mythes et légendes qui encombrent cette histoire, et d’autre part sur une “théorie de la biologie”, une théorie sur ce qu’est un être vivant, aux antipodes de l’être vivant comme machine et qui constitue en quelque sorte la pierre de touche qui lui permet d’analyser de manière critique l’ensemble de cette histoire.
…
En effet, plus de deux siècles après son invention par Jean-Baptiste Lamarck (1744-1829) en France et Gottfried Reinhold Tréviranus (1776-1837) en Allemagne (aux alentours de 1802), la biologie – la science qui étudie les êtres vivants – n’a toujours pas de définition de son “objet”. C’est en partie cette absence de définition claire, précise et unanime chez les scientifiques qui explique la succession plus ou moins chaotique des théories. Et c’est surtout la difficulté à en élaborer une – toujours repoussée, jamais affrontée – qui explique le triomphe, par défaut et faute de mieux, de la conception de l’être vivant comme machine.
…
Le premier à soutenir une telle position a probablement été le biochimiste hongrois Albert Szent-Györgyi (1893-1986), découvreur de la vitamine C et prix Nobel de médecine en 1937. Dans un ouvrage traitant de La nature de la vie, il n’a pas hésité à écrire :
« La vie en tant que telle n’existe pas, personne ne l’a jamais vue… Le nom de “vie” n’a pas de sens, car une telle chose n’existe pas. »
En 1970, le biologiste François Jacob (1920-2013) renchérissait :
« On n’interroge plus la vie aujourd’hui dans les laboratoires. On ne cherche plus à en cerner les contours. On s’efforce seulement d’analyser les systèmes vivants, leur structure, leur fonctionnement, leur histoire […]. C’est aux algorithmes du monde vivant que s’intéresse aujourd’hui la biologie. »
François Jacob, La logique du vivant, éd. Gallimard, 1970
Plus proche de nous encore, Henri Atlan, prolonge ces déclarations :
« Ce qui a disparu, c’est la distinction entre la vie comme objet de recherche et l’inanimé, l’inerte. »
H. Atlan, Question de vie, entre le savoir et l’opinion, p. 48-49.
Le déni de la spécificité du vivant
Pichot dénonce l’erreur des scientifiques qui prétendent que « la vie n’existe pas ! » : en fait, la biologie moléculaire n’étudie pas les êtres vivants en tant que tels, mais seulement la matière des êtres vivants. Cette matière, constituée de molécules (protéines, enzymes, ARN, ADN, etc.), n’est en effet pas vivante en elle-même, elle n’est pas animée par une “force vitale”, elle est semblable à celle des objets inanimés – quoique de nombreuses macromolécules soient propres aux seuls êtres vivants. C’est au-delà de l’échelle moléculaire que se situe la vie, dans l’organisation dynamique des cycles biochimiques du métabolisme cellulaire pris en son ensemble…
Lamarck avait déjà compris cela lorsqu’il a fondé la biologie : la vie était pour lui le produit d’une organisation particulière de la matière spécifique aux êtres vivants, et la “force vitale” – l’activité autonome des êtres vivants que tout un chacun peut observer – était pour lui la conséquence de cette organisation et non sa cause, contrairement à ce que pensaient les vitalistes, auxquels il s’opposait.
…
A la suite du clonage de mammifères ou du séquençage du génome humain, Pichot a dénoncé le fait que ces grands projets de biotechnologie, loin d’aider à mieux comprendre ce qu’est un être vivant – sans parler de l’être humain –, servaient en fait à dissimuler le vide théorique dans lequel est tombée la biologie moderne et le désarroi des biologistes devant un “objet” qui n’a eu de cesse de démentir les théories qu’ils avaient échafaudées à son propos.
…
Qu’est-ce qui distingue fondamentalement les êtres vivants des objets et des machines ? Bien souvent ce qui nous permet de les reconnaître au premier coup d’œil, aussi étranges soient-ils parfois, c’est avant tout le fait qu’ils sont dotés d’une activité autonome. L’activité de la flamme de la bougie est éphémère, elle ne durera que le temps de consumer toute la cire de la bougie. Par contre, l’être vivant est capable de puiser dans l’environnement de quoi renouveler son organisation interne et donc sa propre activité ; il est une auto-organisation de la matière qui est elle-même auto-catalytique, qui se génère elle-même. C’est ce qui distingue radicalement et irréductiblement les êtres vivants des machines.
…
Comprendre cette spécificité des êtres vivants par comparaison avec ce qu’ils ne sont pas est une approche que l’on peut qualifier de philosophique, épistémologique ou encore théorique, mais c’est un point qui est central pour Pichot, puisque de la réponse à cette question aurait dû résulter, selon lui, une compréhension toute différente des êtres vivants : une méthode d’étude qui soit adaptée à cette spécificité et qui, par là, révèle toute l’originalité de la logique du vivant.
Or, il n’en a rien été : les biologistes ont préféré s’obstiner à appliquer aux êtres vivants la logique de l’ingénieur, du constructeur de machines.
L’être vivant comme machine
Les raisons qui ont amené les biologistes à soutenir la conception de l’être vivant comme machine sont multiples. La première d’entre elles, et probablement la plus puissante, est liée à la forme même de la méthode des sciences.
Cette méthode, développée à partir du XVIIe siècle pour l’étude des objets physiques, demande un certain nombre de conditions pour pouvoir être appliquée : l’objet doit être isolé, ses mouvements ou ses transformations sont étudiées indépendamment de toutes forces et influences étrangères à celles qu’exerce de manière contrôlée l’expérimentateur ; l’objet doit être simple, on étudie ses « qualités primaires », celles qui peuvent aisément être mesurées et quantifiées ; enfin, la connaissance issue de ces études doit être « universelle », en ce sens que l’application d’un protocole expérimental partout ailleurs avec les mêmes objets doit permettre de reproduire des résultats identiques et aboutir à l’énoncé des mêmes « lois de la nature ».
Comme le souligne le chercheur en physiologie végétale Gérard Nissim Amzallag, l’application de la méthode scientifique à l’étude du vivant engendre « l’inadéquation chronique de l’être vivant à son cadre d’investigation » [9]. Autrement dit, la méthode des sciences, qui a été développée par et pour la physique, l’étude des objets considérés comme inertes et morts, atteint ici ses limites. L’être vivant est trop complexe et turbulent dans toutes ses innombrables formes et manifestations pour une méthode qui réclame l’isolement et la stabilité de l’objet, reproductibilité des expériences, quantification et mathématisation des résultats comme condition d’étude et de connaissance.
Or, à partir du XIXe siècle, sous l’effet de l’expansion de la société capitaliste et industrielle, et grâce aux succès des sciences et techniques dans la maîtrise de la matière brute, un certain scientisme a imposé l’idée que la méthode scientifique expérimentale était suffisante et seule valable pour appréhender la totalité des phénomènes. La spécificité, et donc les limites, de la méthode des sciences ont été occultées. Et la physique a été érigée en modèle de scientificité pour toutes les sciences, de la biologie à la sociologie.
Idéologies scientifiques
La biologie moderne repose actuellement sur trois piliers, en réalité trois idéologies scientifiques, qui sont apparues successivement et se sont complétées pour former une théorie unifiée ayant sa cohérence propre, mais ne faisant qu’accommoder à diverses sauces l’être vivant comme machine.
Le mérite de Charles Darwin (1809-1883)c’est avant tout d’avoir arraché à la théologie naturelle l’idée de l’être vivant comme machine. Darwin s’oppose en permanence aux « créations spéciales », à l’idée que Dieu aurait lui-même créé les différentes espèces.
Au début du XXe siècle, des biologistes « redécouvrent » les travaux sur l’hybridation des plantes que le moine Gregor Mendel (1822-1884) avait publiés en 1865. Les lois de Mendel répondent alors à l’idée que l’on se fait de l’hérédité : des particules isolables (les gènes) qui déterminent des caractères héritables (la couleur, l’aspect, etc.) ; le génotype détermine le phénotype, l’invisible détermine le visible par de savants calculs.
….
En effet, face au développement rapide de l’industrie, à l’émergence de la classe ouvrière comme force sociale et à tous les bouleversements que cela induisait, diverses idéologies se constituent, élaborées et partagées par de nombreux médecins et biologistes, à droite comme à gauche, qui cherchent dans la nouvelle science de l’hérédité des solutions techniques à ces problèmes politiques et sociaux.
Les progrès de la physique et de la chimie effectués durant la guerre permettent une analyse beaucoup plus avancée de la matière des êtres vivants. Les physiciens importent donc en biologie leurs techniques expérimentales (cristallographie, radioactivité, accélérateurs de particules, etc.) et aussi leur manière propre d’aborder le vivant.
S’inspirant de la « théorie de l’information » (plus exactement la théorie de la transmission du signal dans les télécommunications) de Claude Shannon (1916-2001) et de la cybernétique (la théorie du « contrôle et de la communication chez l’animal et la machine »), de Norbert Wiener (1894-1964) apparues toutes deux dans les années 1940, les biologistes moléculaires adoptent l’idée que les êtres vivants seraient dirigés par un « programme génétique » sur le modèle des programmes d’ordinateurs.
Le mythe du « programme génétique » est donc né dans les années 1960, et un demi-siècle plus tard, il est encore très populaire chez nombre de biologistes. Les raisons en sont diverses : il y a d’abord l’analogie avec les machines les plus perfectionnées développées à l’époque, les ordinateurs (que l’on qualifiait alors de « cerveaux électroniques ») ; analogie et qui recelait la promesse de très nombreuses applications pour le « génie génétique ».
…
Contrairement à ce que prétend François Jacob, ce n’est donc pas la nature qui « bricole » les êtres vivants, mais bien les biologistes qui construisent leurs théories de bric et de broc, et sur ces bases branlantes bidouillent les êtres vivants, sans réellement savoir ce qu’ils font.
…
Le problème n’est donc pas que ces théories soient fausses, mais bien que, sur la petite part de vérité et de réalité qu’elles recouvrent, on en a fait des explications générales et exclusives des phénomènes du vivant. Les êtres vivants sont en effet si complexes qu’il est toujours possible d’accumuler « un grand nombre de faits » (comme le fit Darwin) en faveur d’une thèse et de croire ainsi avoir enfin percé les « secrets de la vie » : pour celui qui ne sait se servir que d’un marteau, le monde n’est qu’une immense accumulation de clous à enfoncer… Et la spécialisation scientifique croissante fait aisément perdre de vue la totalité organique que constitue n’importe quel être vivant.
Ces trois idéologies scientifiques ont en commun d’exclure le métabolisme cellulaire et la physiologie des organismes comme déterminants actifs au profit d’éléments matériels ayant le rôle de systèmes de commande. L’activité du métabolisme est négligée, réduite au rôle de simple exécutant .
Dans son dernier ouvrage [25], Pichot analyse l’impasse dans laquelle s’enfonce la biologie moderne : en se voulant strictement mécaniste – au sens où seuls interviennent des rapports entre éléments matériels – elle s’est en réalité fourvoyée dans une conception machiniste du vivant. Si, bien sûr, il y a des mécanismes à l’œuvre dans le vivant, ce n’est pas pour autant que l’être vivant, en tant que totalité organique, est une machine. Car dans une machine, les rapports entre ses différents rouages sont fixes et déterminés une fois pour toutes de manière à transformer les flux de matière qui la traversent. Par contre, l’être vivant est une organisation matérielle capable, en incorporant les flux de matière qui la traversent, de se composer par elle-même : les rapports entre ses différents éléments sont dynamiques, ils peuvent se modifier et se recomposer pour former une nouvelle organisation. Cela est particulièrement évident lors du développement embryonnaire et de l’évolution.
C’est incontestablement René Descartes (1596-1650) qui a popularisé la thèse de l’être vivant comme machine.
En 1802, Jean-Baptiste Lamarck crée la biologie en tant que science autonome, c’est-à-dire distincte non seulement de la physique et de la chimie, mais aussi de la taxonomie, de l’anatomie, de la physiologie, et de la médecine. Cette biologie a pour but d’étudier les caractères communs aux animaux et aux végétaux, caractères par lesquels ils se distinguent radicalement des objets inanimés que la physique étudie. Pour lui, la spécificité de l’être vivant par rapport aux objets inanimés réside dans un certain « ordre de choses », une organisation particulière de la matière, propre aux êtres vivants et à eux seuls, qui oriente le jeu des lois physiques vers la production de l’être vivant lui-même. Il s’oppose ainsi aux vitalistes, car pour lui, la « force vitale » est une conséquence de cette organisation – que sa biologie a pour but d’étudier et de comprendre – et non ce qui produit, de manière mystérieuse et inconnue, cette organisation.
Pichot définit ainsi le vivant :
Le vivant se définit donc par la capacité de sa matière à se constituer en une entité distincte de ce qui devient ainsi son milieu extérieur, milieu avec lequel il effectue divers échanges (matière, énergie, information) régis de manière stricte par l’organisation physico-chimique de part et d’autre de la frontière les séparant (frontière qui, dans le cas de la cellule, est concrétisée par la membrane cellulaire, la cellule étant l’élément matériel le plus simple satisfaisant à cette définition).
Tout se passe comme si une partie de la matière prenait son indépendance vis-à-vis du reste de celle-ci ; indépendance relative puisqu’elle doit en tenir compte à tout moment, mais indépendance tout de même puisque, si elle en tient compte, c’est pour en rester distincte.
[Cette définition montre] combien est particulier le statut de la biologie non réductionniste que nous proposons. Ce statut curieux provient bien évidemment de ce que la définition du vivant, sur laquelle elle se fonde, est la définition du vivant par lui-même. En se définissant lui-même, le vivant fait irruption dans la théorie biologique, qui ne le définit pas autrement que lui-même ne le fait (et qui donc ne définit pas le milieu extérieur autrement que le vivant lui-même ne le fait dans le mouvement même de son autodéfinition).
A. Pichot, Éléments pour une théorie de la biologie, 1980, pp. 28-29.
En étudiant le temps qui sépare l’arrêt cardio-respiratoire et la cessation d’activité du cerveau une équipe de chercheurs canadiens de l’ Université de Western Ontario a enregistré une activité cérébrale 10 minutes après l’arrêt cardiaque du patient.
Chez trois patients sur les quatre observés l’activité cérébrale a cessé avant l’arrêt du rythme cardiaque et de la tension artérielle.
Pour le patient 1 -femme de 72 ans- l’activité cérébrale a cessé 4 mn avant l’arrêt cardiaque. Curieusement ces deux fonctions ont redémarré 1mn et 20 secondes après pendant 40 secondes.
Pour le patient 2 -homme de 70 ans- l’activité cérébrale a cessé 10mn et 10 secondes avant l’arrêt du coeur.
Pour le patient 3 – femme de 58 ans- il y a eu une vague de plages de fréquences élevées 8 mn avant la cessation de la pression artérielle et durant 4mn. La cessation de l’activité électro-cérébrale a cessé 1 mn et 30 secondes avant l’arrêt du coeur.
Cependant chez le patient n° 4 – homme de 67 ans- une activité électro-cérébrale à haute fréquence a été observée à deux reprises pendant 2 mn chaque fois , 11mn et 5mn avant l’arrêt de la pression artérielle.
L’activité du coeur s’est poursuivie durant 15 mn et 30 secondes après la cessation de la pression sanguine.
L’activité électro-cérébrale a progressivement diminué tout en en accusant des vagues d’ondes delta durant 10mn et 38 secondes après la cessation de l’activité du coeur. Bien sûr il n’est pas exclu que cette défaillance puisse venir des appareils de mesure. Il est noté que seule l’activité des parties antérieures du cerveau a été enregistrée. De futures études portant sur un échantillonnage plus important avec une couverture complète du cuir chevelu sont envisagées.
» In patient 4, initial high-frequency EEG activity was seen at two time points: 11 minutes and 5 minutes before ABP cessation for a period of 2 minutes each time. ECG continued for an additional 15 minutes and 30 seconds following ABP cessation. The EEG showed increasing suppression with infrequent single delta wave bursts following ECG and ABP cessation. These delta bursts continued for 10 minutes and 38 seconds following ECG cessation with a mean amplitude of 4.52 µV in the last burst of delta activity (Figure 2).
Figure 2 Raw EEG tracing in patient 4 following declaration of death. Representative tracing of large infrequent single delta wave bursts observed for 10 minutes and 38 seconds (EEG bottom four tracings) following the loss of ECG tracing (top tracing). «
Pour la première fois, les découvertes faites par une équipe de chercheurs français sont révélées. Et quelles découvertes ! Même si certains le pressentaient déjà, elles montrent de manière objective et reproductible des échanges d’informations insoupçonnées jusqu’alors, grâce à une nouvelle technologie d’imagerie par effet de couronne mise au point par la société Electrophotonique Ingénierie (société expertisée par le Ministère de l’Enseignement supérieur et de la Recherche et qualifiée de « Jeune Entreprise Innovante ») Particulièrement spectaculaires dans le monde du vivant, ces images de l’invisible permettent enfin de « matérialiser » la biocompatibilité entre deux corps sous la forme de ponts photoniques, visualiser des champs d’énergie interagissant entre eux, caractériser chaque chose par sa propre signature énergétique. Des découvertes bouleversantes de beauté et de force qui dévoilent un peu plus le monde quantique à l’échelle de notre réalité.
Les implications sont immenses dans le domaine des biotechnologies notamment mais aussi et surtout dans les réflexions philosophiques qu’elles imposent naturellement. Un nouveau regard sur l’environnement et notre monde est désormais en gestation.
Voici une présentation du fonds et des projets de l’Institut N-Light – Inscription du Fonds de dotation N-LIGHT au Journal Officiel du 12 novembre 2016–
N-Light est un fonds de dotation qui a pour objectif d’explorer des domaines auxquels la science actuelle s’intéresse peu ou pas du tout.
Il s’est notamment fixé comme mission d’analyser et de modéliser scientifiquement les découvertes effectuées sur l’énergie vitale et la conscience par les médecines traditionnelles et non conventionnelles. Le moment venu, celles-ci seraient associées à la médecine allopathique occidentale afin de créer une médecine intégrative globale, abordable par tous, telle que souhaitée par l’Organisation Mondiale de la Santé.
Le fonds N-Light envisage de participer financièrement et scientifiquement aux projets suivants :
Projet : modéliser scientifiquement l’Ayurveda
La Phase 1 consiste à établir des cohortes médicales exploitales scientifiquement à partir des bases de données de patients fournies par JIVA, à l’aide des techniques du Groupe CSTB des Systèmes Complexes du Laboratoire ICube de l’Université de Strasbourg, affilié à CS-DC Unitwin UNESCO.
La Phase 2 consistera à comparer les résultats obtenus par JIVA dans différents domaines en utilisant les principes enseignés par l’Ayurveda traditionnel, avec les résultats cliniques obtenus dans des cas similaires par d’autres techniques médicales, comme la médecine allopathique occidentale et la médecine traditionnelle chinoise. Cette comparaison portera notamment sur les points suivants :
Diagnostic
Thérapeutique
Règles de vie
analyse scientifique des résultats obtenus par les médecines traditionnelles, Ayurvéda indien et médecine chinoise notamment, mais aussi par les médecines chamaniques, en vue de les comparer à ceux obtenus par les médecines occidentales : allopathique classique et médecines « douces », homéopathique ou autres.
B – PROJET ÂGE D’OR DE LA SCIENCE
Ce projet consiste à étudier sous quelles conditions particulières la révolution scientifique du début du XXème siècle a pu avoir lieu. Des contacts ont été pris à ce sujet avec le Service des Systèmes Complexes de l’Université du Havre.
L’extension du modèle énergétique de la physique actuelle à des formes d’énergie en relation avec le vivant, comme l’énergie vitale (prana en Inde, qi en Chine) et les énergies de la conscience, mises en évidence notamment par les travaux ci-dessus. Une modification des équations fondamentales de la physique pourrait en découler.
C – PROJET « ICE » (INTERACTIVE CONSCIOUSNESS ENCYCLOPEDIA)
La création d’une base de données recensant les différents modèles de la Conscience accessibles sur Internet, dont serait déduit un métamodèle collaboratif et évolutif qui pourrait s’appeler : « Encyclopédie Interactive de la Conscience ».
,ingénieur ESE (physique nucléaire), chercheur en physique (anneau de collision Orsay), détenteur de plusieurs brevets, entrepreneur, conseil en entreprise, expert en art martiaux, pratiquant de plusieurs traditions spirituelles. Actuellement : président et responsable des programmes de recherche du Fonds de dotation N-Light (www.n-light.org)
Informations pratiques : Cette conférence aura lieu le vendredi 24 mars 2017 de 19h30 à 21h30, au siège de l’IMI, 51 rue de l’Aqueduc, 75010 Paris.
Présentation : Aujourd’hui, les avancées des sciences nous amènent à nous poser de nouvelles questions sur la nature de la Conscience, et il semblerait qu’un dialogue s’amorce entre Science et Spiritualité. Est-il possible d’imaginer une architecture unique de la Réalité, et un modus vivendi entre des modes de pensée différents, où personne n’aurait ni raison ni tort, chacun ayant sa vision particulière de la Réalité, en fonction du point de vue de ses observations ?
Notre but n’est pas de préconiser un modèle global particulier mais de proposer une méthodologie permettant à chacun de bâtir le sien propre. Il faudra de prime abord répondre à :
La conscience est-elle un phénomène émergent du cerveau ou le contraire ?
Existe-t-il une vérité unique qui décrirait une réalité unique ?
Le but de cet essai est de vous mettre sur la voie de votre vérité relative à partir de la prise de conscience du niveau de votre regard.
Ci dessous 2 vidéos – la première présentée par des scientifiques qui relate les observations de laboratoires scientifiques français et italiens indépendants sur les chemtrails.
La seconde est une conférence de Claire Séverac qui étend le sujet et fournit une quantité d’informations exceptionnelles reliant certains faits qui montrent les dégâts provoqués par la géoingénierie, l’agrobactérium, procédés parmi d’autres, de la guerre secrète menée entre les grandes nations et contre les populations, ici vu du côté des Etats-Unis. Dommage que cette présentation souffre d’inexactitudes scientifiques parfois grossières comme celles des éclairs horizontaux dans les orages ou de la présentation de l’expérience du Professeur Montagnier. Cette deuxième vidéo garde néanmoins et malgré ces erreurs et les doutes qu’elle génère sur l’ensemble de la présentation un grand intérêt par la multitude des informations recueillies.
Ces deux vidéos constituent un témoignage bouleversant sur les folies du monde des technosciences qui, au-delà des multinationales dont ils font partie ou auxquelles ils sont soumis, a gangrené la pensée des pouvoirs militaires et politiques. Les populations ne sont plus, au mieux, qu’un alibi pour ce pouvoir technoscientifique démoniaque qui ravage la planète.
4 ième assises de Technologos : 16 et 17 septembre 2016
Ecole des Hautes Etudes en Sciences Sociales
105 bd Raspail , Paris 6
avec la collaboration du CRIIGEN
—
Dans un grand nombre de pays industrialisés, l’espérance de vie plafonne, ou diminue, tandis que dans la classe moyenne américaine traditionnelle, autrefois fer de lance du progrès, la mortalité augmente par toxicomanie, suicide et affections environnementales (dites « maladies chroniques »). Le mieux-être n’embraye plus sur le progrès médical, malgré l’accroissement constant des ressources qui lui sont affectées. Activée par des mythes puissants (la science, la technique, le marché, la santé parfaite), la machinerie médicale s’emballe alors que les indices de sa contre-productivité et de ses impasses se multiplient.
Une première série de questions interroge le champ médical. Non pas seulement la culture commune de la corporation médicale du XXe siècle et du début du XXIe, mais bien la tradition héritée de l’antiquité grecque, qui appartient à tous (au même titre que la politique, la philosophie, les sciences, le théâtre). Comment s’opère la technicisation de la médecine ? Quels bénéfices, quels risques engendre-t-elle pour les soignants, pour les patients et pour les bien-portants ? Comment la science, la technique, le marché, la santé parfaite influencent-ils l’institution de la médecine dite moderne ? La médecine peut-elle s’affranchir du discours technicien moderne ? Peut-elle inspirer des traitements plus effectifs des grands maux collectifs, voire une authentique prévention ?
Une autre série de questions interroge les relations entre les organisations techno-industrielles au sens large, la santé des personnes et la salubrité de l’environnement. Enfin, l’importance des constructions mythologiques dans les actions humaines conduit à rechercher des imaginaires plus féconds susceptibles de préserver la permanence des conditions d’une vie humaine digne.
Le chercheur américain John Ioannidis, professeur à Stanford, montrait dans un article publié en 2005 par PLoS Medicine et Intitulé « Pourquoi la Plupart des découvertes publiées Sont fausses » que les bases statistiques sur lesquelles s’appuyaient bon nombre d’études n’étaient pas suffisamment rigoureuses.
Dans un article publié le 21 octobre 2014 par Medicine PLoS, surmonté d’un autre titre provocateur « Comment faire en sorte que plus d’études publiées soient vraies« , il met de nouveau les pieds dans le plat de la recherche scientifique.
…
On le comprend d’entrée de jeu, le but de John Ioannidis n’est pas de démolir la science ni ceux qui la font à grands coups de démonte-pneu. Son objectif consiste à améliorer le fonctionnement de la recherche car la marge de manœuvre, suggère-t-il, est grande. Dans l’énoncé du diagnostic, le chercheur américain, spécialiste de questions de santé, ne fait pas dans le diplomatique mais plutôt dans le direct. Il a recensé, entre 1996 et 2011, plus de 25 millions d’études scientifiques publiées, signées par quelque 15 millions de personnes de par le monde. Une quantité phénoménale d’articles, donc, à comparer avec un nombre de découvertes importantes beaucoup plus modeste.
…
John Ioannidis est convaincu depuis des années que le problème principal est dû au fait que le système de recherche ne fonctionne plus correctement et que la plupart des « découvertes » qu’il engendre ou enregistre n’en sont pas : par la faute de protocoles inadaptés, de biais, de mauvais traitements statistiques voire de malhonnêteté intellectuelle, les résultats soi-disant significatifs sont trop souvent des faux positifs que l’on ne peut reproduire. Au bout du compte, en biomédecine, c’est jusqu’à 85 % des investissements faits dans les recherches qui sont perdus, soit un total annuel astronomique de 200 milliards de dollars ! Une autre estimation, moins précise, évoque un gâchis portant sur « des dizaines de milliards de dollars ».
…
John Ioannidis fait une description, en termes choisis mais qui contiennent souvent leur dose de vitriol, d’un monde académique parfois sclérosé où les personnes qui attribuent les budgets publics de recherche sont rarement de grands chercheurs, où le conservatisme le dispute au népotisme et au sexisme.
…
L’article n’aurait pas grand intérêt si John Ioannidis se contentait de critiquer. Mais le chercheur, qui co-dirige aussi depuis le printemps le Metrics (Meta-Research Innovation Center at Stanford), une institution travaillant justement sur l’amélioration des processus de recherche, est venu avec deux batteries de propositions. La première concerne la manière de mener des études et met l’accent sur le cheval de bataille de John Ioannidis : une plus grande collaboration entre les équipes pour obtenir des échantillons plus importants et des résultats sans équivoque ; inciter à la reproduction des travaux pour s’assurer que les effets mesurés sont réels, ce qui passe par une standardisation et un partage totalement transparent des protocoles, du matériel de recherche et des résultats. John Ioannidis insiste aussi sur un point sensible : la mise en place de critères plus stricts avant de crier à la victoire, à la découverte. Le but, écrit-il, est de réduire les faux positifs « dans les domaines qui ont jusqu’ici été trop accomodants (comme l’épidémiologie, la psychologie ou l’économie). Cela pourrait leur conférer une crédibilité plus importante, comparable à celle des secteurs qui ont traditionnellement été plus rigoureux de ce point de vue, comme les sciences physiques. »
…
La seconde batterie de propositions est bien plus iconoclaste puisqu’elle touche non plus à la manière de faire des études mais à celle dont le petit monde de la recherche les « valorise ». Sans jamais citer la fameuse formule « Publie ou péris », John Ioannidis explique que, dans le système scientifique, les articles publiés sont comme une monnaie : ils servent à obtenir des « biens » (un poste, un échelon hiérarchique). Cela n’est pas sans conséquence puisqu’on voit parfois certains chercheurs avoir une production prolifique de travaux médiocres voire non-reproductibles, en profiter pour monter dans les hiérarchies, entrer dans les revues, bénéficier de renvois d’ascenseur et obtenir leur signature dans une étude pour laquelle ils n’ont donné qu’un avis, etc. J’ai moi-même pu constater que certains adoptaient ce que John Ioannidis appelle (joliment) la technique du « salami », qui consiste à découper une recherche en tranches, en sous-sections, et à « vendre », sur la base d’une seule expérience, plusieurs études à des revues différentes…
…
A l’opposé, le système actuel ne récompense que mal ou pas du tout ceux qui veulent reproduire les expériences des autres pour vérifier leurs résultats ou ceux qui s’investissent à fond dans la relecture des articles des confrères. Seule l’étude publiée importe. John Ioannidis propose donc de modifier la manière dont la bibliométrie est prise en compte dans l’évaluation des chercheurs, de ne pas donner de valeur aux publications per se mais d’en accorder à celles qui ont été confirmées.
…
Le chercheur américain a conscience que son scénario est « délibérément provocateur » et qu’il risquerait par exemple de décourager les ambitions de ceux qui veulent diriger un laboratoire. Néanmoins, l’article a le mérite de pointer les détails qui font mal, notamment le gâchis en temps et en argent que représentent toutes ces études dont les résultats ne se retrouvent jamais. A fréquenter chercheuses et chercheurs depuis presque dix-huit ans, j’ai entendu ici ou là, souvent sur le ton de la confidence, la plupart de ces critiques. Il y a quelque chose de sain et de salutaire à les voir, sans tabou, rassemblées sur la place publique.
Bertrand Vergely, philosophe, spécialiste des pères de l’Église, il écrit aussi sur de nombreux sujets d’actualités, son dernier livre est La tentation de l’Homme Dieu, vous pouvez en trouvez une note de lecture sur le blog de Jean Staune.
Thierry Magnin, Physicien et théologien, Recteur de l’université catholique de Lyon, il est un spécialiste des questions de bioéthiques et des rapports entre Science et Foi. Il est l’auteur de Les nouvelles biotechnologies en questions.
Jean François Lambert, Psychophysiologiste à l’Université Paris 8, il enseigne aussi à l’institut de philosophie comparée. Il est le Président de l’UIP.
Cette réflexion commence par la lecture d’un livre,
un livre qui m’est apparu d’emblée prophétique,
comme s’il décrivait avec acuité ce qui actuellement,
soixante ans après, nous submerge,
au point qu’il est devenu presque banal,
d’envisager une disparition possible et prochaine de l’être humain.
« L’obsolescence de l’homme »
sur l’âme à l’époque de la 2e révolution industrielle un livre de Gunther Anders éditions IVREA (2002, 1956)
« À un monde de violence et d’injustice, au monde de la bombe atomique,
on ne saurait déjà plus rien opposer que la révolte des consciences,
du plus grand nombre de consciences possible.
Georges Bernanos 18 mars 1946″
Quel livre au titre magnifique, si poétique, si questionnant !
Ce mot « obsolescence » habituellement employé pour des objets devenus inutiles et que l’on jette, conviendrait-il donc aussi à l’être humain ?
Pour lire la suite de cet article sur le site Psychothérapie intégrative
Les progrès de l’intelligence artificielle sont fulgurants, mais peu de recherches sont effectuées sur les conséquences de cette révolution technologique. C’est l’avertissement émis dans une lettre ouverte par un groupe de chercheurs et d’entrepreneurs. Parmi eux, Stephen Hawking et Elon Musk.
Et si la réalité rattrapait la fiction ? Sept cents personnalités du monde des sciences et de la technologie appellent, dans une lettre ouverte publiée le 10 janvier, à plus de prudence face à l’essor de l’intelligence artificielle, dont les récents progrès ont été fulgurants. À leur tête, l’astrophysicien britannique Stephen Hawking, mondialement connu pour ses recherches conduites sur les trous noirs et la gravité quantique, malgré une paralysie physique quasi totale. La lettre a été publiée par le Future of Life Institute (FLI), un think tank créé par Jaan Tallinn, cofondateur de Skype, et dédié à « protéger l’humanité des risques existentiels ». Parmi ses autres célèbres signataires, Elon Musk, fondateur de SpaceX et de Tesla Motors ou encore Morgan Freeman, qui occupe l’affiche du film Transcendance (2014), justement consacré aux dangers de l’intelligence artificielle.
…..
ASSURER LE PROGRÈS HUMAIN
« Étant donné le grand potentiel de l’intelligence artificielle, estiment les signataires, il est important d’étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges. » Ils évoquent, entre autres, la possibilité d’un chômage de masse dû à la robotisation, l’apparition d’armes autonomes, ou la délégation de choix moraux à des machines.
Les signataires appellent donc la communauté scientifique à réfléchir à des garde-fous éthiques et légaux et proposent des pistes de recherche afin que « nos systèmes d’intelligence artificielle fassent ce que l’on leur demande ». Dans une interview accordée à la BBC en décembre, Stephen Hawking mettait en garde :« Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine ».
ÉVOLUTION – Quand est apparue l’intelligence? Comment ces comportements complexes ont-ils vus le jour? À ces questions, sans doute les plus importantes que se posent la biologie évolutive, des chercheurs britanniques ont peut-être trouvé les réponses.
Premier point, affirment-ils dans deux études publiées par la revue Nature Neuroscience, l’intelligence est le fruit d’une augmentation du nombre de gènes cérébraux. Et si ce nombre de gènes a augmenté, c’est à cause d’un accident génétique survenu il y a 500 millions d’années environ.
Cet heureux hasard, sans lequel l’homme tel que nous le connaissons et le concevons n’aurait jamais vu le jour, a touché un petit animal invertébré qui vivait dans la mer. Affecté par cette mutation génétique, notre ancêtre lointain aurait vu son nombre de gènes cérébraux démultiplié pour évoluer vers des espèces dotés de formes d’intelligence.
Pour le comprendre, les chercheurs ont d’abord étudié les capacités mentales d’hommes et de souris en les soumettant à un certain nombre de tests d’intelligence. Ils ont ensuite combiné ces résultats avec les informations génétiques des individus, hommes et souris, qui ont participé à cette enquête.
Ils ont ainsi pu se rendre compte que les fonctions les plus développées de l’intelligence étaient attribuables aux mêmes gènes, c’est donc qu’elles constituent bien les gènes de l’intelligence. Dès lors, il ne restait plus qu’à savoir quelle était leur origine.
Mais il y a un revers à la médaille. Les gènes à l’origine de l’intelligence sont aussi ceux qui, lorsqu’ils sont endommagés ou subissent des mutations, provoquent des troubles mentaux.
« Notre travail montre que le prix à payer pour avoir une intelligence développée est la maladie mentale », explique le professeur Seth Grant, de l’université d’Édimbourg.
Les chercheurs avait déjà travaillé sur ces types de mutations et avaient montré qu’une centaine de maladies cérébrales étaient provoquées par des mutations de ces gènes.
« Désormais, en comparant le comportement des patients atteints de certaines maladies avec leur patrimoine génétique, nous pourrons peut-être les soigner », conclut le docteur Tim Bussey de l’université de Cambridge, qui a cosigné ces études.
Jeudi 1er août, le Conseil d’Etat a annulé le moratoire qui frappait depuis 2012 le MON810, un maïs transgénique de la firme américaine Monsanto. Le MON810 est une plante à laquelle un gène a été ajouté pour qu’elle produise une toxine dite « Bt » (du nom de la bactérie Bacillus thuringiensis qui la synthétise naturellement), toxine qui tue les insectes ravageurs de ce maïs, comme la pyrale, en paralysant l’intestin des larves. Dans l’esprit des créateurs de cette plante transgénique, faire fabriquer le pesticide directement par la plante évite aux agriculteurs d’en épandre sur leurs cultures. Cette décision du Conseil d’Etat a une nouvelle fois relancé le débat sur la culture d’organismes génétiquement modifiés (OGM) en France, les opposants aux OGM soulevant plusieurs arguments, comme les risques pour la santé des consommateurs (humains ou animaux d’élevage), la contamination des cultures non-OGM et du miel, le fait que certains insectes utiles seraient victimes de la plante ou bien le développement de résistances à la toxine chez les nuisibles.
Ce débat, qui a depuis longtemps quitté le domaine de la science pour tomber dans celui de la politique – les arguments exploités par les uns et les autres étant plus d’ordre idéologique que biologique –, pourrait bien de toute manière devenir rapidement un combat d’arrière-garde avec la future génération de plantes transgéniques, ainsi que le souligne Science dans son numéro spécial du 16 août, consacré à l’épineuse question des pesticides. En effet, les OGM de demain ne seront plus conçus suivant le principe assez basique qui consistait à leur faire produire l’insecticide. Non, ils seront l’insecticide, grâce à une stratégie diabolique, celle de l’interférence ARN.
Derrière cette expression se cache un phénomène dont la découverte a valu à Craig Mello et Andrew Fire le Nobel de médecine 2006. Pour le comprendre, il faut entrer dans le mécanisme cellulaire. Dans le noyau se trouve l’ADN, qui constitue le support de l’information génétique et détient la recette de fabrication des protéines indispensables à la vie. En revanche, l’usine qui synthétise ces protéines est située dans le cytoplasme de la cellule, c’est-à-dire à l’extérieur du noyau. Pour fabriquer une protéine, il faut par conséquent copier l’information contenue dans le gène qui, au sein de l’ADN, correspond à cette protéine, puis la transporter à l’extérieur du noyau. C’est le rôle de l’ARN messager.
Ce qu’ont découvert Mello et Fire, c’est que l’on pouvait, à l’aide d’un ARN dit « interférent », intercepter le facteur en cours de route : de tout petits morceaux de cet ARN interférent viennent se coller à l’ARN messager, ce qui entraîne sa destruction. Conclusion : le message ne parvient jamais à l’usine à protéines, la protéine n’est pas synthétisée et son gène est comme éteint. Le phénomène de l’interférence ARN se retrouve dans la nature, soit pour lutter contre l’introduction de génomes étrangers (de virus, par exemple), soit pour moduler l’expression de certains gènes.
L’idée des fabricants de semences OGM consiste à faire fabriquer à leurs plantes un micro-ARN interférent réduisant au silence une protéine-clé pour l’organisme des insectes ravageurs. Une fois que ces derniers auront croqué dans la plante et assimilé l’ARN interférent en question, celui-ci empêchera la production de la protéine vitale et l’animal mourra.
La recherche sur le cerveau et le graphène choisie par l’UE pour des financements Le Monde.fr avec AFP | 28.01.2013à 14h39 • Mis à jour le 28.01.2013 à 18h51
Abonnez-vous
à partir de 1 €RéagirClasserImprimerEnvoyerPartagerfacebooktwittergoogle +linkedin
La Commission européenne a choisi deux projets scientifiques d’envergure, l’un pour développer le graphène, un matériau d’avenir, l’autre visant à modéliser entièrement le cerveau humain sur ordinateur, comme lauréats d’une bourse qui pourrait leur permettre d’obtenir chacun jusqu’à un milliard d’euros sur dix ans. Le Human Brain Project, dirigé par le Pr Henry Markram, de l’Ecole polytechnique fédérale de Lausanne (Suisse), et le projet Graphene, dirigé par Jari Kinaret, de la Chalmers University of Technology, en Suède, ont été choisis parmi vingt et un projets pour bénéficier de cette bourse.
MODÉLISER LE CERVEAU HUMAIN D’ICI À 2023
Les deux projets devraient recevoir dans un premier temps 54 millions d’euros chacun pour 2013. Au total, en fonction du budget pluriannuel de l’UE pour 2014-2020, les deux projets pourraient recevoir jusqu’à 500 millions d’euros chacun provenant de fonds européens sur une période de dix ans, à condition que les Etats ou l’industrie les cofinancent. Cela pourrait déboucher au total sur des financement de 1 milliard d’euros pour chacun des deux projets.
Le Human Brain Project vise à simuler en détail un cerveau humain sur un superordinateur d’ici à 2023. L’idée est de fédérer des équipes de chercheurs pour comprendre comment le cerveau humain fonctionne, avec des applications en neurosciences et en médecine. Mais il s’agit aussi d’utiliser les connaissances qui seront acquises sur le fonctionnement du cerveau humain pour améliorer les performances des systèmes informatiques.
Le Human Brain Project regroupe quatre-vingt-trois organisations dans vingt-trois pays, dont seize européens.
CLONAGE – Il a la barbe bien fournie, l’air débonnaire et le sourire franc. En apparence, George Church n’a donc rien du savant fou. D’autant plus qu’à 58 ans, ce professeur de génétique à Harvard est l’un des pionniers d’une branche un peu particulière de la science: la biologie synthétique, dont le but est de recréer certains des organismes in vitro, grâce à de l’ADN.
Son nouveau dada, redonner vie, pourquoi pas, à l’homme de Néandertal. C’est ce qu’il explique dans une interview au magazine allemand Der Spiegel publiée le 18 janvier. D’après lui, et il est bien placé pour le savoir, les technologies dont nous disposons nous permettraient de cloner des membres de cette espèce d’homme disparue il y a environ 28.000 ans.
Lire et écrire de l’ADN sont des procédés désormais suffisamment rapides pour que cela ait lieu de son vivant, affirme-t-il. Seule ombre au tableau, il faudrait déjà savoir comment cloner des humains, mais aussi se l’autoriser. Néanmoins, Church estime que cela devrait être possible rapidement. Quant à la législation, si elle interdit le clonage humain dans certains pays comme l’Allemagne ou la France, il affirme que ce n’est pas le cas partout et n’exclut pas que les lois puissent changer.
Dans la zone couverte par les électrodes (ligne pointillée blanche), les zones d’activité sont localisées dans le lobe temporal supérieur. PLoS biology
En septembre, des scientifiques de l’université de Berkeley (Californie) réussissaient l’exploit de reconstituer des images de personnes dont seul le cerveau avait, jusqu’ici, le secret. Les participants regardent un film, et les signaux cérébraux correspondant aux images qu’ils voient sont convertis en modèles informatiques permettant de les redessiner, certes un peu floues, mais reconnaissables. La voie était potentiellement ouverte à une technologie permettant de déceler ce qui se trame dans notre tête, jusqu’aux rêves ou aux souvenirs.
Cette fois, une autre équipe de l’université de Berkeley va un peu plus loin dans ce fantasme d’intrusion dans le mental humain, en décodant non plus des images mais des mots, pensés par les participants d’une étude publiée dans la revue PLoS Biology. Les scientifiques ont placé des électrodes à la surface du lobe temporal supérieur de 15 patients – lobe chargé de l’audition mais aussi de certaines étapes du processus de la parole, telles que la conversion de sons en « phonèmes » signifiants. Ils ont ainsi enregistré leur activité neuronale au moment où ils écoutaient des mots et phrases pré-enregistrés. Puis deviné, et même reconstruit ces mots directement à partir de cette activité cérébrale, en des sons plutôt compréhensibles. On appelle cela de la « reconstruction de stimulus ». Brian Pasley, neuroscientifique à Berkeley, qui a mené l’étude, y voit des « preuves que la perception et l’imagination peuvent être assez similaires dans le cerveau », dit-il dans la revue Nature.
Le procédé pourrait être précieux d’un point de vue clinique. Notamment pour les personnes atteintes d’aphasie (du grec phasis, parole : sans parole), ou encore du syndrome d’enfermement, quand seules les paupières sont encore douées de mouvement. Bref, lire dans les pensées d’autrui peut se révéler utile pour communiquer avec tous ceux qui ne peuvent les exprimer.
L’étude Séralini est-elle sérieuse ? Que conclure pour l’homme d’une expérience sur des rats ? Rue89 répond à cinq questions et vous invite à soumettre les vôtres.
Capture d’écran de l’étude Séralini, parue dans la revue Food and Chemical Toxicology
Dès la publication de l’étude de l’équipe Séralini démontrant les effets toxiques des organismes génétiquement modifiés (OGM) sur les rats, la guerre des experts a, sans surprise, démarré. Les pro-OGM tentent de discréditer les anti-OGM, qui ont marqué un point et au moins réussi une belle opération de com’.
Pour aller plus loin
Pour un point de vue plus réservé sur cette étude
——————–
Les débats sur les OGM ont toujours fait rage en France. Ça ne risque pas de s’arrêter aujourd’hui. Une étude publiée mercredi a en effet déchaîné les passions en France, mais aussi à l’étranger. L’étude de Gilles-Eric Séralini et de ses collègues montre en effet que la consommation de maîs NK603 chez les rats augmente les risques de cancers ainsi que le taux de mortalité. Et la communauté scientifique de se diviser sur le sujet. Le professeur des sciences de l’alimentation Bruce Chassy estime dans le New York Times que « ce n’est pas une publication scientifique innocente, mais un coup médiatique soigneusement préparé« .
Dans un entretien donné au quotidien Le Monde, Gérard Pascal, ancien toxicologue spécialiste des OGM à l’Institut national de la recherche agronomique (INRA) et aujourd’hui consultant pour des entreprises agroalimentaires, explique quant à lui que l’étude présente de « très sérieuses lacune qui invalident ses résultats« , ajoutant qu’elle « présente […] des faiblesses statistiques majeures » puisqu’elle ne se base pas « sur des groupes d’au moins cinquante animaux de chaque sexe« , ce qui permettrait d' »établir une analyse statistique représentative« . Selon Gérard Pascal, « au lieu de deux cents rongeurs au total, il en aurait fallu un millier« . Il ajoute par ailleurs que « l’équipe de chercheurs a choisi, pour les expérimentations, une espèce de rats qui développement spontanément des tumeurs« .
Les auteurs de l’étude de répondre immédiatement à ces accusations. Joël Spiroux, coauteur de l’étude, explique ainsi sur le site du Nouvel Observateur que le nombre de rats « correspond au nombre utilisé par Monsanto dans son étude sur trois mois« .
Gilles-Eric Séralini explique quant à lui qu’il nie toute autorité à l’Agence européenne de sécurité des aliments (EFSA) pour mener une contre-expertise de ses recherches. Il déclare notamment qu' »il n’est pas question que ceux qui ont autorisé le NK603 réalisent la contre-expertise de nos données, car il y aurait un conflit d’intérêt avec leur autorité et leur carrière« . Le biologiste a par ailleurs expliqué qu’il pensait « également mettre en cause à la fois la compétence de l’EFSA et son honnêteté, au moins scientifique« . Le débat ne fait que commencer…
Les conflits de chercheurs font avancer la science
La science tend vers un objectif : décrire la réalité objectivement. Refuser cet objectif revient à dire que la réalité dépend du point de vue de chacun, qu’il n’y a pas de faits mais uniquement des interprétations. C’est quelque chose de très dangereux, car cela permet par exemple de nier l’existence des chambres à gaz.
Je m’oppose formellement à cela, tout comme je m’oppose, à l’inverse, à l’idée que les savants seraient des individus éthérés et détachés de tout intérêt. Bien sûr qu’ils en ont. C’est même là que réside le moteur de l’évolution des sciences.
En effet, c’est grâce aux différents présupposés de chacun que naissent des controverses scientifiques, et les recherches qui vont avec pour tenter de démontrer que l’autre à tort.
Pasteur avait un adversaire scientifique, Félix Archimède Pouchet. Chacun se lançait dans de nouvelles expériences dès que le premier avait fait une découverte. La matérialité de la réalité a finalement donné raison à Pasteur.
C’est bien la conflictualité dans le champ scientifique qui fait avancer la science.
publié par l’Express : Franck Laval, le 22/02/2012
[Chronique] Bisphénol A, phtalates, toxine botulique (Botox), toutes ces substances chimiques comme bien d’autres peuvent désormais être mieux évaluées. C’est ce que démontre le Comité scientifique de Pro Anima partenaire de la Start up Novaleads. Ensemble, ils ont mis au point un programme scientifique tout à fait novateur avec l’objectif de remplacer l’utilisation d’animaux en toxicologie tout en apportant une plus grande fiabilité des résultats.
L’expertise du Professeur Jean-François Narbonne, toxicologue à l’Université de Bordeaux II et les recherches de Novaleads ont permis d’assurer au programme nommé VALITOX-EVATOX, une prédicitivité de 82% contre à peine 62% sur les rongeurs. Les résultats ont été publiés dans une revue scientifique à comité de lecture ALTEX (Alternative to Animal Expérimentation, une référence en la matière) en Mars 2009. Non seulement des vies animales pourront être épargnées mais l’évaluation des substances chimiques qui nous environnent sera plus fiable! S’enthousiasme Christiane Laupie-Koechlin, fondatrice de Pro Anima et initiatrice du projet. Ce procédé, permettant de déceler l’éventuelle toxicité aiguë d’une substance en utilisant la technique de la fluorescence, est actuellement en cours de validation à l’ECVAM, l’Institut de contrôle en charge des validations au niveau européen. Le programme sera ensuite proposé dans le cadre de la directive REACH (ambitieux projet européen qui demande aux industriels de tester quelques 145 000 substances chimiques déjà présentes dans nos produits de consommation courante).
Les tests sur les animaux un modèle biologique pas fiable
Pro Anima s’active depuis des années à démontrer que les animaux ne peuvent pas être un modèle biologique fiable pour l’expérimentation, rendant ainsi les résultats des recherches peu extrapolables à l’homme. De plus, de nombreux scientifiques remettent ce dogme du » modèle animal » en question, dans les pays Anglo-Saxons notamment. Ainsi, aux Etats-Unis, l’Agence Reuters, dans un communiqué du 14 février 2008 indique que: les laboratoires d’Etat vont passer aux méthodes de tests sans animaux telles que les tests cellulaires et les banques de données pour tester l’innocuité des produits chimiques, les médicaments et les toxiques. Le National Institute of Health et l’Environmental Protection Agency (EPA) déclarent: Ces méthodes sont plus rapides, plus précises et beaucoup moins onéreuses.
La recherche pourra t-elle un jour se passer de l’utilisation d’animaux? Le débat, récurrent en Europe, est toujours d’actualité, malgré un manque évident de volonté politique, de la France en particulier! Toujours est-il que des progrès scientifiques fulgurants permettent d’envisager sérieusement une science plus éthique: modélisation de micro organes à base de tissus humains, création de bases de données ultra sophistiquées permettant de reproduire avec une plus grande exactitude des réactions chimiques, logiciels permettant de tester des substances directement à partir d’une simple prise de sang sur le patient, les progrès de la biologie moléculaire, cellulaire, génomique, bio marqueurs…
Autant de recherches qui contribuent à une science moderne au service de l’Homme, de la nature et de l’environnement. Car c’est bien de cela dont il s’agit déclare Pro Anima: Faire la promotion d’une expérimentation scientifique n’utilisant pas de cobayes animaux, c’est aussi restaurer les liens qui unissent l’Homme, l’animal et l’environnement… car hormis les cobayes animaux, les humains font souvent les frais de ces substances chimiques.A insi, dans ce cas, ce qui sauve l’animal améliore la recherche au service de l’Homme.
Egalement au niveau associatif, de grands organismes de protection de la nature et de l’environnement ont participé financièrement au programme VALITOX/EVATOX (SPA, Fondation 30 millions d’Amis, SNDA, Fondation Bardot, Association Bourdon). Un espoir pour tous dès maintenant.
Antidépresseurs : nombreux risques pour une efficacité controversée dans une dépression marchandisée
vu sur http://pharmacritique.20minutes-blogs.fr/
Ceci est le texte intégral de mon article paru dans le numéro de mai 2011 de la revue Alternative Santé(pp. 18-21), sous le titre (donné par la rédaction) « Antidépresseurs : l’overdose ». Je l’ai introduit et commenté dansce billet. Le nombre de signes était limité (dans la revue); c’est pour cela que le texte est très comprimé, sans transitions, ni figures de style, sans aucun mot qui ne semblait pas indispensable à la compréhension.
Antidépresseurs : l’overdose
Aldous Huxley imaginait dès les années 30 le médicament parfait, appelé Soma, qui crée un bonheur artificiel, émousse les émotions et pensées inadaptées par rapport aux normes sociales et devient ainsi un outil efficace de contrôle social. C’est le moyen idéal pour les tenants de la biocratie, l’une des formes de biopolitique (Michel Foucault) qui implique la médicalisation de l’existence, pour discipliner corps et esprits, normaliser les individus « déviants » à coups de camisoles chimiques et de bonheur standardisé. La psychiatrie ainsi dévoyée devient une gardienne de l’ordre socio-économique [1].
Marchandisation de la dépression
La dépression est « une construction historique » (Monique Debauche), depuis l’ancrage du terme dans le langage médical vers le milieu du 19ème siècle, pour désigner des états sévères tels que mélancolies, « dépressions vitales »… Il fallait élargir ce marché, trop étroit pour convenir aux objectifs de profit de l’industrie et à une psychiatrie qui voulait échapper aux psychanalystes. Pour ce faire, le marketing pharmaceutique commence par redéfinir et banaliser la dépression. Et l’on assiste à une « marchandisation de la dépression » en plusieurs étapes [2], en même temps que s’impose la psychopharmacologie, depuis la mise sur le marché de la Thorazine en 1953. Par la suite, l’arrivée des tranquillisants et des premiers antidépresseurs (IMAO, tricycliques) permettra de mettre au point les recettes publicitaires les plus performantes [3].
Tout est fait pour élargir les critères de la dépression, assimilée à la dysphorie (tristesse) et rendue socialement acceptable, alors que le discours général passe de la « folie » aux « troubles mentaux ». De plus en plus de bien-portants se retrouvent dans les descriptions délibérément vagues et deviennent éligibles aux « traitements » de toute sorte de « troubles » vaguement associées à la dépression… Le DSM – Manuel statistique et diagnostique des troubles mentaux -, rédigé par des leaders d’opinion grevés de conflits d’intérêts, a largement contribué à la création de ce marché. Sans oublier l’OMS, qui, sous l’influence des pharmas, a fortement promu la dépression, étiquetée maladie du 21ème siècle. L’OMS a aussi changé sa définition de la santé pour y inclure un vague « bien-être complet » des individus, ce qui légitime la publicité des firmes pour les « pilules du bonheur » et les médicaments de confort (lifestyle drugs) présentés comme indispensables [4].
Documentaire autrichien de P.A. Straubinger en version française (2010)
Peut-on survivre sans prendre de nourriture pendant des semaines, des années voire des décennies ?
La plupart des gens, scientifiques ou spécialistes répondront spontanément : c’est impossible !
Mais comment réagiront ces mêmes scientifiques et spécialistes lorsqu’ils seront confrontés aux preuves, rapports certifiés, interviews et expériences en laboratoire à l’appui, constatant que ce phénomène, parfois aussi désigné par « Respirianisme ou inédie », existe ?
Le film est une enquête passionnante et intrigante autour du monde. Il explore non seulement la connaissance issue des traditions spirituelles asiatiques, mais dévoile aussi les derniers modèles d’explications tirés de la physique quantique.
Sans promouvoir le « Respirianisme », ce documentaire propose une vision alternative de nos besoins, bousculant la philosophie mécaniste-matérialiste dominante. Serait-il alors possible de vivre autrement ?
Avec en bonus du DVD le passionnant documentaire « Propos sur la conscience », où le Dr. Amit Goswadi, physicien quantique, prétend que la conscience humaine ne provient pas du cerveau. A voir et revoir d’urgence en version française !
Attention : Non le respirianisme n’est pas à pratiquer par tout le monde, ni évidemment la solution à la faim dans le monde !
Serait-il alors possible de vivre autrement ? Oui, pour quelques uns…
Un excellent sujet qui démontre que le monde scientifique actuel marche globalement à côté de ses pompes… et que de nouvelles perspectives s’offrent à la destinée humaine.
« Si cette enquête remet en question nos conceptions et ouvre une porte sur une alternative, elle n’en reste pas moins honnête, rigoureuse, et ne fait aucune propagande. » (Les Fiches du Cinéma)
« P.A. Straubinger permet à chacun de se faire une opinion à travers une enquête solide, s’appuyant sur des études scientifiques. Lumière débute avec de nombreux plans aériens, une invitation à considérer les thèmes évoqués dans le documentaire avec un oeil neuf, à bonne distance. » (Excessif)
« Voilà, avouons-le honnêtement, qui a de quoi troubler les esprits rationnels, et justifie la tentation du réalisateur de remettre plus largement en cause les dogmes de la science positiviste. » (Le Monde)
« Même si le scepticisme reste de mise, ce film peut laisser croire selon quelques spécialistes à la véritable influence de l’esprit sur la matière. Il laisse aussi planer l’hypothèse que d’autres formes d’énergie pourraient exister se substituant à celles auxquelles on a l’habitude de recourir. En tout cas il a le mérite de laisser penser que l’homme a des capacités infinies en lui… » (Suite101.fr)
« Sans trop s’encombrer d’idéologies fumeuses ou hors d’atteinte des non-convaincus, l’enquête s’attaque à l’énigme biologique et médicale, explore et élargit le débat jusqu’à la valeur des sciences et de nos certitudes. C’est habile, très intrigant, avec une pointe d’humour pour faire passer le plus ahurissant. » (L’avis des femmes)
« On est plus frappé par le mépris de la communauté scientifique, qui en se fermant à toute étude apporte de l’eau au moulin des plus illuminés. Reste un sujet fascinant qui fait réfléchir… » (L’avis des hommes)
« Une chose est sûre, ce film n’est pas une incitation au jeûne mais invite, au contraire, le spectateur à repousser les limites de l’entendement pour approcher progressivement une autre réalité surprenante ! » (L’Officiel des Spectacles)
« Un beau message d’espoir donc, qui tombe à pic car avec bientôt 7 milliards d’êtres humains la lumière risque d’être notre plat principal. » (Le Canard Enchaîné)
On nous a appris à marcher, à parler et à nous comporter en société. Il y a une chose que nos parents ne nous ont pas appris – et ils n’en sont pas responsables puisqu’ils ont reçu le même enseignement – c’est gérer nos pensées. La pensée est un pouvoir puissant que nous ne maîtrisons pas, faudrait-il encore que nous ayons connaissance de ce pouvoir et de son étendue.
Gregg Braden est l’auteur de nombreux ouvrages. Je l’ai découvert sur internet à travers une vidéo qui, hélas, ne semble plus disponible sous-titrée en français. Elle s’appelle la science des miracles. Gregg Braden parle d’un champ d’énergie qui nous relie tous les uns aux autres. Le pouvoir de la pensée peut avoir de réels impacts sur tout être ou toute chose et ce en dépit de la distance et du temps. L’effet papillon en quelque sorte (un battement d’aile d’un papillon peut suffire à provoquer un ouragan à l’autre bout de la planète…).
Ce champ qui nous relie est extrêmement sensibles à nos émotions.
Gregg Braden relate dans cette vidéo trois expériences qui ont été menées dans les années 90 par des groupes différents et ne se connaissant pas. Trois expériences sur l’ADN humain.
Sans entrer dans les détails techniques, une équipe de laboratoire a fait le vide dans un vacuum (une sorte de tube). Il ne restait que des photons (particules de lumière) à l’intérieur de ce tube circulant à l’intérieur de manière aléatoire. De l’ADN humain y a été introduit. Aussitôt : les particules se sont alignées. C’était déjà surprenant mais cela l’a été encore quand l’ADN a été retiré du tube. En toute logique, les particules auraient du se disperser de nouveau dans le tube et circuler de manière aléatoire. Le fait est que les particules ont conservé cet alignement. Conclusion : notre ADN agit sur notre environnement.
Réalisée par une équipe de l’armée, l’expérience suivante consistait à prélever de l’ADN sur un volontaire et d’isoler cet ADN de son donneur dans des pièces différentes. Le donneur a été soumis à différents stimulis. Il a été constaté que lorsque le donneur avait ses « hauts » et ses « bas » (émotions positives et négatives), l’ADN dans l’autre pièce réagissait également. Il en a été déduit qu’il y avait une source d’énergie qui émanait du donneur et l’expérience suivante a consisté à séparer le donneur de son ADN à plus de 500 kms de distance. Le but était de mesurer le temps de déplacement de cette énergie. La surprise a été de taille de constater que l’ADN réagissait à l’instant T aux stimulis auxquels le donneur était soumis. A croire que le temps et la distance n’ont pas d’existence (?).
Enfin, il a été constaté que les changements de forme de l’ADN avaient des caractéristiques très particulières suivant la nature des émotions auxquelles il était soumis. Dans le cas d’émotions négatives (peur, colère, jalousie, ….), l’ADN se contracte comme un ressort. Dans le cas d’émotions positives (amour, compassion, joie,…), l’ADN se « prélasse ».
De nombreuses conclusions peuvent découler des résultats de ces expériences mais une chose est sure : cela bouleverse complètement les bases de la physique…
Faute d’accès à la vidéo, le récit de ces expériences se trouve dans le livre de Gregg Braden « La divine matrice » ….
Pour le reste, je laisse à chacun le soin de réfléchir à ses propres conclusions.
——————————————-
Pour terminer, afin d’en savoir un peu plus sur l’auteur :
Gregg Braden est reconnu comme un pionnier dans la tentative de construire un pont entre scienceset spiritualité. .
Ses voyages dans des hauts-lieux spirituels, unis à ses connaissances et à ses compétences dans le domaine des sciences de la mécanique, ont fait de lui un spécialiste qui est parvenu à remettre au centre de notre vie quotidienne les enseignements bénéfiques des traditions du passé. C’est dans les lieux qu’il a visités pendant plus de vingt ans qu’il a mené ses recherches, étudiant des textes oubliés afin de découvrir leurs secrets intemporels.
Gregg Braden a occupé des postes allant de celui de Géologue Informaticien, auprès de la compagnie « Phillips Petroleum », à celui de Concepteur expert de systèmes informatiques, pour le compte de la société « Martin Marietta Aerospace ». En 1991, ildevint le premier Directeur des opérations techniques pour la mise en place du réseau Cisco Sistems, où il s’occupa du développement de l’équipe d’assistance globale qui assura le bon fonctionnement de l’actuel réseau internet. Les diverses crises mondiales qui éclatèrent à la fin du XXème siècle, l’incitèrent à abandonner le monde de l’entreprise pour se consacrer à la recherche de solutions aux grands problèmes actuels. Il est aujourd’hui considéré comme une autorité reconnue parmi ceux qui s’attachent à relier les connaissances du passé à la science, à la médecine et à la paix de demain.
De son premier livre, L’éveil au point zéro suivi de l’ouvrage Marcher entre les mondes – La science de la compassion jusqu’à l’Effet Isaïe, l’auteur s’aventure au-delà des frontières entre la science et la spiritualité en proposant des solutions sensées pour répondre aux défis de notre époque. Il a d’ailleurs été l’invité de nombreuses conférences internationales et d’émissions télévisées s’interrogeant sur le rôle que la spiritualité a à jouer face au développement de la technologie dans nos sociétés contemporaines. Les livres de Gregg Braden ont été traduits en 13 langues et dans 25 pays.
Un nouveau monde s’ouvre à nous : celui de la biologie de synthèse. Elle pourrait apporter des thérapies plus efficaces, des médicaments moins chers, de nouveaux matériaux facilement recyclables, des biocarburants, des bactéries capables de dégrader les substances toxiques de l’environnement.
La biologie de synthèse est un domaine en pleine émergence. C’est l’ingénierie rationnelle de la biologie, son but est de concevoir de nouveaux systèmes biologiques. Elle fera progresser les connaissances du monde du vivant et permettra de développer de nombreuses applications industrielles dans les domaines de la santé, de l’énergie, des matériaux, de l’environnement et de l’agriculture.
La biologie de synthèse compte déjà au nombre de ses succès la mise au point d’un système de diagnostic sensible qui permet le suivi chaque année de 400 000 patients atteints du SIDA ou de l’hépatite et la synthèse d’un puissant médicament anti-malaria, l’artemisine.
Actualités – Projet Synthia
Le 20 mai 2010, après 15 ans de travail de 20 personnes et 40 millions de dollars d’investissements, une équipe de l’institut J.Craig Venter (États-Unis) a créé la première bactérie contrôlée par un chromosome synthétique.
L’équipe a remplacé le génome naturel de la bactérie Mycoplasma capricolum, qui peut causer la pneumonie chez la chèvre, par un génome pratiquement identique mais synthétisé en laboratoire. Le génome de cette bactérie consiste en un seul chromosome contenant 1,155 millions de paires de base, il avait été préalablement décrypté et l’information stockée dans des bases de données.
C’est à partir de cette information, contenant la succession des paires de base, que le chromosome artificiel à été synthétisé. Il n’a été que très légèrement modifié par un « filigrame » qui permet de le distinguer du chromosome naturel.
Le biologiste Rupert Sheldrake propose sept expérience fascinantes qui pourraient bouleverser notre vision de la réalité. Les scientifiques n’ont jamais réussi à expliquer des phénomènes aussi courants que la migration des oiseaux, la construction des nids hautement complexes des termites ; le » sixième sens » de nos animaux domestiques. Ils en viennent même à se demander si les » constantes fondamentales » de la nature sont effectivement constantes !…. La nature renferme indubitablement des mystères qui défient les connaissances scientifiques les plus poussées. Plutôt de les ignorer ou de les balayer d’un haussement d’épaules, Rupert Sheldrake propose de les attaquer de front. Pour ce faire, il suggère un véritable programme de recherche, qui présente l’avantage d’être à la portée de chacun, tant sur le plan de l’investissement que de la compréhension.
Parfaitement rigoureux en termes scientifiques, le protocole exposé renferme le germe d’une vision révolutionnaire de l’homme et de la nature.