Le relais du nouveau cycle sans chaîne(s)…

Trouvé sur : Magneto-Synergie , Merci à eux…

THE FINAL SECRET OF FREE ENERGY

© 1993 T. E. Bearden

Version française – version dubbed into french
Traduction: Alfred Smile
A.D.A.S.
P.O. Box 1472
Huntsville, AL 35807
9 Février 1993 (Révisé le 23 Mars 1993)

Partie I

Avant-propos (*)

Ce document contient concrètement le secret pour libérer l’énergie du vide simplement, utilisant un nombre varié de source de potentiel (batterie, générateur électrostatique, etc..). L’objectif est de réaliser des appareils à énergie du vide pour le débutant. J’ai découvert le ‘principe clé’ en une trentaine d’années.

J’ai établit des définitions claires et précises afin de comprendre clairement le procédé. Ce document contient donc les points essentiels établis pour comprendre l’extraction de l’énergie du vide.

L’électromagnétisme est une discipline faussement fondée et incomplète. Par exemple la définition de l’énergie est fausse. Laissez-moi vous énumérer quelques-unes de ces anomalies rencontrées dans le modèle l’électromagnétisme classique comme suit:

-la définition de la charge et du potentiel ne sont pas définies .Les algorithmes pour calculer une amplitude sont bafouées. L’électromagnétisme fait encore usage des champs de force comme causes de tous les phénomènes EM. Il est dit depuis 1959 que les forces sont des effets et non des causes, que les champs de forces EM existent seulement à travers la particule de masse, chargée dans le système physique et que le potentiel est la première cause dans un phénomène EM. La masse et la force n’ont aucunes définitions adéquates, exactes et réelles en électromagnétisme. L’amplitude d’une charge électrique sur un électron n’est pas quantifiable. Elle est plutôt implicite étant une fonction de l’amplitude du flux de photons virtuel échangé entre le vide et la particule chargée. Quand la particule chargée est placée dans un potentiel diffèrent de l’actuel, alors l’amplitude du flux de photons virtuel et enfin l’amplitude de la charge électrique sur l’électron est altérée. La mécanique quantique n’a plus rien à démontrer quand à l’existence d’un éther. Le fait que les champs de forces EM et d’ondes existent dans l’éther est complètement faux.

Seuls, les potentiels et gradients de potentiels existent dans le vide. Les ondes EM dans le vide ne sont pas des champs de forces d’ondes tel qu’il est encore enseigné. A la place des ondes EM il y a oscillation de potentiels et gradients de potentiels. Les potentiels sont caractérisés par la présence d’une structure interne faite par une paire d’onde EM bidirectionnel où les paires d’ondes EM sont en blocage de phase dans une série
d’harmoniques. Dans une paire d’onde photons et anti-photons sont constamment en couplage et découplage (gravitons à deux spin).C’est ainsi que gravitation et électromagnétisme sont maintenant unifiés

Aucun livre papier ou document ne fait référence aux équations de James Clark Maxwell .Les théorie de Maxwell et ses équations ont été rédigé en quaternion, les quels sont un système mathématique complet .L’électromagnétisme est une discipline échouée qui ne demande que ce qu’on la refasse. Jusque là le modèle présent bloque l’énergie libre, l’antigravité, une physique des champs unifiés, et une théorie unifiée de l’interaction esprit-matière.

Quelques définitions

  • Le vide quantique mécanique : Il se compose d’un intense flux de particules virtuelles (VPF).
  • Énergie et potentiel : L’énergie est synonyme de potentiel et vice versa .Elle est désordonnée statique ou dynamique.
  • Potentiel scalaire : Il est désordonné / dynamique dans le VPF du vide.
  • Potentiel vecteur : Il est désordonné / statique dans le VPF du vide.

 

Structure interne du potentiel scalaire

Structure d’un potentiel scalaire

Le potentiel prend l’aspect d’un flux de particules composé de deux ondes superposées dans l’espace mais inversées dans le temps (une onde [onde+anti-onde] ou [photon+anti-photon] :

StPotScal

 

Un potentiel de l’autre coté de l’univers

Donc nous avons un parfait flux intérieur de particules virtuel (VPF), développé dans le potentiel scalaire électrostatique. Nous avons aussi une disposition ordonnée parfaite développée dans ce potentiel. Quand nous rassemblons un simple ensemble de charge sur une balle ou une petite région de celle-ci, le potentiel scalaire EM de cette charge provient à travers l’univers. En cela nous avons une série d’harmoniques infinies d’ondes EM en phase dans le temps et l’espace s’en allant de la charge vers tout point distant de l’univers entier. Et nous avons une série d’harmoniques infinies d’ondes EM en phase « bloqué » dans l’espace et en phase inversé dans le temps, venant de tout point de l’univers qui revient à la source constituée des charges collectées.

 

Un potentiel est une rivière d’énergie

Le point est que vous avez dévoilé la présence d’une rivière cachée, possible grâce à deux chemins d’énergie entre cette collection de charges et tous les autres points dans l’univers. Il y a une énergie infinie dans chacune de ces ondes et anti-ondes développées. Mais dans une région localisée, la densité d’énergie dans chaque onde est finie. Aucun champ de force n’existe dans le vide, juste des gradients de potentiel.

Le potentiel d’ondes scalaire est en faite un potentiel d’ondes scalaire longitudinal. Les ondes EM dans le vide sont des ondes EG (électro-gravitationnel).

L’énergie interne est illimitée, infinie

Un potentiel statique qui est pareil à un excès d’énergie – est de façon interne – dynamique infini et illimité. Puisque l’énergie interagit localement avec la matière nous parlerons de densité d’énergie local (joules / Coulomb).

Un principe d’une grande importance

La seule façon que vous pouvez d’avoir un gros morceau ou un montant fini d’énergie pour être dissipé dans un circuit comme travail est d’avoir avant tout un potentiel de densité d’énergie local interagissant avec un collecteur local de masse fini. L’interaction normale de masse du collecteur local se fait par les électrons libres du circuit.

Tension, force, gradients de potentiel, charges et travail

Maintenant, intéressons-nous aux aspects des circuits. La tension est essentiellement définie comme étant une chute de potentiel. C’est la dissipation (de façon désordonnée) d’un montant fini de gradients de potentiel. Mais la seul façon d’obtenir un montant fini de gradients de potentiel (énergie) est d’abord en faisant interagir le gradient de potentiel interne /fini et de densité d’énergie en excès avec un collecteur de masse fini. Soit:

[Joules / Coulomb disponible pour être collectés]x[ Coulombs déjà collectés] = excès de Joules déjà collectés avec l’interaction des coulombs, disponible pour la dissipation. Donc la tension est réellement la dissipation d’une collection finie de gradients de potentiel d’énergie EM en excès. La dissipation de potentiel ou gradients de potentiel n’existe pas. Vous ne pouvez donc pas définir l’énergie (=potentiel) comme étant de la propre dissipation.

Nous capturons un gradient de potentiel à l’aide de quelques masses chargées – localement – habituellement des électrons libres sous la forme de gaz d’électrons libres – dans notre circuit. Nous exprimons la densité d’énergie finie d’un gradient de potentiel (avant collection sur les charges), dans la région local (Joules / Coulomb).Le dit-gradient de potentiel est un changement vers le potentiel ambiant ,et donc , il contient un excès de densité d’énergie (l’amplitude peut-être soit positive soit négative).Puis nous recueillons ce potentiel (densité de potentiel) sur un certain nombre de Coulomb, plaçant de minuscules petits gradients de potentiel à travers chaque électrons libres (couplage). Sur chaque particule ayant fait la collection d’un petit gradient, il y a une minuscule force F (s’écrit F°(ma) ,avec (ma) indivisible et inséparable).

Donc ce petit électron potentialisé se déplace tout seul dans le circuit. Dans la charge le petit électron subit secousses et accélérations, d’où radiation d’énergie. L’électron potentialisé s’est débarrassé du gradient réduisant la force à zéro.

 

Collection et dissipation de l’énergie

Nous considérons la densité d’énergie locale de potentiel scalaire en termes de Joules par seconde. C’est à dire dans une sphère spécifique de charge, le montant d’énergie collecté depuis un gradient de potentiel sur le nombre fini de charges collectant cette énergie est égale au nombre de Joules d’énergie par Coulomb multiplié par le nombre de Coulomb recevant le gradient de potentiel. Dissipation: Les Coulombs activés multipliés par l’excès d’énergie collecté par Coulomb activé donne le montant d’énergie dissipé dans la charge (travail effectué).

Nous définissons la collection comme la connexion du gradient de potentiel (une source) vers la masse chargé dans un élément du circuit (le collecteur), où un délai de temps fini pour potentialiser les électrons libres ne permet pas encore le déplacement comme du courant. Dans le collecteur pendant ce délai les électrons piégés sont activés par un gradient de potentiel en couplage avec ces derniers.

Techniquement le temps de délai dans le collecteur est appelé temps de relaxation, dans le cas de gaz d’électron libre (dans un fil ou un élément de circuit).

Pendant ce temps de relaxation les électrons potentialisés sont piégés, sans mouvements comme pour le courant .Chaque capture d’un nouvel électron libre entraine un petit gradient supplémentaire, mais aucun courant ne circule encore. Autrement dit, pendant le temps de relaxation fini, le potentiel est extrait depuis la source et ceci sans circulation de courant. Durant ce temps de relaxation, seul un courant de VPF est extrait de la source et y est réinjecté en continue par les échanges violents du VPF du vide avec les charges bipolaires de la source. Aucune énergie n’est consommée par et dans la source durant ce temps de relaxation mais il y est extrait des densités d’énergie libre. Cette densité d’énergie libre en couplage avec une quantité finie d’électrons nous donne un montant d’énergie collecté fini. Dans ce contexte, laissons l’opération se répéter pour donner une forme utilisable d’énergie libre.

 

Le gaz d’électrons

Une approche de type mécanique classique est nécessaire bien que se soit les lois de la mécanique quantique qui régissent le processus.

Quand un circuit est connecté à une source de gradient de potentiel (batterie), la première chose qui se passe immédiatement est que le gradient de potentiel s’emballe sur le fil relié le parcourant à la vitesse de la lumière.

Sur la surface du fil conducteur le gradient d’énergie se couple aux électrons libres dans le gaz d’électrons libres. Cependant à l’intérieur du fil ces électrons peuvent fortement résister, l’essentiel du déplacement du courant se fait donc à la surface du conducteur et se phénomène s’appelle effet de peau.

 

Force, gradients de potentiel couplé et translation d’électrons

Électrons couplés a un gradient de potentiel le tout en mouvement

Quand l’électron est activé par un gradient de potentiel couplé, il se déplace de lui même jusqu’à ce qu’il perde de son activation ou gradient de potentiel couplé.

Le champ de force EM est connu pour ses effets existant seulement dans et sur la particule chargée et n’existant pas séparément mais aussi n’existant pas dans le vide. Dans ce cas nous avons clairement indiqué que le gradient de potentiel du vide fourni le potentiel pour produire un champ électrique antiparallèle sur et dans une masse chargée par couplage. Un électron potentialisé se déplace uniquement grâce à une force. L’électron potentialisé accélère constamment. Cependant il est maintenu dans un état qui l’empêche de parcourir le fil directement.

L’électron doit sortir de l’intérieur du fil pour se poster à la surface de celui-ci pour être en mesure de se déplacer en tant que courant .Le collecteur est soit une bobine soit un condensateur le tout en matériau
« spécial ». L’objectif est d’avoir un matériau qui a pour effet d’empêcher la circulation du courant et de maintenir les électrons (obtenu dans un gaz d’électrons libres), temporairement fixes – les électrons continuent de « battre » / « tournoyer » violemment à l’échelle microscopique, mais n’effectuent pas de translations à l’échelle macroscopique – pour un délai fini (temps de relaxation) – à la suite de quoi rassemblés tous ensemble à la surface ils sont préparés pour la circulation du courant. Pendant ce délai fini de temps de relaxation les électrons seront appelés NNTE (No Net Translation Electron). Durant ce délai de non courant les électrons deviennent potentialisés / activés par le gradient de potentiel « imprimé » à travers le collecteur.

 

Le secret de l’énergie libre

2 cycles / 2 circuits

(1) Nous connectons le collecteur à une source primaire de potentiel (batterie), pendant le cours instant où le courant ne circule pas – mais potentialise. C’est à dire pendant le délai du temps de relaxation nous permettons au flux de particules virtuelles (VPF) de circuler sur les électrons NNTE du collecteur pour les potentialiser et les activer – mais pas encore pour leurs permettre de circuler comme courant – mais seulement de les laisser se déplacer transversalement dans le fil du collecteur. Ceci est la capture d’un montant spécifique de gradient de potentiel à l’aide de la source (batterie) vers le collecteur. Nous avons gratuitement élevé la charge du collecteur qui fonctionne après quoi comme une source (batterie) secondaire.

(2) Le collecteur potentialisé est alors brusquement déconnecté de la source primaire (batterie), pour être branché sur un circuit fermé comportant une charge – et la source, la batterie, se trouve connectée à rien à ce moment là (sauf certainement à une densité d’énergie de gradient de potentiel du vide).Pour résumé ce qui a été ponctionné depuis la source est un gradient de potentiel seulement – sans circulation de courant.

Vous avez simplement multiplié la densité d’énergie locale de gradient de potentiel (appelé tension et qui est un excès de Joules/seconde), par le nombre de charges de Coulombs qui est activé dans le collecteur.

Aucun travail sur la charge de la source primaire (résistance interne de la batterie) n’a été permis – soit pas de circulation de courant d’électron n’a eu lieu dans le circuit [batterie-collecteur]. Nous n’avons pas permis cela.

A la place on s’est servi du collecteur activé comme une batterie temporaire secondaire. L’utilisation de cette
« batterie » secondaire avec la charge se fait de façon tout à fait conventionnel. L’énergie EM capturée sera dissipée et la « batterie secondaire » ne sera plus potentialisée / activée.

 

Le circuit standard pour l’extraction d’énergie

Le circuit conventionnel

Le potentiel « source » bipolaire est connecté en circuit fermé avec la charge. Ceci connecte la résistance interne de la batterie et celle de la charge en série. Les électrons traversent la charge externe du circuit à travers la résistance interne de la batterie, du pôle – au pôle +. La dissipation d’énergie dans la résistance interne de la batterie est du travail qui dérange « la chimie » de la batterie qui s’efforce de maintenir la séparation des charges. De cette manière la séparation des charges de la source (qui est le seul accès au gradient de potentiel d’énergie), est en train de disparaître par la circulation du courant et la batterie qui à son tour se voit détruire le gradient de potentiel.

 

L’énergie de la charge externe est gratuite aux prix de l’énergie de la source

Ici est le secret de l’énergie libre électrique. L’énergie fournissant du travail à la charge est gratuite. La seule énergie qui coûte est celle utilisée à l’intérieur de la source par la résistance interne …
(Les compagnies d’électricité nous roulent dans la farine au sujet du gâchis d’énergie fait par nos appareils)

 

Toute énergie est gratuite

Pas un seul watt d’énergie peut ne pas provenir, en aucune manière, du vide !

 

Dissipation de l’énergie collectée

Le cycle de travail

Le gradient de potentiel est transféré dans le circuit de charge à travers la circulation des électrons lors de la connexion du collecteur potentialisé au circuit de charge. L’électron ne se soucie pas si la batterie est reliée ou non, il est son propre moteur de bateau avec sa propre petite machine de conduction. Lors du passage dans la charge les électrons éjectent leurs petits gradients de potentiel. Quand tous les électrons potentialisés ont irradiés dans la charge, ils ne sont plus alors potentialisés.

Notes de ce que l’on a fait

Nous avons pris quelques densités d’énergie EM capturées c’est à dire un gros morceau de gradient de potentiel, depuis la source puis nous l’avons connecté au collecteur. Sur un collecteur le gradient de potentiel est couplé, potentialisé et activé à ses électrons NNTE. Donc le collecteur à recueilli un montant fini d’excès d’énergie de Joules par Coulomb le tout multiplié par le nombre de coulomb capturés sur ses électrons libres devenus maintenant excité, activés. Désormais nous basculons le collecteur potentialisé à la charge. Rapidement le temps de relaxation dans le collecteur expire. Les électrons potentialisés dans le collecteur sont libérés pour se déplacer dans la charge externe du circuit. L’éparpillement, les chocs, les collisions, les accélérations irrégulières dans la charge éliminent le gradient de potentiel sur les électrons de conduction avec rayonnement EM soit rayonnement de chaleur. En se débarrassant des photons, les électrons perdent leur petit gradient de potentiel et aussi leur activation (excès d’énergie EM).

 

Qu’est-ce que l’énergie dans un circuit électrique

Énergie dans un circuit électrique

Il est un principe limpide.
L’énergie dans un circuit électrique implique seulement la potentialisation et la dépotentialisation des électrons porteurs dans ce circuit. Les circuits électriques utilisent simplement les électrons comme porteur de gradient de potentiel circulant depuis la source vers la charge. La secousse-accélération des électrons-activés dans la charge cause la perte du gradient de potentiel dans l’espace environnant sous forme de chaleur appelé aussi rayonnement EM.

Suite des opérations

Une fois le cycle II terminé nous reconnectons le collecteur à la source (cycle I) pour recommencer à nouveau la collection de gradients de potentiel d’énergie. Alors nous basculons à nouveau le collecteur une fois potentialisé sur le circuit externe de charge (cycle II) suite à quoi les électrons libre potentialisés vont pouvoir perdre leur gradient de potentiel au travers de la charge par rayonnement EM (chaleur).Nous pouvons se faire succéder le cycle I et II autant de fois que nous le souhaitons. Si vous permettez au courant de circuler lors du cycle I, vous réduisez alors la séparation de charge à l’intérieur de la batterie qui s’efforce de fournir le potentiel de la source.

Tout gradient de potentiel (excès de densité d’énergie piégé), est libre d’accès

Le potentiel est dû à l’échange violent de VPF entre le vide et les charges bipolaires séparés fournissant le gradient de potentiel de la source. L’énergie de l’univers entier est en circulation à travers le potentiel de la source. Vous pouvez avoir toute l’énergie piégée que vous souhaitez depuis la source.

Les règles du fer

Si vous établissez un courant, vous détruisez la barrière de bipolarité fournissant le gradient de potentiel (densité d’énergie de la source). Dans ce cas la source est en cours de destruction. Si vous n’établissez pas de courant vous ne détruisez pas la barrière de bipolarité et la source reste intacte. Dans ce cas vous pouvez continuez d’utiliser la source et d’extraire de l’énergie EM piégé à jamais.

 

Encore des définitions

Énergie : Elle est désordonnée et repose sur le VPF.

Énergie EM : Elle est désordonnée et repose sur le flux de photons virtuels du vide.

Énergie statique : Elle est un modèle ordonné, stationnaire avec respect d’un observateur externe.

Énergie dynamique : Elle est un modèle ordonné, non stationnaire avec respect d’un observateur externe.

Potentiel : Il est un modèle désordonné et qui repose sur le flux de particules virtuelles (VPF) du vide.

Potentiel scalaire : Il est un modèle ordonné et qui ne se déplace pas avec respect d’un observateur externe.

Potentiel vecteur : Il est un modèle ordonné qui est en mouvement avec respect d’un observateur externe.

Potentiel scalaire EM : Il est dynamique et repose sur le VPF du vide avec respect d’un observateur externe.

Encore une fois Énergie et Potentiel ont la même définition. Le potentiel est en fait de l’énergie piégée.

 

Le concept double de la Tension

Avant-propos

Le Voltmètre influence la mesure prise (à travers sa résistance interne de mesure) et rigoureusement les valeurs deviennent erronées.

On ne peut de toute évidence mesurer l’énergie ou potentiel comme de la Tension.

Toutefois pour clarifier et améliorer la compréhension des circuits électriques à énergie libre nous aurons besoin d’équations (pseudo-équations) en corrélation avec les moyens de mesures et d’expérimentations actuelles. Bien que faisant du tord à la rigueur d’esprit du scientifique dans le domaine de l’énergie libre.

Les pseudo-équations

T  : trapped (piégé)

m : translated (en mouvement)

d : dissipate or dissipating (dissipé …)

K : energie

V = Volt = chute de potentiel ou potentiel dissipé = rayonnement EM dans la charge (chaleur) = travail effectué par la charge

f : potentiel scalaire électrostatique

coul : Coulombs

i = ampère = dissipation des Coulombs potentialisés par seconde pendant la circulation du courant = amps toujours en translation = Amps sont des Coulombs par unité de temps, seconde, qui sont en train de dissiper leur excitation.

[Il y a seulement amps (avec super conductivité exclut) quand il y a une chute de potentiel à travers une charge (les électrons potentialisés traversent la charge)].

n : nombre d’électrons par Coulomb = 6,3.10^18 électrons/coulomb.

Df = VT

Travail : Kd = Vd x ampd x sec = watts x sec = puissance x temps = Vd x (could/sec) x sec

–>>Dans le switching nous switchons KT  vers Kd donc :

KT ==> Kd

Mais :     VT  x coulT = KT

Ou    :     Énergie piégée par Coulomb piégé : [VT] = [KT] / [coulT]

MONTANT D’ENERGIE PIEGEE A CHAQUE CYCLE : [KT] = [VT] x [coulT]

C’est donc ce à quoi nous souhaitons connaître : le montant d’énergie piégé que l’on peu transférer dépend du nombre d’électron piégé dans le gaz d’électron libre piégé dans le collecteur et du gradient de potentiel appliqué à ces Coulombs piégés pour les potentialiser.

 

Temps de relaxation et semi conducteurs

Temps de relaxation

Le temps que prend les électrons libres dans un conducteur pour atteindre la peau du conducteur (surface fil), après que le potentiel soit appliqué est, évidement, appelé le temps de relaxation. Durant ce temps les électrons libres dans le gaz sont piégés jusqu’au moment de la production de courant (dissipation du potentiel). Cependant, immédiatement après la fin du temps de relaxation, un courant apparaît et la dissipation de l’énergie piégée commence.

Dans le cuivre le temps de relaxation est incroyablement, rapide. C’est environs : 1,5.10^-19 sec. Bien que dans le quartz c’est environs 10 jours ! Donc tel que vous le voyez nous avons besoin d’être situé entre ces deux valeurs et donc nous aurons à mixer ou doper les matériaux. Nous devons avoir un temps de relaxation suffisamment long tel que nous pouvons collecter et

basculer confortablement entre les cycles I et II. Mais aussi le temps de relaxation nécessaire doit être assez court pour permettre des décharges rapides dans la charge, dès que nous connectons ensemble la source primaire et le collecteur. Plutôt que du simple cuivre nous aurions besoin d’un matériau semi-conducteur dégénéré.

Matériau semi-conducteur dégénéré

Un matériau semi-conducteur est intermédiaire entre un bon conducteur et un isolant. C’est un matériau non-linéaire et dopé. Un matériau semi-conducteur est un matériau qui a toutes ses bandes d’énergie pleines et remplies d’électrons, et enfin qui semble être un conducteur. Avec un tel matériau dopé on peut augmenter le temps de relaxation.

Du bon fil de cuivre… sûrement pas !

Les inventeurs de circuit sur-unitaire obtiennent plus de puissance à la sortie qu’à l’entrée. Mais dès que l’un d’eux cherche à améliorer l’appareil sur-unitaire avec utilisation de composants et matériaux purs et de meilleure qualité… BOOM ! Il n’y a plus du tout de sur-unité. Explication : La plupart des inventeurs obtinrent des effets de succès (parfois irréguliers), lorsqu’ils se débattaient avec des matériaux oxydés, usés, et vieux. En fait moins bon est le matériau meilleur sera le résultat. Plus c’est contaminé et dopé mieux c’est !

Le moment où vous aurez décidé de construire un circuit avec du bon fil de cuivre connecté entre la batterie ou un autre type de source et la partie du circuit contenant le collecteur, vous pourrez dire au revoir à la sur-unité. Vous aurez perdu ça dans le cuivre après les premières 1,5.10^-19 secondes !

Pensez d’un bon conducteur réellement tel que le cuivre comme un matériau linéaire essentiellement. Linéaire signifie énergie conservatrice. La sur-unité peut seulement être obtenue avec un effet hautement non-linéaire. Donc votre conducteur doit être constitué de matériaux non-linéaires. En fait ils doivent être des matériaux de type semi-conducteur dégénéré. Pour le circuit le cuivre et le fil de cuivre doivent être dopés.

L’installation électrique (tout le circuit) doit être constituée d’un matériau semi-conducteur dégénéré (DSC).
Les industriels peuvent fabriquer cela avec le temps de relaxation désiré.

C’est un tel câblage qui doit être utilisé pour relier la source au collecteur. Le collecteur lui aussi doit être de cette nature. Le collecteur est soit un condensateur soit une bobine.

A l’inverse du collecteur vers la charge on veut utiliser du bon conducteur, du fil de cuivre sera parfait.

Maintenant que cela est fini, l’affaire est dans le sac. Pour la fabrication du matériau DSC, il faudra simplement au préalable calculer un temps de relaxation adéquat pour être adapté et intégré aisément dans le circuit avec les composants qui agissent sur le « switching ». Exemple : pour une valeur de 1 ms on pourrait même utiliser des composants mécaniques, alors qu’avec des nanosecondes les composants seront plus chers peut-être…

Donc dans le collecteur vous calculez le nombre de coulombs piégés que vous avez. Mesurez la « tension
piégé » (densité d’énergie de potentiel de courant gratuit par coulomb) que vous extrayez depuis la source lors du temps de relaxation après connexion au collecteur. Multiplié le nombre de coulombs piégés dans le collecteur par la tension piégée durant la phase de collection, et vous avez le montant d’énergie en Joules que vous recueillez gratuitement, sans payer pour ça, depuis la source pour un nombre souhaité de cycles.

 

Sources, collecteurs et puissance

Mesurez l’énergie du vide

Vous êtes en train de posséder l’excès d’énergie électrique directement depuis le vide, comme cité plus haut. Le vide va gracieusement reconstituer toute la « tension piégé » depuis la source primaire durant le temps de relaxation des électrons. (Nous ne somme pas obligés d’attendre que le temps de relaxation des électrons soit atteint pour basculer le collecteur sur la charge externe du circuit).

La source peut-être presque rien

Vous pouvez utiliser comme source un simple fil élevé pour se placer entre la Terre et l’Ionosphère avec
200-300V/m. Le fil doit être dopé…

Finalement vous devez ajuster la répétition des « switching » en les synchronisant avec le temps de décharge avec la charge comme suit : (le temps en série est Dt1+Dt2+Dt3+Dt4)

(1) : extraire l’énergie piégé (potentiel), depuis la source sur le collecteur pendant le temps Dt1,

(2) : Basculer le collecteur sur la charge pendant le temps Dt2,

(3) : Attendez la décharge du collecteur à travers la charge durant le temps Dt3,

(4) : Re basculez le collecteur vers la source pendant le temps Dt4.

Limité seulement par un seul modèle?

Évidement il existe des variantes, je vous ai juste donné les points essentiels de la réussite. On peut combiner plusieurs collecteurs, utiliser de la THT pour la source ou placer une batterie à la place de la charge, etc, …

 

Partie II

 

 

INFORMATIONS SUPPLEMETAIRES SUR

LE SECRET FINAL DE L’ENERGIE LIBRE

Mise à jour : 15 février 1994
© 1994 T. E. Bearden1994

Use of Step-Charged Capacitor as the Collector by Tom Bearden

 

Introduction

Suite à de nouvelles découvertes et de nouveaux brevets déposé, j’ai ainsi rédigé se document.

 

Sommaire de l’invention

Une méthode et un appareil pour l’extraction d’énergie d’onde EM bidirectionnel depuis le vide par le gradient de potentiel scalaire à travers les terminaux d’une source électrique, collectant l’excès d’énergie dans un collecteur sans entropie, puis de façon séparé déchargeant l’énergie collecté à travers la charge pour exécuter un travail, sans renvoyer le courant de la charge à travers la source primaire contre son gradient de potentiel. C’est à dire, contre sa bemf (back-emf). Retirer le courant de la charge interne de la source réduit substantiellement la production de travail à l’intérieur de la source pour ne pas dissiper sa bipolarité. Disant que le travail de dissipation interne étant bien connu pour être la cause d’épuisement de l’habilité de la source à continuer de fournir une emf vers le circuit externe. Par réduction de ces dissipations internes, la source est capable de fournir plus d’énergie pour de la dissipation dans la charge externe qu’il en est pour la charge de la source. La source est capable d’opérer de façon sur-unitaire. LE système est dit ouvert, il extrait et utilise l’excès d’énergie EM depuis une libre circulation dans la source externe (le flux d’échange entre le vide environnant et la source bipolaire fait de cette dernière un système ouvert).

Ce système sur-unitaire peut opérer avec une grande efficacité, sans violation des lois de la physique, de façon analogue, mais entièrement différente, à peu près comme une pompe à chaleur (frigorifique). La bipolarité de la source est utilisée premièrement comme une antenne dipôle pour recevoir l’énergie d’onde EM bidirectionnel circulant depuis le vide et pour diriger cette énergie sans entropie à l’aide de composants « switcher » vers le collecteur ! La conduction des électrons dans le collecteur est temporairement restreinte, lesquels sont en train d’être sur-potentialisé par excès d’énergie en train d’être collecté sur eux. Le collecteur et ses électrons sur-potentialisés sont alors déconnectés de la source et connectés maintenant à travers la charge tel un circuit fermé et séparé. Les électrons dans le collecteur et leur excès d’énergie sont alors automatiquement relâchés pour circuler comme le courant en une décharge à travers la charge. Cette énergie effectue un travail dans la charge. Le collecteur (une fois l’énergie dissipée dans la charge), se rebranche sur la source pour un nouveau cycle de collection.

Fig1B

Figure 1A : Circuit type utilisant un générateur de rampes pour charger le condensateur sans travail, avec décharge séparé de l’énergie collecté sur la charge sans épuisement substantiel sur la source primaire.

Fig1A

Figure 1b : Circuit type pour charger un collecteur en semi-conducteur dégénéré (DSC), avec de simples impulsions sans travail appréciable avec décharge séparée de l’énergie collecté sur la charge sans épuisement substantiel sur la source primaire.

 

Toutes sources électrique de potentiel est déjà une source d’énergie libre

La source agit comme une antenne dipolaire pour recueillir en permanence le courant du potentiel scalaire (d^/dl), (courant se déplaçant sans masse), depuis le vide. Pour les conditions pour une charge libre, (di*/dl) est continuellement reçue depuis le vide par n’importe quel dipôle, et la circulation d’énergie est continuellement échangée en va et vient depuis le dipôle. Cet échange d’énergie libre avec le vide est vrai dans deux points : dans notre circuit qui possède un circuit ouvert de tension ou ddp (différence de potentiel), entre les deux pôles de la source. Les sources d’antennes dipolaires d’énergie libre sont partout. Nous avons juste à apprendre comment casser la symétrie dans l’échange de leurs flux d’énergie avec le vide, collecter quelques influx circulant librement et distribuer cet excès d’énergie collecté vers une charge séparée et isolée. Autrement dit nous avons simplement qu’à copier sur les pompes à chaleur (frigorifique).

Fig2

Figure 2 : Pourquoi les systèmes d’énergie électrique actuels ont une efficacité opérationnelle sous-unitaire?!

 

Condensateur (chargé par pulse) comme collecteur

Continuons notre recherche par un matériau spécial pour un temps de relaxation de gaz d’électrons prolongé pour le collecteur, un alliage composé de 98% d’Aluminium et 2% de Fer.

Cycle 1 (collection d’énergie) :

Cycle2

 

Puis temps de relaxation atteint :

Cycle1-b

 

Cycle 2 (dissipation d’énergie)

Cycle1-a

Cependant la production de cet alliage est assez onéreuse, c’est pourquoi nous recherchons autant que nous le pouvons d’autres solutions.

En attendant, on peut faire déjà autrement. Utilisons un condensateur normal pour le collecteur, en le chargeant avec un générateur de rampes. La preuve que ceci peut librement charger un condensateur avec de l’énergie, sans avoir à effectuer du travail appréciable est déjà connu dans la littérature. Vous pouvez charger un condensateur sans entropie et essentiellement sans avoir à établir un courant de masse d’électrons.

Pour faire court, nous considérons que le condensateur peut-être chargé sans déplacement de masse (d’électrons), de circulation de courant.

Nous envisageons, dans l’usage du circuit, que le déplacement «d’électrons sans masse » est un courant de potentiel scalaire (dØ/dl) – un courant de potentiel pure (d’énergie EM capturé), le long du conducteur ou à travers le vide.

 

Opération avec circuit à 2 fils, fermé, conventionnel

Là il y a circulation de courant dans ce circuit fermé, au travers la charge et le reste du circuit. Les électrons seront considérés comme un fluide matériel pour du travail à faire, pour transporter et décharger l’excès d’énergie EM et en forçant les électrons à revenir à travers la force électromotrice de retour (bemf), qui recharge encore les électrons envoyés avec un excès d’énergie EM, sous la forme d’excès de petites densités d’énergies capturées Ø’S, sur chaque électron recyclé.

Quelques excès de Ø collectés sur les électrons sont dissipés dans la charge comme du travail utile, mais seule la moitié est dépensée (le reste perdu en friction, inefficacité, etc), et ceci sans excès de Ø, petite densité d’énergie capturée.

Ces circuits à boucle fermé sont sous-unitaire perpétuellement (cf. fig. 2).

A noter que ces circuits sont tout de même des circuits ouverts « branchés » sur le vide et recevant en permanence de l’énergie libre, mais ils ont le défaut d’être conçu de manière suicidaire.

 

Efficacité opérationnelle

Nous définissons operational efficiency Alpha comme la puissance moyenne dans la charge divisé par la puissance moyenne à l’intérieur de la source pour dissiper et détruire la barrière de bipolarité.

 

Thermodynamique et système à sur-unité ouvert et en déséquilibre (asymétrique)

Dans cette approche nous avons un circuit ouvert lors de tous cycles de collections, avec une source externe qui reçoit un flux d’énergie sans relâche. Nous avons exprès cassé la symétrie d’échange avec le vide, d’énergie du système, en séparant dans l’espace et à travers le temps, l’opération par un cycle de collection d’énergie et un autre cycle de dissipation d’énergie. L’efficacité opérationnelle de la sur-unité est possible sans violation des lois de la nature. Bien que l’équilibre dans le flux d’énergie local ait été cassé, celui dans le flux d’énergie global ne l’a pas été.

 

Courant de déplacement sans masse

C’est la technique que nous utilisions. On utilise le déplacement de courant sans masse pour charger le condensateur, plutôt que le flux de courant d’électrons (habituel).C’est un flux d’énergie réel néanmoins. Il est un phénomène bien connu dans le chargement d’un condensateur. Un coté du condensateur charge déjà l’autre coté à l’aide justement de se déplacement de courant sans masse, transportant de l’énergie EM réel à travers l’espace qui sépare les deux plaques du condensateur – les électrons eux-mêmes ne traversent pas cet espace.

Le déplacement du courant est toujours bien connu pour être un transport d’énergie libre sans aucune dissipation en puissance ou/et travail. En établissant un déplacement de courant sans masse, seulement à partir de la source antenne à la place d’un flux de courant d’électrons, vous pouvez établir du travail gratuit ou du non travail, sans dissipation d’énergie de la source-antenne.

Le ‘ truc ‘ est d’empêcher la circulation de la composante masse (déplacement longitudinale des électrons) du courant électrique dans la source primaire lors du processus de collection.

Dans le document 1/3 nous avons expliqué que ceci pouvait être fait en utilisant pour collecteur un matériau semi-conducteur dégénéré avec un temps de relaxation du gaz d’électrons relativement étendu. Dans ce document il aura été plutôt question de charger gratuitement un condensateur par un générateur de rampes pour des raisons économique.

TBearden

Ci-dessus Tom Bearden théoricien et inventeur en énergie libre

Partie III

 

APPAREILS ELECTRIQUES SUR-UNITAIRE – PRATIQUE

PRACTICAL OVERUNITY ELECTRICAL DEVICES

© T.E. Bearden – 13 Mai, 1994

 

LEGENDE:

 = produit scalaire

Ø = Champ potentiel électrostatique scalaire

 = Nabla (désigne soit le gradient d’une fonction en analyse soit une connexion de Koszul en géométrie différentielle).

|x| = valeur absolue de x

uf = microFarad

La charge n’est pas quantifiée

La valeur de la charge est changeante lorsque celle ci se déplace dans le circuit et elle se représente par une fonction selon le contexte du potentiel.

 

Les deux composantes du courant électrique

La seule façon de comprendre l’énergie libre est d’abord d’appréhender le courant électrique tel que constitué par deux courants couplés ensemble : [(dØ/dt) (dm/dt)].

Le composant (dØ/dt), est connu et mal compris, il est le déplacement de courant sans masse.

Le composant (dm/dt), est le déplacement de courant de masse.

L’opérateur  signifie couplé à ou sur le point de le faire.

L’opérateur de couplage représente une opération bien réelle : l’échange de photons virtuels entre le potentiel du vide et la masse chargée.

 

La masse est un composant interne de force

C’est à travers la force que la masse prend toute son importance (exemple F=(ma)). On trouve la masse par exemple dans un champ électrique qui est défini comme étant la force par coulomb. Un champ électrique n’existerait pas sans la composante de masse. Un champ scalaire électrostatique ( Ø)cherche à se coupler à la masse d’une charge q tel que (Ø+ Ø)m et de là un champ-E (champ électrique), est créé et existe
E s -[( Ø)(q)]/|q|. C’est ainsi que la masse devient un composant incontournable de force.

Un condensateur idéal est celui qui est un bloqueur d’électrons

Dans un condensateur classique les plaques et le diélectrique sont en mouvement due aux forces électrique.
Il s’en suit un courant d’électrons se dissipant dans la source pour faire du travail… Il existe cependant des condensateurs rigidifiés (~$400 à $2000 le condensateur de 1 µF)…

Un condensateur idéal ne laisse pas passer de courant d’électrons mais laisse seulement passer le courant sans masse tel que décrit dans les équations de Maxwell.

 

Composant de blocage d’électrons

Il y a le « transistor semi-conducteur Fogal » du nom de l’inventeur William J. Fogal (un ami de Bearden – détenteur des brevets [5430413 High gain low distortion faste] et [5196809 High gain low distortion faste]).
Il permet la séparation du courant en deux composants, bloquant uniquement le composant de flux de masse (les électrons).

Le transistor de Fogal bloque le passage des électrons au niveau des pattes, mais laisse le déplacement du courant dØ/dt de potentiel scalaire à travers lui.

 

Énergie, flux, montant fini d’énergie, collecteur

Le flux de courant (dØ/dt) est énergie alors que le flux de courant de masse (dm/dt) est du travail dans le circuit. Toutes mesures à l’aide d’un instrument de mesure ne seront que travail et non le calcul du montant de l’énergie. L’énergie ne peut-être mesurée en pratique et en théorie, à priori.

 

Secret de la sur-unité

La charge (masse chargé), fournie un flux libre sans masse d’énergie EM à partir du vide qui peut-être dirigé vers un collecteur qui emmagasine le tout dans un champ-E ou un champ-B.

Cependant le premier secret de l’énergie libre est le blocage de la composante de charge électrique de masse 
dm/dt du courant dq/dt permettant au flux d’énergie sans masse (dØ/dt)• de circuler vers le collecteur pour obtenir un champ-E ou un champ-B.

Le deuxième secret concerne la façon dont le deuxième cycle se déroule.

La masse du circuit de charge externe et la masse du collecteur devraient être les mêmes pour que le courant d’électrons chargés retourne à travers la fem-back de la source primaire, tel que autant d’excès de travail sera fait à l’intérieur de la source pour dissiper ses séparations de charges que de travail fait dans la charge externe. Dans ce cas la sur-unité serait détruite ! D’où la nécessité d’utiliser deux circuits isolés.

 

Un simple appareil sur-unitaire à boucle ouverte

 

Figu1

Cette figure montre un très simple mais puissant appareil à sur-unité, utilisant un semi-conducteur à blocage de charge [charge blocking semiconductor (CBS) (such as a Fogal semiconductor)], alimenté en AC.

Le ‘ truc ‘ du circuit c’est une source AC pour contrôler le CBS qui utilise une partie de l’énergie pour s’auto-alimenter et qui ne laisse passer toujours, uniquement, que la composante sans masse du courant dans le circuit de sortie. Le potentiel scalaire de sortie du CBS est obtenu avec l’enroulement primaire du transformateur élévateur de tension. Le gain en courant du CBS dépendra de la charge connectée dessus, et de son habilitée à bloquer le champ-E des charges capturées en augmentation, comme un flux d’énergie libre (dØ/dt) qui s’établit à travers lui par la charge. Ainsi la charge et le CBS doivent être le mieux pensés/choisies pour ne pas faire échouer nos plans. L’enroulement primaire du transformateur avec le potentiel scalaire (dØ/dt) produit un champ-H. Il emmagasine l’excès d’énergie dans ce champ. C’est un champ-H magnétique normal.
Tout champ-H est produit par (dØ/dt). Ce champ-H se couple à l’enroulement secondaire. Dans le circuit secondaire le courant est un courant d’électrons et peut circuler sans contrainte du CBS. C’est un courant de masse chargée qui circule désormais dans la charge.

 

Amplification de puissance libre

Si on place un ampèremètre à la sortie du CBS, entre lui et le primaire du transformateur, le courant sans masse sera lu comme si de rien n’était (comme avec un courant d’électrons).

 

La résistance négative: un système (auto-alimenté et CBS) en boucle fermé

Figu2

Le dessin montre le bouclage fermé de l’appareil de tel façon que le système une fois lancé et stable peut se voir retirer la source d’alimentation du circuit.

Une résistance négative accepte des électrons entrant inertes depuis son pôle négatif, mais accepte aussi l’énergie (dØ/dt) entrante depuis le vide comme des photons virtuel se laissant absorbé par des électrons inertes tel que  Ø est ajouté au courant d’électrons créant un excès d’électrons excités.

La résistance négative est maintenant connue pour être une source d’énergie libre auto-contenue.

http://www.magnetosynergie.com/Pages-Fr/Presentez/SecretFinal/FR-LeSecretFinal-01.htm

Et les liens vers les originaux en langue anglaise :

Partie 1. http://www.cheniere.org/techpapers/Final%20Secret%209%20Feb%201993/indexold.html
Partie 2.http://www.cheniere.org/techpapers/Final%20Secret%20of%2015%20Feb%201994/index.html
Partie 3. http://www.cheniere.org/techpapers/Final%20Secret%2013%20May%201994/index.html

++ FredZ.

Trouvé sur Homme et Espaces, Merci Merlin (Mars 2016)

Un petit statut sur Nibiru

La planète X et son influence sur notre système solaire… !

Les spéculations et les théories concernant l’existence de planètes encore inobservées dans notre système solaire circulent depuis des siècles. Chaque découverte d’une nouvelle planète extérieure a été précédée par la détection d’anomalies dans les mouvements erratiques et inexplicables de la planète la plus éloignée alors connue.

Par exemple, avant que l’existence de Neptune ne soit déterminée, les astronomes avaient théorisé pendant des décennies que le mouvement irrégulier d’Uranus (découverte en 1781) pourrait être causé par la présence d’une autre planète alors inconnue. Ce qui fut démontré en 1846 lorsque Neptune a été aperçue et identifiée pour la première fois.

Pluton, la neuvième planète (en 2006, elle a été détrônée de ce titre et reléguée au statut de planète naine), a été découverte en 1930 et Charon, la lune de Pluton découverte ultérieurement, a ensuite été utilisée pour expliquer les « vacillements » observés dans les orbites respectives d’Uranus et Neptune. Ainsi, les erreurs dans le calcul des positions précises des planètes connues présentent un modèle durable de confirmation ultérieure de l’origine de ces erreurs, déterminée avec chaque planète nouvellement découverte.

Par conséquent, depuis plus d’un siècle, les débats scientifiques se poursuivent concernant l’existence d’autres grandes planètes ou de planètes naines appartenant à notre système solaire qui seraient toujours là dans l’espace en attente d’être trouvées, permettant d’expliquer d’autres anomalies.

La planète comète de Carlos Ferrada…

La planète X et son influence sur notre système solaire… !

En 1940, l’astronome chilien Carlos Muñoz Ferrada [1909-2001] ne s’était pas trompé en prévoyant que les pouvoirs en place seraient tentés de camoufler l’existence de la planète X [dont il avait déjà confirmé l’existence] tandis qu’elle foncerait vers la terre. Ferrada qualifiait la planète X (Nibiru) de « planète comète » parce qu’elle a la taille d’une planète, mais la vitesse et l’orbite elliptique d’une comète.

La 12e planète…

L’existence de la planète inobservée la plus controversée dans notre système solaire, surnommée Nibiru ou planète X, a été popularisée en 1976 par le célèbre chercheur et auteur Zecharia Sitchin dans son livre à succès intitulé La 12ème planète. Un des rares savants capables de lire et d’interpréter les tablettes d’argile sumériennes, Sitchin s’est appuyé sur ces anciens textes pour soutenir l’existence de la planète X (aussi appelée Nibiru le Destructeur dans les anciens textes) qui reviendrait vers la Terre tous les 3 600 ans.

Les Sumériens ont vécu il y a plus de 6 000 ans dans ce qui est aujourd’hui l’Irak. On leur attribue la première civilisation connue sur Terre, ainsi que l’invention des mathématiques, de l’écriture, de l’agriculture, du droit, des écoles, de l’astronomie et de l’astrologie.

Un système binaire – le Soleil et Némésis…

Notre système solaire et son soleil sont semblables à 90 % des systèmes solaires de la Voie lactée, qui font partie d’un système binaire contenant deux étoiles ou plus. Le système de la planète X peut être considéré comme une mini-constellation* composée de la jumelle de notre soleil, appelée Némésis et catégorisée comme étoile naine brune.

La planète X et son influence sur notre système solaire… !

Cette étoile est généralement invisible, même en infrarouge en raison des nuages ​​de poussière d’oxyde de fer rouge qui l’entourent. Il y aurait au moins trois planètes qui gravitent autour de Némésis, dont Nibiru et Hélion qui possèdent des lunes, ainsi qu’Arboda.

Bien que Nibiru se déplace le long d’une orbite elliptique et pénètre notre système solaire environ tous les 3 600 ans, traversant une par une les orbites des planètes de notre système solaire, elle ne gravite pas autour de notre soleil [mais autour de Némésis].

D’autres sources estiment que la planète X ne peut être détectée qu’en infrarouge. Incidemment, l’observatoire du Vatican exploite un télescope infrarouge parmi les plus puissants et les plus évolués dans le monde. Appelé LUCIFER , il est situé à l’observatoire de Mount Graham, en Arizona, et dirigé par un jésuite, le père José G. Funes.

En 1990, le chercheur-auteur Zecharia Sitchin a interviewé l’astronome Robert S. Harrington, superviseur de l’US Naval Observatory (observatoire astronomique de la marine américaine), pour discuter de sa récente découverte de la planète X, [une planète] rouge. Harrington avait spécialement mis en place un observatoire télescopique en Nouvelle-Zélande afin d’observer la planète X.

Toutefois, le réputé directeur de l’observatoire naval est subitement et mystérieusement décédé à l’âge de 50 ans d’une forme rare de cancer, dans des circonstances suspectes. Son épouse est convaincue qu’il a été assassiné pour avoir semble-t-il révélé trop d’informations concernant la planète X.

Pourtant, deux ans après l’entrevue de Sitchin avec M. Harrington, et quelques mois seulement avant le décès de Harrington en janvier 1993, un communiqué de presse de la NASA soutenait encore publiquement l’existence de la planète X (Nibiru) :

‘’Des écarts inexpliqués dans les orbites d’Uranus et de Neptune pointent vers l’existence d’un corps céleste de grandes dimensions (4 à 8 fois la masse de la Terre) aux limites du système solaire, suivant une orbite fortement inclinée, à plus de 7 milliards de miles du Soleil.’

Toujours en 1992, un scientifique de la NASA nommé Ray T. Reynolds a publiquement affirmé avec assurance que « les astronomes sont tellement sûrs de l’existence de la dixième planète qu’ils estiment qu’il ne reste plus qu’à la nommer ». À ce moment-là, c’était tout juste s’il ne restait plus à la NASA qu’à hurler « Nibiru ! » du sommet des montagnes.

Mensonges et désinformation…

Mais depuis la mort prématurée de Harrington, à quelques exceptions près, le couvercle a été fermé hermétiquement pour empêcher que toute information plus précise ne soit diffusée par les sources traditionnelles directement au public.

Apparemment, le gouvernement américain avait pris la décision de garder sous le boisseau l’existence de Nibiru et son potentiel destructeur pour la Terre. Au cours des dernières années, les autorités fédérales ont employé des trolls pour diffuser de la désinformation et de la propagande mensongère afin de discréditer toute personne qui tenterait de dévoiler la vérité.

En plantant des complices affairés à multiplier activement les campagnes concentrées de désinformation et de dénigrement mensongers, l’élite s’assure que cette histoire qui refuse de disparaître ne sera pas entièrement divulguée.

Les prédictions hautement publicisées de catastrophes qui s’avèrent des non-événements font partie des tactiques les plus couramment employées, comme le récent tremblement de terre du 28 mai [2015] sur la faille de San Andreas, qu’on avait délibérément prévu pour correspondre au lancement du film du même nom; ou les scénarios de fin du monde associés au calendrier maya en 2012, autre non-événement; ou l’ère glaciaire du 5/5/2000 qui n’est jamais venue; et qui peut oublier le fiasco du bogue de l’an 2000 ? Et ainsi de suite…

La planète X et son influence sur notre système solaire… !

Plus nous avons de ces prévisions de « fin du monde » qui se révèlent fausses, plus il y a de chances que les avertissements légitimes concernant la planète X soient sommairement moqués et ignorés.

Le syndrome du « garçon qui crie au loup » désensibilise efficacement la population et lui fait douter que les preuves et la vérité concernant Nibiru soient considérées sérieusement par une personne raisonnable, quoi qu’en dise la foule des réalistes de la conspiration portant un chapeau d’aluminium qui ont plus souvent raison que tort ces temps-ci quand il s’agit d’exposer les innombrables dissimulations, opérations sous fausse bannière (false flags) et mensonges des gouvernements.

Est-ce que le ciel va nous tomber sur la tête ?

Plutôt que de fouiller dans la mythologie antique ou la prophétie biblique, comme le font déjà de nombreuses spéculations sur Nibiru, la suite de cette présentation mettra l’accent sur un examen des preuves scientifiques les plus tangibles et les plus crédibles présentées par les astronomes et les astrophysiciens qui, au cours des dernières années, ont mis en jeu leur carrière, leur réputation et même leur vie en faisant la promotion de leurs découvertes et conclusions controversées.

Preuves scientifiques…

La planète X et son influence sur notre système solaire… !

Cette année plus que jamais, le mouvement visant à révéler la vérité concernant l’existence de la planète X a pris de l’élan, obtenant même l’appui nuancé de certaines personnalités bien en vue au sein de la communauté scientifique. Cet article va documenter ce recueil grandissant de preuves empiriques validant non seulement l’existence de la planète X, mais également son approche imminente vers la Terre.

L’existence de la planète X est connue depuis longtemps…

La controversée planète X et son système, faisant leur entrée dans notre système solaire avec des implications potentiellement catastrophiques, ont été présentés pour la première fois dans un article du Washington Post publié en 1983.

Le télescope astronomique infrarouge de la NASA avait découvert cette mystérieuse planète « peut-être aussi grande que Jupiter » près de la constellation d’Orion. Déjà il y a trente-deux ans, on la considérait comme le corps céleste le plus proche de la Terre au-delà de Pluton.

Le chercheur et activiste John Moore a longtemps affirmé qu’un certain nombre de ses sources ex-militaires et des services de renseignement gouvernementaux avaient indépendamment confirmé qu’une réunion hautement secrète avait eu lieu en 1979 dans une salle de réunion de La Nouvelle-Orléans, où des officiers généraux du plus haut rang de la marine américaine avaient originalement été informés de la venue catastrophe inévitable de la planète X, qui surviendrait de leur vivant.

En octobre 2003, un document hautement significatif et révélateur du Département de la Défense des États-Unis a été publié sous le titre « Un scénario de changement brutal du climat et ses implications pour la sécurité nationale des États-Unis ». Ce document soulignait la chute des niveaux de salinité des océans, entraînant «un effondrement de la circulation thermohaline ».

Une perturbation importante de la bande porteuse de l’Atlantique qui pousse l’eau salée chaude près de la surface en circulation vers le nord depuis le sud, tandis que les eaux en profondeur plus froides circulent vers le sud, aurait un impact dévastateur sur le climat mondial.

Le document conclut avec ces prédictions qui donnent à réfléchir : guerres pour les ressources énergétiques, alimentaires et en eau; sécheresses plus fréquentes sur des surfaces terrestres plus étendues; et violents changements climatiques entraînant des catastrophes naturelles de toutes sortes, plus fréquentes et de plus dévastatrices.

Une douzaine d’années plus tard, tous ces développements des plus inquiétants se manifestent clairement.

Les changements climatiques : une supercherie pour masquer la vérité ?

Bien sûr, le dogme scientifique actuellement politiquement correct énonce que le réchauffement climatique (alias changements climatiques) est entraîné par les gaz à effet de serre comme le CO2.

Cette tromperie massive est conçue pour masquer convenablement les nombreux effets nocifs dus à plusieurs décennies de géo-ingénierie, d’expériences avec le système HAARP, de modifications et de guerres climatiques, sans mentionner la « non existante » planète X qui fonce sur nous depuis les confins du système solaire et qui est susceptible d’entraîner d’énormes bouleversements à la surface de toutes les planètes de notre système solaire, incluant bien sûr l’atmosphère et la surface de notre propre planète.

En mars 2010, le journal britannique grand public The Telegraph a publié un article intitulé « À la recherche de l’Étoile de la mort qui éjecte des comètes mortelles ». Le sous-titre indiquait que la NASA était à la recherche de l’étoile jumelle du soleil, la naine brune Némésis qui tourne lentement autour de notre soleil et qui « catapulte » périodiquement des comètes mortelles vers la Terre.

Ainsi, aussi discrète que la NASA soit demeurée au fil des années, des bribes d’information provenant de sources « fiables » continuent d’atteindre le public de temps à autre, indiquant qu’elle est toujours à l’affût du cataclysmique système dont fait partie la planète X. L’article ajoute que cette étoile ayant « cinq fois la taille de Jupiter » demeure le principal suspect pour l’extinction des dinosaures il y a 65 millions d’années.

La planète X et son influence sur notre système solaire… !

Le trophée le plus récent de la NASA lui permettant d’explorer les cieux, le Wide-Field Infrared Survey Explorer (WISE, en français « Explorateur à grand champ pour l’étude dans l’infrarouge ») a pu détecter la faible chaleur émanant de l’étoile naine à 25 fois la distance séparant la Terre du Soleil, ou un tiers d’année-lumière.

Lancé en janvier 2009, WISE a découvert jusqu’en octobre 2010 (on s’attentait alors à ce que son système de refroidissement s’épuise) au moins 1 000 étoiles naines situées à moins de 25 années-lumière du Soleil. Deux fois plus éloigné que Némésis réside le nuage d’Oort, une sphère de corps célestes glacés qui entoure notre système solaire.

Tandis que le système de la planète X pénètre notre système solaire, on estime que sa force gravitationnelle lance dans sa trajectoire des comètes et des astéroïdes constitués de débris spatiaux de grande taille et formés de roches et de poussières glacées qui bombardent les planètes de notre système solaire, y compris la Terre.

Le professeur John Matese de l’Université de la Louisiane/Lafayette estime que cette Némésis qui accompagne Nibiru au sein du système de la planète X est la principale source de la volée concentrée de comètes envoyée vers le centre de notre système solaire depuis le nuage d’Oort.

Influence gravitationnelle de la planète X…

En mai 2012, les sites livescience.com et examiner.com ont tous deux publié des articles pointant vers la découverte de la planète X. L’astronome Rodney Gomes de l’Observatoire national du Brésil à Rio venait de présenter de nouvelles preuves de l’existence de la mystérieuse planète lors d’une réunion de l’American Astronomical Society.

Gomes a démontré que les objets glacés situés à l’extérieur de l’orbite de Neptune dans le nuage d’Oort et affichant des mouvements irréguliers ne peuvent pas être expliqués par les lois mathématiques connues de l’astrophysique, mais peuvent l’être par l’influence gravitationnelle de ce qu’on appelle la planète X.

En outre, l’orbite particulière de la planète naine Sedna peut aussi seulement être expliquée par la présence d’une grande planète inconnue.

La planète X et son influence sur notre système solaire… !

Les conclusions de Gomes ont été très bien accueillies par ses pairs, estimant qu’il avait bien fait ses calculs. Mais bien sûr, ne voulant pas endosser complètement l’existence de la planète X, ils ont consciencieusement respecté la ligne officielle du statu quo scientifique et gouvernemental en tempérant leur enthousiasme avec un appel à plus de recherche et en proposant des théories alternatives qui n’impliqueraient pas une autre grande planète.

Puis, en novembre de l’an dernier, iflscience.com a indiqué que deux nouvelles planètes inconnues pourraient bien se cacher dans notre système solaire. Un article publié en janvier 2015 par Space.com a également abordé la possibilité que deux autres planètes se déplaçant dans les limites extérieures de notre système solaire, au-delà de Neptune et Pluton, puissent influencer subtilement les orbites des planètes naines.

Carlos de la Fuente de l’Université Complutense à Madrid a déclaré :

‘’  Cet excès d’objets affichant des paramètres orbitaux inattendus nous incite à croire que des forces invisibles modifient la répartition des éléments orbitaux des OTNE [objets transneptuniens extrêmes], et nous considérons que l’explication la plus probable est que d’autres planètes inconnues existent au-delà de Neptune et Pluton. ‘’

En mars 2014, une autre équipe d’astronomes, Chadwick Trujillo et Scott Sheppard, a annoncé la découverte de 2012 VP113, un autre OTNE à rejoindre Sedna parmi les membres connus du « nuage d’Oort interne », cette sphère remplie de comètes qui se trouve juste au-delà de la ceinture de Kuiper et de Pluton.

Trujillo et Sheppard soutiennent que les orbites de ces deux objets sont conformes avec la présence d’un important « perturbateur », ayant jusqu’à dix fois la masse de la Terre.

Le système solaire est en pleine mutation…

Des changements majeurs et inouïs se produisent actuellement à la surface et dans l’atmosphère du Soleil, et de toutes les planètes.

L’astronome Mike Lockwood du Rutherford Appleton National Laboratories en Californie a révélé que depuis 1901, le champ magnétique global du Soleil a augmenté de 230 %. Les éruptions et les tempêtes solaires ont également augmenté.

 

La Lune a maintenant une atmosphère de natrium [sodium] d’une profondeur de 6 000 km, du jamais vu auparavant. Mercure, la planète la plus rapprochée du soleil, a maintenant de la glace polaire. La luminosité de Vénus a grimpé de 2 500 %, et son atmosphère a expérimenté des changements majeurs dans les quatre dernières décennies.

Pendant ce temps, plus loin du Soleil que la Terre, les calottes polaires de Mars ont fondu et l’ampleur de ses tempêtes s’est accrue de façon exponentielle.

La luminosité des nuages ​​de plasma de Jupiter a augmenté de 200 %, accompagné par un motif intermittent d’épaississement et d’éclaircissement. Les énormes ceintures de la plus grosse planète dans notre système solaire [Saturne] ont changé de couleur, avec des niveaux de radiation qui faiblissent et augmentent de façon erratique.

Une augmentation des impacts d’astéroïdes et de comètes sur Jupiter, probablement attribuable à l’entrée de Nibiru dans notre système solaire, a également été observée.

Au cours des trois dernières décennies, le courant-jet sur l’équateur de Saturne a perdu de la vitesse, tandis que les rayons X à l’équateur ont bondi. Uranus est devenue plus lumineuse, et sa surface auparavant placide est maintenant agitée de nombreuses tempêtes.

La luminosité de Neptune a également augmenté de 40 %. La pression atmosphérique sur Pluton a bondi de 300 % en dépit de son éloignement accru du Soleil. Le plasma incandescent aux extrémités de notre système solaire a augmenté de 1000 %.

Les profonds changements constatés dans l’espace sont sans précédent. Une émission d’énergie accrue est en train de changer la structure fondamentale de toute la matière à travers notre système solaire. Pris dans leur ensemble, ces changements majeurs sont en toute probabilité dus au déplacement de la planète X au sein de notre système solaire.

La Terre n’y échappe pas…

Bien sûr, des changements prononcés sont également survenus sur la Terre, notamment des fluctuations électromagnétiques, un déplacement annuel plus prononcé de l’axe polaire, et des changements climatiques extrêmes. Par exemple, la municipalité de North Pole, en Alaska, a récemment vu des températures printanières tardives s’élever au-delà de 25 C.

De 1963 à 1993, la fréquence mondiale des catastrophes naturelles a bondi de 410 %. Et au cours des dernières années, le rythme des catastrophes naturelles a progressé encore plus rapidement. Avec un nombre croissant d’éruptions volcaniques le long de l’anneau de feu du Pacifique et des tremblements de terre ressenti globalement, en particulier le long des failles de San Andreas et de New Madrid, en plus du tremblement de terre de 7,8 survenu au Népal il y a quelques mois, les éruptions volcaniques et les tremblements de terre majeurs ont augmenté rapidement en 2015.

Déjà en 2013, dix volcans inactifs depuis longtemps se sont éveillés, premiers indices de la présence de la planète X. Le nombre d’éruptions volcaniques a augmenté de 500 % entre 1875 et 1975, mais la progression est maintenant encore plus rapide.

Une augmentation exponentielle des tremblements de terre de magnitude 3,0 ou plus secoue le cœur de l’Amérique en raison de la fracturation hydraulique, passant uniquement en Oklahoma de deux ou trois par année (avant la fracturation) à 562 l’an dernier seulement.

Depuis 1973, les tremblements de terre ont augmenté de 400 % dans le monde entier. Les tremblements de terre de magnitude 6,0 ou plus ont également grimpé au cours des dernières années, passant d’une moyenne de 108,5 tremblements de terre par année dans la décennie 1980 à 1989 à 160,9 tremblements de terre par année de 2000 à 2009, une hausse de 38,9 %.

Dans le premier trimestre de l’année 2014 seulement, les grands séismes ont été deux fois plus fréquents que la moyenne enregistrée depuis 1979. Il y a deux mois [c.-à-d. juillet 2015], des scientifiques de la Fondation européenne de la science ont averti que dans les années à venir, il existe une possibilité de 5 à 10 % qu’une éruption volcanique colossale catapulte la Terre vers la préhistoire.

Une hausse significative des glissements de terrain et des inondations a également été constatée.

Diminution du champ magnétique de la Terre…

Depuis 2 000 ans, le champ magnétique de la terre a progressivement diminué. Mais dans les 500 dernières années, cette baisse est devenue beaucoup plus dramatique. En septembre 2015, les scientifiques ont été choqués de constater le rythme alarmant de la disparition de la magnétosphère de la Terre. Ce bouclier naturel de la planète qui empêche les vents solaires et le rayonnement d’atteindre la surface de la Terre est en train de disparaître.

La planète X et son influence sur notre système solaire… !

Cette découverte inquiétante survient tandis que l’activité des tempêtes solaires est également en forte progression cette année. Ces éruptions solaires menacent sérieusement d’interférer avec les communications par satellite et GPS, sans parler des risques croissants d’impulsions électromagnétiques qui pourraient être fatales pour le réseau électrique, plongeant instantanément des milliards de personnes dans le noir, sans aucune source d’électricité pendant des mois, voire des années.

Une diminution du champ magnétique aurait pour effet de doubler l’exposition aux radiations solaires, entraînant une épidémie de décès dus au cancer de la peau, une accélération des changements climatiques, et une progression des conditions météorologiques extrêmes.

Les vents solaires élimineraient les ions qui permettent à la Terre de retenir l’eau et l’air. Ces terribles changements se produisent actuellement. Ce que pratiquement aucun scientifique qui désire demeurer en vie ne veut révéler, c’est que ce rythme affreux de dégradation écologique et de changements fatals qui affectent la surface de la Terre est en toute probabilité causé par l’approche sans cesse plus rapide de la planète X.

Le truc de magie de Google Sky…

Un autre développement plutôt curieux en ce qui concerne la planète X, ce sont les actions étranges de Google Sky. Il y a plusieurs années, sans doute pour s’harmoniser avec le silence médiatique, Google a masqué une portion du ciel pour s’assurer que la planète X disparaisse de sa carte du ciel.

Puis, au court de cette année 2015, Google Sky a mystérieusement réinséré la grille manquante montrant clairement la flamboyante Nibiru avec ses ailes. Donc, elle est maintenant visible dans le ciel lui-même, et sur Google Sky… autre indication que le vent tourne vers la divulgation de la vérité concernant la planète X.

La planète X et son influence sur notre système solaire… !

Cliquez ici pour le Lien vers l’image dans google-sky

 

À la mi-avril [2015], l’Agence spatiale européenne a invité des astronomes, physiciens, ingénieurs nucléaires, mathématiciens, et même des militaires œuvrant dans la défense spatiale provenant du monde entier à une conférence tenue dans la banlieue de Rome pour discuter du sujet d’un astéroïde frappant la Terre, l’hypothèse proposée n’étant pas « si », mais quand. Hum, cela ressemble au scénario cataclysmique concernant Nibiru, moins la planète interdite bien sûr.

Cette conférence de défense planétaire visant à élaborer des stratégies pour gérer collectivement les objets géocroiseurs [ou NEO, Near-Earth Objects] plongeant vers nous en utilisant la technologie des armes spatiales est devenue un événement annuel au cours des six dernières années. 12 700 astéroïdes ont été identifiés comme NEO ayant des orbites dans les 121 millions de miles de notre soleil principal.

Source et d’autres infos ( non reprises ici )

Quelques sujets liés :

Un astre inconnu découvert au sein de notre système solaire …

Inversion des pôles magnétique : black-out imminent ?!

La mystérieuse Nibiru, faisons le point… ! 2e édition.

Nibiru, Tyché, Némésis, planète X etc… elles existent !

Notre Soleil aurait un compagnon…Némésis le Soleil noir… !!

La Mystérieuse récente : Super Connexion Terre / Soleil…

Un réchauffement au niveau du systeme solaire…

Destruction de la planète, le 4e seuil sur 9 est franchi…

Des comètes sombres invisibles, possibles menaces pour la Terre…

Décès de masse des animaux pour 2015.

De plus en plus nombreux les inquiétants trous noirs dans les océans… !

Comme toujours c’est à vous de juger…

En effet,Merci pour cet article.

++ FredZ.

Très intéressant… merci Cywil !

 


 

++

FredZ.

Trouvé chez Rusty James, dont la source est Cerf Bleu  , merci à eux

Le génie méconnu de Nicolas Tesla

ovni-002

tesla40_20_small

Un sondage effectué parmi les élèves du premier cycle de l’INSA de Lyon, donnèrent des résultats surprenants : sur les 87 réponses que j’ai reçues, environ 4 étudiants étaient capables de me fournir des informations pertinentes sur Nikola Tesla, ce qui représente 5 % des étudiants interrogés. C’est très peu vu l’environnement scientifique dans lequel l’étude a été faite.

Cela est d’autant plus étonnant que Tesla a donné sa vie à la science, restant célibataire toute sa vie pour se consacrer pleinement à sa passion : l’invention. Au cours de sa vie, il a inventé de très nombreuses machines, dont certaines sont révolutionnaires, capables de bouleverser le monde entier. Personne n’en a jamais entendu parler.

C’est pourquoi nous avons décidé de choisir ce thème pour notre exposé. Il nous a semblé primordial dans une carrière de scientifique de connaître l’existence de cet homme remarquable ainsi que sa carrière qui fut semée d’embûches. Il a été à l’initiative de très nombreux progrès dans les sciences et techniques. Beaucoup de ses créations sont utilisées aujourd’hui quotidiennement sans que personne ne se pose la question de savoir quel a été le scientifique qui leur a permis d’avoir cette qualité de vie aujourd’hui. Le but de notre exposé est de mieux faire connaître ce génie méconnu, ainsi que ses inventions ingénieuses.

Nous axerons notre dossier sur la vie de Tesla et ses inventions ainsi que ses applications, et non pas sur les aspects techniques de toutes ses inventions. Il nous faudrait alors bien plus de temps et d’énergie pour comprendre dans les détails toutes ses inventions. Aujourd’hui encore, des scientifiques reprennent les travaux de Tesla. Pour toutes les inventions nommées dans ce dossier, il nous est possible d’en fournir une explication scientifique même si elles ne figurent pas dans le dossier. Nous tenons à le préciser car il est possible, à un premier égard, de supposer que ces machines contredisent les lois de la physique.

Pour finir, le débat nous aidera à réfléchir sur sa méconnaissance et sur la réaction de la société – publique ou scientifique – face aux nouvelles découvertes et inventions.

Introduction

Carte d’identité de Nikola Tesla

Nikola Tesla voit le jour le 10 juillet 1856 à Smiljan, en Croatie près de la côte Adriatique et meurt le 7 janvier 43. Son père est un ecclésiastique serbe orthodoxe et sa mère est intelligente mais illettrée. Nikola est l’avant dernier d’une famille de cinq enfants. Ses parents voulaient qu’il se destine à l’Eglise ou à l’Armée.

Il a de très nombreuses qualités intellectuelles, comme une très grande mémoire photographique, un génie inventif, le don de visualiser avec une telle acuité qu’il n’a besoin ni de maquette, ni de schéma, ni même d’expérience. Sa représentation mentale rend les modèles parfaitement réels. D’ailleurs dit-il lui-même : « tout ce que j’invente fonctionne comme je l’ai imaginé, l’expérience se déroule comme prévu ». Dès petit, il invente des objets originaux. Il a eu une enfance troublée due à une histoire familiale très forte qui lui créa des troubles psychologiques et des phobies. C’est seulement à l’âge de 17 ans qu’il commence à s’intéresser vraiment à ses inventions. Tesla apparaît comme un autodidacte.

Décorations de Tesla

Il a reçu de son vivant de nombreuses distinctions académiques d’universités américaines et d’autres pays :

la médaille John Scott
la médaille Edison qui est considérée comme la plus grande reconnaissance dans le domaine électrique
de nombreux prix décernés par les gouvernements européens.
Mais il faudra 1975 pour que son nom figure au panthéon des inventeurs américains.

PORTRAIT DE NIKOLA TESLA

1ère PARTIE : L’ÉLECTRICITÉ

Ses débuts à l’école

En 1875 il rentre à l’école polytechnique de Graz en Autriche où il étudie les maths, la physique et la mécanique.

Son professeur de physique lui présente un appareil à courant continu qui fonctionne à la fois comme un moteur et une dynamo. L’inconvénient est que cette machine produit beaucoup d’étincelles. Tesla l’examine et propose de remplacer le courant continu en courant alternatif, ce qui conduirait selon le professeur à un mouvement perpétuel donc impossible.

L’idée de transformer cette machine ne le quittera plus : « pour moi, c’est un vœu sacré, une question de vie ou de mort. Je sais que je mourrai si j’échoue. Au plus profond de mon cerveau se trouve la solution, mais je ne peux pas encore l’exprimer ».

Invention du moteur à courant alternatif

Le Moteur à Induction:

tesla 2

Six ans plus tard, il présente une conférence à l’American Institute of Electrical Enginneers, où il révèle un nouveau principe scientifique, d’une simplicité éblouissante. Ses applications pratiques révolutionneront le monde technologique. Tesla vient de découvrir un nouveau système, le principe du champ magnétique rotatif, généré par des courants alternatifs au nombre de un ou plus déphasés les uns par rapport aux autres. Le moteur à courant alternatif est inventé.

Lutte pour la recherche d’un standard électrique

Dans les mois qui suivent cette conférence, il s’investit complètement dans le but d’inventer de nouvelles formes de machines à courant alternatif.

En 1883 il achève la construction de son premier véritable moteur à induction à courant alternatif. Incapable de provoquer l’intérêt de quiconque en Europe avec son procédé radical, Tesla accepta l’offre de Thomas Edison qui lui proposait de venir travailler aux USA.

L’année suivante, à l’âge de 28 ans, il décide de prendre le bateau et d’aller tenter sa chance pour aller travailler avec Edison aux Etats-Unis, où ce dernier vient de créer le réseau électrique qui alimente la ville de NY.

Ce réseau, basé sur le courant continu, souffre de sérieux malfonctionnements : accidents fréquents, pannes régulières, plusieurs incendies causés par l’électricité… De plus le courant ne peux être acheminé à longue distance (environ deux miles) car les lignes ne pouvaient supporter des tensions élevées, indispensables aux transmissions lointaines. Une centrale était nécessaire tous les deux miles.

Tesla intervient alors en parlant de son merveilleux moteur à induction à courant alternatif, selon lui tendance de l’avenir : « celui qui développera cette technique sera riche ».

Edison n’est pas d’accord. Il met à contribution Tesla pour réparer l’installation électrique d’un paquebot, ce à quoi il arrive rapidement. Il découvre le moyen d’améliorer les dynamos primitives d’Edison et se voit proposé 50 000 $ pour continuer son travail.

Edison n’aime pas le génie de Tesla, il se sent menacé par ses inventions talentueuses. Le problème grandit entre les deux hommes, ce qui amène Tesla à démissionner.

Un groupe de financiers, conscients du potentiel économique, propose à Tesla de fonder sa société, ce qu’il fit. Malheureusement il se fait avoir et se retrouve sans argent, les financiers ayant récupéré son entreprise où il avait investit ses économies.

Un dirigeant d’une grande société, Westinghouse, s’intéresse de près à son courant alternatif. En 1886 on assiste à la première inauguration commerciale du système de courant alternatif. Son moteur à induction est reconnu rapidement comme un élément de technologie nouvelle. Westinghouse, le concurrent direct d’Edison, rêve d’approvisionner les Etats-Unis avec le courant alternatif, il signe un contrat avec Tesla, à titre de consultant. Une lutte titanesque s’engage entre Westinghouse-Tesla et Edison, elle tourne à l’avantage de Westinghouse-Tesla.

Installation du courant alternatif aux États-Unis

tesla 3

Une des premières versions de sa Turbine :
Westinghouse, en janvier 1893, annonce que sa compagnie vient d’obtenir le contrat d’installation de toute l’infrastructure électrique. On utilisera bientôt exclusivement le courant alternatif de Tesla, système tant bafoué et calomnié. Toute l’électricité utilisée dans le monde à cette époque sera produite, transmise, distribuée et transformée au moyen de système polyphasé de Tesla. La transmission du courant sur des centaines voire des milliers de kilomètres n’est plus un problème. Les deux premières usines génératrices de courant sur le Niagara sont construites dès octobre 1893, dont une sur les chutes du Niagara. La première sera finie en 1896 et alimentera Buffalo. A New York, les tramways et les métros fonctionnent au courant alternatif, l’électrification des chemins de fer est en bonne voie.

L’industrie métallurgique a aussi besoin de hautes tensions que seul l’alternatif peut lui fournir, on assiste alors à un essor fulgurant de l’aéronautique. L’électricité permet de disposer à profusion d’énergie mécanique, calorifique, électromagnétique, ce qui entraînera une révolution extraordinaire pour l’industrie.

En 1906 Tesla invente une turbine : 4,5 kg et 30 chevaux vapeurs. Tesla pense qu’elle pourra faire baisser le coût de l’électricité en raison de faible coût de fabrication par rapport à ce qui se fait à l’époque.

2ème PARTIE : LA LUMIÈRE

Lampe à pastille de Carbone – lumière à haute fréquence

Le point fort de ses démonstrations dans ce domaine est la lampe à pastille de carbone, présentée en 1891.

Elle est constituée d’un tube à vide (mais contenant quelques ions à l’état gazeux) de 15 cm terminé par un petit globe de verre muni d’une minuscule pièce de matériau solide, montée à l’extrémité d’un fil de connexion unique avec la source de haute fréquence. La pastille centrale du matériau propulse électrostatiquement les molécules du gaz environnant vers le globe de verre, puis de la même façon les attirent ensuite, au rythme de la source haute fréquence. Au retour, en heurtant la pastille, les molécules la chauffent jusqu’à incandescence, dans un processus qui se répète plusieurs millions fois par seconde. La chaleur de la pastille incandescente se transfère aux molécules de la petite quantité de gaz dans le tube, et ainsi de la lumière est produite.

Cette lampe est très économique : pour la même dépense énergétique, elle est 20 fois plus brillante que l’ampoule d’Edison, celle utilisée de nos jours. Le seul problème est qu’il faut une source de courant à haute fréquence, ce qui n’est malheureusement pas compatible avec les 50 Hz traditionnels. Le tube néon est inspiré des découvertes de Tesla, mais son rendement n’est pas aussi intéressant.

Microscope électronique

La lampe à pastille de Carbone contient également le concept du microscope électronique.

On génère des particules qui sont envoyées en ligne droite à partir d’un minuscule point d’activité sur la pastille, maintenue à un potentiel élevé. Avec le courant continu, on arrive seulement à expulser les particules. Sur la surface du globe, les particules reproduisent en une image phosphorescente le dessin du point microscopique d’où elles sont émises.

En s’inspirant de cette constatation faite par Tesla, des scientifiques découvrent en 1939 la possibilité d’utiliser un microscope non plus avec de la lumière mais grâce à un flux d’électrons, ce qui donne une résolution beaucoup plus grande. La description par Tesla de l’effet obtenu avec sa lampe à pastille de carbone se retrouve quasiment sans changement dans les termes pour décrire le microscope électronique.

Accélérateur à particules

La lampe à particule contient aussi certains aspects des accélérateurs de particules. En effet, l’expulsion de particules à hautes vitesses dans les accélérateurs linéaires se retrouve dans la lampe. De plus, le phénomène de résonance (voir partie mécanique) intervient dans les accélérateurs de type cyclotron.

3ème PARTIE : LA MÉCANIQUE

tesla 4

Invention d’un avion à décollage – atterrissage vertical

C’est en 1928, à 72 ans, que Tesla construit un modèle d’avion à décollage – atterrissage vertical. Le modèle de Tesla est un premier pas incontournable dans la recherche dans ce domaine. Il est remarquable qu’il en ait eu l’idée, à une époque où l’aviation n’en était encore qu’à ses débuts. Les plans de Tesla ont été utilisés ultérieurement dans les recherches américaines pour le développement de leur avions. En 1980 on s’émerveille encore devant la possibilité de faire des avions avec cette spécificité.

Les oscillations mécaniques et vibrations harmoniques : la résonance

En 1898 il teste un minuscule oscillateur qu’il attache à un pilier de fonte qui traverse un immeuble. Cela entraîne la vibration de tout l’immeuble et la panique des habitants qui croient à un tremblement de terre. Tesla vient de montrer l’effet de la résonance: « cette poutre n’aurait pas pu être détruite avec des massues, ni même avec des leviers : il a suffi d’une rafale de petits coups qui, pris séparément, n’aurait pas fait de mal à une mouche ». Il est possible q’un gringalet pousse une grosse personne sur une balançoire s’il le pousse toujours au bon moment pour permettre une amplification du mouvement.

Ce phénomène a aussi des applications en électricité.

4ème PARTIE : L’ÉNERGIE LIBRE

Introduction

C’est au cours de la conférence du 20 mai 1891 à l’American Institute of Electrical Enginneers de New York, que Tesla a pour la première fois parlé de l’énergie libre. Voici ce qu’il annonce : « Dans quelques générations nos machines seront propulsées par cette énergie disponible à tout endroit de l’univers.[…] Dans l’espace il y a une forme d’énergie. Est-elle statique ou cinétique ? Si elle est statique, toutes nos recherches auront été vaines. Si elle est cinétique – et nous savons qu’elle l’est – ce n’est qu’une question de temps, et l’humanité aura mis en harmonie ses techniques énergétiques avec les grands rouages de la nature ».

Tesla publie le 30 septembre 1894 un article dans lequel il expose sa théorie de la lumière, de la matière, de l’éther et de l’univers et affirme que 90 % de l’énergie des lumières électriques est gaspillée : « j’espère vivre assez longtemps pour être capable de poser une machine au milieu de cette pièce et la faire tourner par la seule énergie du milieu environnant »

Notion d’éther et d’énergie du champ du vide

Le concept d’éther a été introduit par Aristote pour désigner le cinquième élément. Ce terme englobait à l’origine tous les objets qui se trouvaient à l’extérieur de l’atmosphère terrestre. Les physiciens du Moyen-Âge postulait que l’éther est une substance qui remplit l’espace. Newton en a fait aussi référence. Plus tard, Maxwell pense qu’ « il n’y a aucun doute que les espace interplanétaires et interstellaire ne pas vides, mais remplis d’une substance qui existe en très grande quantité qui est régulière »

Des expériences ont été réalisées pour essayer de prouver l’existence de l’éther. Une expérience est restée célèbre. Si l’éther existait, il existerait des « vents d’éther » dues à la rotation de la terre, supposaient les physiciens de l’époque. Deux signaux ont été envoyés : l’un contre courant des vents d’éther, et l’autre dans la même direction. Les scientifiques attendaient un écart entre les temps mis par les deux signaux pour parcourir un même distance. L’expérience ne révéla aucune différence. De ce fait, on assista au refus du concept d’éther. Mais beaucoup de scientifiques pensent encore que le concept de l’éther n’est pas une fiction. D’ailleurs, voici la liste des scientifiques qui postulent pour l’existence de cet élément – pour ne citer que les plus connus :

Paul Dirac (Prix Nobel, 1933)
De Broglie (Prix Nobel, 1929)
A. Michelson (Prix Nobel, 1907)
A. Einstein (Prix Nobel, 1921)
Sir Oliver Lodge
Beaucoup d’autres Prix Nobel

De cet éther, peut être tirée de l’énergie. L’espace présent entre les atomes n’est pas vide, mais rempli d’énergie. Sa concentration est extrêmement élevée, de l’ordre de 5000 kWh par cm3 d’après certaines estimations. Elle est difficilement perceptible, à moins de la faire agir avec des champs électromagnétiques ou de la matière. Il serait impossible de manquer d’énergie car elle est omniprésente. Pour faire une analogie, on peut citer cet exemple : un homme assis au fond de la mer avec une tasse à la main se demande comment il peut remplir sa tasse d’eau. Par analogie, l’eau joue le rôle de l’énergie, et l’homme au fond de la mer, l’Humanité qui vit sur Terre. L’omniprésence de cette énergie nous fait oublier qu’elle existe et qu’elle est infinie.

Mais le concept de l’éther tend peu à peu à s’effacer dans les pensées des grands physiciens de l’époque. A l’âge de 15 ans, Albert Einstein (1879-1955) pensait comme beaucoup d’autres scientifiques, qu’il existait bel et bien un éther que l’espace n’était pas vide. C’est plus tard qu’il abandonna cette idée et qu’il réfuta ensuite pendant de longues années. C’est à ce moment là qu’il développa la théorie relativiste qui s’imposa auprès des physiciens. On ignora tout ce qu’Einstein dit plus tard au sujet de l’éther. En 1934, il revient à cette théorie en disant que l’espace ne pouvait être vide, que l’espace est un médium dynamique.

LES MACHINES À ÉNERGIE LIBRE

tesla 5

La « N-machine » de Bruce DePalma :
Tesla est le pionner dans ce domaine. Il a été le premier à inventer une machine qui construisit une machine qui puisait son énergie dans une source infinie et inépuisable, l’énergie du point zéro, ou plus communément appelée énergie libre.
Tesla inventa une machine qui est non-seulement capable de s’auto-alimenter, mais qui tire de l’énergie de l’air environnant.

Son appareil était une bobine à électroaimants, pour laquelle il avait obtenu en 1894 un brevet. La forme de sa bobine permettait au système d’emmagasiner une quantité énorme d’énergie, en n’utilisant qu’une infime partie de cette énergie pour son propre fonctionnement. On peut la comparer à une voiture qui aurait un très grand réservoir d’essence toujours plein, et qui n’utiliserait que deux pour couvrir cent kilomètres.

De nos jours, des machines à énergie libre ont été construites et fonctionnent avec comme seul carburant l’air ambiant. Bruce DePalma est le plus connu des inventeurs en énergie libre avec sa N-machine. Il utilise dans sa machine des aimants très puissants pour mettre l’énergie de l’espace au travail sur la terre, car il considère que « l’aimant est une fenêtre sur l’énergie libre de l’espace ».

Il existe aussi une autre forme d’énergie libre : l’énergie Radiante. Tesla inventa un appareil capable de capter l’énergie directement du soleil. Ce procédé n’est pas très avantageux car son rendement n’est pas très élevé.

Actualités et mise à jour

Il est rare de voir dans les magazines des articles concernant l’éther et encore moins l’énergie libre puisque 95 % des personnes n’en ont jamais entendu parler. Mais dans le « Sciences et Avenir » de janvier 2002, dans le dossier « Les Hérétiques de la Science », Jean Pierre Vigier, probablement considéré comme le plus grand physicien français vivant, défend l’idée d’un éther matériel : « il y a un éther matériel, physique, qui porte les ondes et les particules, exactement comme la mer porte un navire ». Puis il continue en évoquant succinctement l’idée d’une énergie infinie : « Extraire de l’énergie du vide pour la convertir en une source inépuisable : vieux rêve ou fantasme ».

Une expérience a été faite pour essayer de mettre en évidence la force du vide : « Ils construisent une balançoire de 500 micromètres carrés suspendue à quelques centaines de nanomètres du sol. Puis il approche une sphère à moins d’un micromètre. Même sans contact, la balançoire se pencha ».

En physique quantique, le vide n’est pas vraiment vide, il est en fait le siège de fluctuations qui créent des particules virtuelles engendrant sur les plaques une force de pression attractive.

Les conséquences possibles

On peut trouver évidemment trouver une multitude de domaines dans lesquels l’usage d’une énergie propre et infinie serait très bénéfique. On peut citer l’automobile, le chauffage des habitations, plus généralement dans l’industrie. Il serait aussi très profitable de l’utiliser dans le domaine spatial. « Le génie inventif de l’homme nous permettra non seulement de voyager dans l’univers à une vitesse inimaginable, sur une trajectoire fixe. Il nous permettra aussi grâce à l’énergie que l’on pourra tirer de l’espace, d’être autonome et d’y séjourner pendant de longues périodes en consommant peu d’énergie »

Ces appareils à énergie infinie pourraient rendrent indépendants énergiquement la population. On peut imaginer des constructions privées d’appareils, de tailles variables : depuis le générateur dans son jardin, jusqu’à la centrale assez puissante pour éclairer toute une ville. Certains scientifiques pensent que c’est la voie à suivre pour l’avenir. D’autres, au contraire, pensent que « le fait de donner à la société une énergie abondante, bon marché et inoffensive, serait la pire des choses qui pourrait se passer sur cette planète, parce que les gens risqueraient de l’utiliser à des fins par forcément positives ».

Réfléchissons un peu quant aux bienfaits que peuvent nous apporter une énergie propre et infinie : toutes les forêts, mers, lacs, océans, ne seraient plus menacés d’être à nouveau contaminés par des déchets radioactifs, par le pétrole. L’air dans les villes serait plus pur, le bruit incessant des voitures serait moindre. Les industries rejetteraient beaucoup moins de produits polluants dans l’air. Bref, on arriverait à augmenter la vitalité des gens, car ils respirerait un air pur, boirait une eau dépolluée, et se nourrisseraient d’aliments sains.

5ème PARTIE : LA RADIOCOMMUNICATION ET LA TRANSMISSION PAR ONDES

Tesla a ouvert la voie à la transmission d’énergie et d’informations, ainsi que de l’électronique moderne.

tesla 6

À la base de tout : la bobine Tesla…

Une « Bobine Tesla » en fonctionnement :
C’est un transformateur à air avec des bobines primaires et secondaires réglées sur la résonance qui convertit à hautes fréquences des courants élevés de tensions relativement faibles, en courant faible de hautes tensions.

Tant que les fréquences sont élevées, les courants alternatifs de très hautes tensions s’écoulent largement sur la surface de la peau, sans causer de dommages. Des milliampères pénétrant dans les tissus nerveux peuvent tuer alors que beaucoup d’ampères sur la surface de la peau peuvent être tolérés pendant de brefs instants !

La bobine de Tesla sert en tant que dispositif de production de hautes tensions, toujours utilisé de nos jours sous une forme ou une autre dans tout récepteur radio ou de télévision ; elle deviendra très rapidement une partie de l’équipement de tout laboratoire de recherche universitaire.

Sa bobine a plusieurs applications médicales. En 1890, il est publié un article qui donne les valeurs thérapeutiques sur le corps humain du chauffage interne par des courants de hautes fréquences. Ce phénomène sera connu sous le terme de diathermie. Les médecins s’intéressent de plus en plus à l’oscillateur thérapeutique de Tesla, une petite bobine de tesla. Il vend des bobines médicales à des hôpitaux et laboratoires, ce qui lui rapporte beaucoup d’argent.

LE RADAR

Le radar est l’outil de défense de base de tous les pays du monde.

Tesla découvre le principe du radar en 1900, il le met au point et publie malgré des problèmes financiers les principes de ce qui deviendra, presque 3 décennies plus tard, le radar.

Il fonctionne comme les ultrasons des chauves-souris : on envoie un rayon concentré d’un courant de minuscules charges électriques vibrant à une très grande fréquence, puis après réflexion sur la cible, on réceptionne le rayon et après analyse on obtient une image de la cible.

Quinze ans après la description du radar par tesla, des équipes de chercheurs américains et français travaillent parallèlement d’arrache pied à mettre au point un système fonctionnant selon ses principes. En 1934, une équipe française met au point et installe des radars sur des bateaux et sur des stations terrestres en utilisant des appareils conçus précisément selon les principes énoncés par Tesla. Le radar a été d’une grande aide aux Anglais pendant la 2nd guerre mondiale pour prévenir les attaques aériennes des Allemands.

Les robots télécommandés

Tesla définit les bases de la télé-automatique. Il conçoit qu’on puisse un jour commander des véhicules à des centaines de kilomètres sans qu’il y ait d’équipage, en utilisant la télégraphie sans fil. Il crée deux navires robots télécommandés dont un est submersible.

Ses brevets de 1895 contiennent en réalité les spécifications d’un bateau torpille sans équipage muni de six torpilles de 4,20 mètres. Il affirme qu’un faible nombre de ces engins suffit pour « attaquer et anéantir une armada entière en une heure, et sans que l’ennemi puisse jamais localiser ni identifier la puissance qui le détruit ». Mais les conceptions de Tesla sont trop en avance pour l’époque et les responsables de la défense américaine considèrent son projet comme un rêve irréalisable qu’ils qualifient d’expérience de laboratoire.

Un navire télécommandé :

tesla 9

tesla 8

Tesla qui a tant œuvré pour inaugurer l’ère de l’automatisation, sent qu’il est dans un monde manifestement pas prêt.

Ses recherches le poussent notamment dans certaines bases de l’informatique : des inventeurs de la deuxième partie du 20ème siècle qui voulaient déposer des brevets dans le domaine informatique, se sont aperçus que Tesla les avaient précédés. « je suis étonné par la répugnance qu’éprouvent les gens qui travaillent dans le domaine des ordinateurs à y reconnaître la priorité de tesla, alors que Mrs Brattain, Bardeen, et Schockley ont été couvert d’honneurs pour l’invention du transistor, qui a fait des calculatrices électroniques une réalité physique ».

Radio et télécommunications

En 1893 Tesla fait un nouveau pas pour le progrès de la science en décrivant en détail les principes de l’émission radio. A Saint-Louis, il fait la première expérience publique de communication radio, fait que l’on attribue généralement à Marconi en 1895. Il s’ensuis une compétition acharnée entre les deux hommes.

Marconi arrive à Londres avec un récepteur TSF. Son dispositif est identique à celui que Tesla a décrit en 1893. Marconi nie avoir eu connaissance de système de Tesla, mais le service chargé d’examiner les demandes de brevets aux Etats-Unis rejettera cette dénégation invraisemblable. Marconi a transmis le 12 décembre 1901 la lettre S à travers l’océan Atlantique. Cette nouvelle fait la presse mondiale. En fait, il a utilisé le brevet fondamental de Tesla (n°645.576), déposé en 1897 et homologué le 20 mars 1900. Il a aussi utilisé 17 autres de ses brevets. Mais en 1943, la confusion est finie : la cour suprême des Etats-Unis établit que Tesla est bien l’auteur de la découverte initiale de la radio, injustement accordée à Marconi. Cette information n’a pas encore pénétré les encyclopédies mais les ingénieurs radio s’accordent pour dire que c’est bien Tesla qui est à la base de la radio.

À la suite, nombreux sont ceux qui vont utiliser les brevets de Tesla pour développer la radio commerciale.

Son premier dispositif de radio :

tesla 10
Grâce à son puissant récepteur radio, il perçoit d’étranges sons rythmés. Il semble en fait qu’il ait entendu des ondes radio émises par les étoiles. Il faudra attendre 1920 pour que les astronomes isolent à nouveau ces signaux, connus sous le nom d’ondes cosmiques. Aujourd’hui l’écoute des étoiles est une pratique courante.

Le projet de radiodiffusion mondiale

Tesla n’abandonnera jamais l’idée d’un réseau mondial de télécoms. Il sait toutefois que l’époque n’est pas encore mûre et que le financement est un problème insurmontable : « l’humanité n’a pas atteint un stade suffisamment avancé pour se laisser mener de bon gré par l’instinct aigu du découvreur »

Tesla construit la tour de Wardenclyffe qui se veut être un centre mondial de radiodiffusion disposant de tous les services que l’on utilise aujourd’hui : interconnexions téléphoniques, synchronisation des faisceaux horaires, diffusion de bulletins d’informations sur les cours de la bourse, récepteurs de poches, réseaux de communications privées. Il en parle comme d’un système mondial de transmission d’informations.

6ème PARTIE : LA TRANSMISSION D’ÉNERGIE ET L’UTILISATION DES ONDES HAUTES ET BASSES FRÉQUENCES

tesla 11
Introduction

En 1899, Tesla se retire dans les montagnes de Colorado Springs afin de faire des expériences sur les ondes électromagnétiques. Il construisit un laboratoire à haute tension, à haute altitude qui entourait la plus grosse bobine Tesla au monde. Ses recherches précèdent toutes celles sur l’électromagnétisme, « ses expériences présentent une étonnante similarité avec les travaux les plus tardifs en matière de communications à très basses fréquences ».

Au cours de ses multiples séjours dans son laboratoire, il réussit à concevoir un système de transmission d’énergie sans fil et découvrit le phénomène des ondes stationnaires. Nous verrons ensuite quelles sont les applications des inventions et découvertes de Tesla.

Transmission d’énergie sans fil

Lors d’une conférence, Tesla annonce qu’il peut voir son rêve le plus cher se réaliser : la transmission d’énergie sans aucun câble de connexion.

Un exemple de transmission d’énergie :
Tesla croit non seulement que le globe est un bon conducteur, mais que les hautes couches de l’atmosphères sont conductrices et que celles qui sont situées à des altitudes très modérées qui sont aisément accessibles, constituent une parfaite voie conductrice. Ainsi, il pense prouver ainsi que l’on peut transmettre de grandes quantités d’énergie électrique dans les couches supérieures de l’atmosphère, sur n’importe quelle distance.

tesla 12

En plus du projet de radiocommunication qu’il pensait mettre en place avec la tour de Wardenclyffe, il veut établir un système de transmission d’énergie sans fil. Par conséquent, on disposerait d’énergie électrique en n’importe quel point du globe. C’est précisément avec ce projet que Morgan, le créancier de Tesla à cette époque, n’était pas d’accord. Morgan décida de retirer son aide financière. L’excuse était : « si tout le monde peut puiser de l’énergie où mettrons-nous le compteur ? ». Elle fut détruite en 1917.

Certaines de ses expériences à Colorado Springs sont relatés par des journalistes. D’après eux, Tesla a réussi à allumer 200 lampes à incandescence de 50 watts à 42 km de sa station.

Si ce procédé vient un jour à être mis en place dans le monde, il serait « sur le point de provoquer une révolution industrielle d’une ampleur inégalée ».

Analogie sur le principe de la transmission d’énergie sans fil:
Découverte de l’onde stationnaire

tesla 13

Le 3 juillet 1899 est le jour de la découverte par Tesla du phénomène des ondes stationnaires. Voici les observations qu’il lui ont permis de déduire l’existence de ce phénomène.

Dans le Colorado, de nombreuses décharges naturelles d’éclairs s’observent régulièrement. Ce 3 juillet, il remarqua que ses appareils réagissent parfois plus fort aux décharges très éloignés qu’à celles qui sont plus proches. Un violent orage éclate : des signes s’intensifièrent, puis après être passé par un maximum, il décrurent, puis cessèrent. Tesla a observé ce phénomène à intervalle réguliers. Puis l’orage se déplace. Il se retrouve à 300 km et ce phénomène continue à se manifester avec une force constante.

Autrement appelée « onde Tesla », l’onde stationnaire, comme son nom l’indique, ne se déplace pas, contrairement aux ondes hertziennes. C’est par addition de deux ondes hertziennes que l’on obtient une onde stationnaire. Si l’on définit un point de l’espace et une onde passant par ce point. Le point va parcourir toute l’onde, et par conséquent le point et l’onde auront un mouvement relatif. Si l’on ajoute deux ondes hertziennes de même fréquence, on obtient une onde stationnaire. Le point précédemment défini, restera fixe par rapport à la nouvelle onde ainsi formée.

Ondes Stationnaires- exemple 1:tesla 14

 

tesla 15
Ondes Stationnaires- exemple 2:
On voit bien que la courbe noire ne se déplace que verticalement et n’a pas de mouvement de translation, alors que les courbes verte et rouge se déplacent horizontalement.
Exploitation des découvertes de Tesla dans le domaine des ondes

Les découvertes de Tesla sur les ondes électromagnétiques peuvent avoir des répercutions importantes sur l’Humanité si elles sont utilisées à des fins destructrices. Voici quelques-uns uns des ces phénomènes qui peuvent être provoqués par l’utilisation des ondes électromagnétiques à très basses fréquences :

-Influence sur le climat

-Brouillage des liaisons radios et destruction des appareils électroniques

-Interférences dans les ondes émises par le cerveau, provoquant des troubles, des bourdonnements sonores

Nous verrons comment ces ondes sont probablement utilisées par des grandes institutions gouvernementales pour contrôler le climat, pour influencer la population, et certains comportements.

La guerre météorologique : le projet HAARP

HAARP est un centre de recherche Américain installé en Alaska, sur l’ionosphère. HAARP signifie ”High-frequency Active Auroral Research”. HAARP se fonde sur les recherches de Bernard Eastlund, qui s’est lui-même inspiré des travaux de Nikola Tesla.

Officiellement les scientifiques de ce centre de recherche travaillent sur un émetteur radio afin d’étudier l’ionosphère.

Officieusement, HAARP veut tirer parti de l’ionosphère pour en faire une arme à énergie. L’ionosphère est constituée de particules ionisées hautement chargées en énergie. Des recherches menées depuis un siècle par une série de scientifiques ont mis en évidence le fait que ce ”manteau énergétique” protégeant la terre, pouvait avec une technologie appropriée, devenir une arme stratégique de toute première importance.

Le projet étudie un puissant dispositif d’émissions à hautes fréquences, qui pourrait modifier localement l’ionosphère afin de neutraliser radars et radios, mais ce type d’émissions permettrait, d’après un chercheur au département de la Défense, d’agir sur la formation de phénomènes météorologiques, c’est un début de manipulation du climat.

C’est un projet de 30 millions de dollars de coût annuel que l’armée américaine présente comme d’innocente recherches sur l’ionosphère. Les promoteurs n’épargnent pas leurs dollars en campagnes de relations publiques et en publicité pour rassurer l’opinion américaine. Néanmoins, il est difficile de croire qu’il ne s’agit pas d’un projet à des fins militaires lorsque l’on sait que les vrais bailleurs de fond sont la Navy, l’Air Force, Raython (géant américain de l’armement) et le Département de la Défense.

Certaines institutions européennes sont inquiètent et « demande[nt] que soit établi un accord international visant à interdire à l’échelle mondiale tout développement et déploiement d’armes qui pourraient ouvrir la porte à toute forme de manipulation de l’homme ». Elles « considère[nt] que le projet HAARP, en raison de son impact général sur l’environnement, est un problème d’une portée mondiale ».

La guerre invisible des ondes

La recherche dans ce domaine est une préoccupation importante, ancienne et permanente des militaires. Ces redoutables armes sont en développement depuis plusieurs décennies, notamment dans les laboratoires Américains et russes. Les armes électromagnétiques sont développées dans le cadre d’inquiétantes collaborations entre le département de la Défense et de la Justice. Il existe un type d’arme très intéressant : les armes à basse et très basse fréquences : c’est la technologie ELF, Extremely Low Frequencies.

La fréquence de résonance de l’ionosphère est presque identique à celle du cerveau humain. L’ionosphère est donc une onde porteuse parfaite à partir de laquelle on peut atteindre le cerveau sans changer la fréquence d’émission. C’est ce lien entre la sphère électromagnétique de la Terre et les fréquences de résonances du cerveau qui est à la base des armes stratégiques.

Au cours du XXème siècle, on peut discerner quelques utilisations de ces ondes. De façon générale, elles sont utilisées pour refroidir les ardeurs d’association ou d’organes politique et syndicaux jugé trop militants par certains dirigeants. En voici un inventaire :

1962 : le signal de Moscou : les autorités américaines constatèrent que le personnel de leur ambassade à Moscou était exposé à des niveaux élevés de rayonnement électromagnétique. Il a fallu des années pour réaliser que les Soviétiques cherchaient à induire des effets biologiques, psychologiques et physiologiques.

1983-84 : les soviétiques voulaient les utiliser contre les forces rebelles afghanes

1987 : « un type d’arme radicalement nouveau, capable de dégrader les systèmes électroniques ou pouvant être utilisé en mode antipersonnel » (rapport du département américain de la Défense).

1989 : Boris Eltsine reconnaissait que le KGB avait en son temps étudié le recours à des émissions ELF pour tuer à distance par arrêt de la fonction cardiaque.

1996 : parution d’un article de Scientific Advisory Commitee de l’US air Force : «on peut envisager le développement de sources d’énergies électromagnétiques, dont le signal peut être pulsé, mis en forme et dirigé, qui pourront être couplés avec le corps humain de façon à empêcher les mouvements musculaires volontaires et à contrôler les émotions (et les actions), endormir, transmettre des suggestions, interférer avec la mémoire à court et à long terme, produire l’acquisition d’expérience ou effacé des expériences acquises»
Effets de ces ondes sur le corps humain

Au début des années 60, Pr Herbert König, a mis en évidence un certain nombre d’effet des basses et très basses fréquences. Dans les années 70, l’armée américaine a secrètement piloté des programmes de recherches sur ces effets. Ils ont confirmé la réalité des terribles effets induits par ces champs, c’est à dire des troubles cardiaques, l’altération des réflexes, un état de maladresse. Une irradiation chronique ou continue peut être à l’origine de tendances dépressives, troubles de la mémoire, affectation cutanées, hémorragies oculaires et même cancers.

Daniel Depris, physicien donne quelques explications : « la composante magnétique des rayonnements […] peut modifier le processus physico-chimique qui régit le métabolisme endocrinien, notamment au niveau de la glande thyroïde ».

On a pu aussi constaté la publication d’un mémorandum intitulé « entraînement biologique du cerveau par les radiations de basse fréquence » rédigé pour la NASA.

Exemple d’utilisation de ces armes psychotroniques en temps de guerre

Le principe de l’utilisation est simple : avec ces armes, il est aisé de priver de la conscience de veille tout soldat qui part à l’attaque et de lui enlever toute agressivité.

Le magazine 2000, n°97, déc. 93 indique à propos des armes psychotroniques :

« Vous souvenez-vous des images de la Guerre du Golfe lorsque des milliers de soldats irakiens sortirent de leurs tranchées en capitulant ? Ils se rendirent même aux journalistes qu’ils prenaient pour des soldats et ils furent la proie bienvenue des canons de l’artillerie américaine, bien qu’ils aient brandi leurs drapeaux blancs. De plus en plus d’experts militaires sont persuadés que ce n’est pas le ravitaillement, insuffisant des troupes de Saddam Hussein qui a provoqué cette capitulation soudaine et massive mais que ce sont bien les armes psychotroniques des Etats-Unis ».

On peut assister à la mise en place d’une arme capable de paralyser l’ennemi. Avec ce type d’arme, le premier but est de couper les systèmes électroniques ennemis. D’autres appareils produisent des ultrasons, des ondes de sons ELF qui provoquent des nausées et des vomissements et perturbent à l’extrême le sens de l’orientation des personnes ciblées.

Les armes à « énergie dirigée »

Tesla avait écrit sa théorie sur les armes à énergie dirigée avant le début du vingtième siècle. Son fameux « rayon de la mort », pensait-il, installerait la paix sur la terre parce qu’il pourrait détruire des cités entières partout dans le monde et instantanément.

Tesla annonce : « mon dispositif projette des particules de dimension relativement grande ou au contraire microscopique, nous permettant de transmettre sur une petite surface, à grande distance, une énergie des trillions de fois supérieure à celle de tout autre rayonnement ».

« Le Rayon de la Mort » :

tesla 16
Conclusion

Nikola Tesla a œuvré toute sa vie pour la science, pour l’avancée de la connaissance et des techniques. Toute sa vie a été dédiée à l’étude de l’électricité et du magnétisme ainsi qu’à leurs applications possibles qui pour une très grande partie entrent en jeu dans notre société moderne.

À sa mort, des messages affluent du monde entier et déplorent la perte d’un grand génie. Trois lauréats du prix Nobel, Millikan, Compton, et James Frank lui adresseront un ultime hommage : « un des esprits les plus extraordinaires du monde, qui a montré la voie des importants développements techniques des temps modernes ».

Il est difficile de trouver un autre homme dont les visions et les inventions ont eu autant de répercussions directes que celles de Nikola Tesla sur le style de vie de toutes les populations des pays industrialisés. Comme le dit si bien B.A. Behrend, président du American Institute of Electrical Engineers : « Si nous devions saisir et éliminer de notre monde industriel les résultats des travaux de monsieur Tesla, les roues de l’industrie s’arrêteraient, les trains seraient immobilisés, nos villes seraient jetées dans la pénombre et nos usines seraient mortes […] Son nom marque une époque dans l’avancement de la science électrique. De ce travail jaillit une révolution… »

Compte rendu de Débat

Quelle est la réaction de la société face aux nouvelles théories
scientifiques, découvertes et inventions ?
Le débat commence sur l’énumération des découvertes et des inventions qui ont mis un certain temps avant d’être acceptées.

Il a été cité spontanément beaucoup d’exemples : la rotation de la Terre autour du Soleil (Galilée), la Terre ronde, la théorie de Darwin sur l’évolution ainsi que la disparition des dinosaures, et plus récemment la dérive des continents et les théories quantiques et relativistes (Einstein).

Est ensuite demandé à l’assistance les raisons qui empêchent à ces théories d’être acceptées dès le départ.

La première réponse fut l’appréhension du changement qui peut déranger certains et même certaines institutions, comme l’Eglise : des théories remettaient en cause quelques « vérités » religieuses (l’homme au centre de l’Univers). Il est de plus difficile d’admettre que l’on se soit trompé et de remettre en cause les fondements de sa pensée (relativité, la Terre ronde,…). Aussi, certaines théories sont d’autant plus difficiles à admettre qu’elles sont abstraites et donc difficile à s’imaginer.

On peut penser que de nos jours, il existe d’autres raisons d’ordres politique ou économique.

On a tout d’abord relevé une opposition entre le secteur public et privé, que certains attribuent à la forme de puissance qu’est l’argent. Grâce à cet outil, des grandes entreprises richissimes échappent aux contrôles gouvernementaux grâce à l’influence qu’elles ont sur le monde économique. Il existe une distinction entre les objectifs publics et les objectifs privés (gagner le plus d’argent). Il y a de plus moins de contrôles dans le secteur privé. Plusieurs exemples ont été cités, comme les entreprises pharmaceutiques et pétrolières qui forment des lobbies. Il a aussi été mis en évidence le problème du clonage, financé par des milliardaires, et qui échappe au contrôle des autorités.

On s’est ensuite demandé si ces grandes entreprises puissantes pouvaient influencer les domaines de recherche.

Il est apparu que le monde industriel n’avait comme souci principal que la rentabilité. Les ventes de brevets et procédés technologiques se négocient à prix d’or, ainsi la recherche se dirige essentiellement vers les domaines permettant la création de richesses. L’énergie occupe une place importante dans les préoccupations des entreprises.

Le débat s’oriente ensuite vers la possibilité de cacher certaines découvertes pour éviter de perdre de l’argent, ou tout du moins pour en gagner plus.

Trois exemples ont été cités…

Le premier concerne la pharmacologie : les grands groupes possèdent des brevets sur des médicaments qu’ils vendent très chers, alors que l’arrivée des médicaments génériques réduit fortement la facture. La trithérapie pour diminuer les effets du SIDA se vend très cher, ce qui ne permet pas aux pays Africains de se la procurer ; mais d’un autre côté, la recherche a coûté cher. On peut se demander quels intérêts auraient les grands laboratoires à commercialiser un vaccin qui arrêterait l’épidémie et freinerait donc les rentrées d’argent (bénéfices seulement à court terme).

L’invention d’une source d’énergie disponible en tout point de la Terre (thème développé dans l’exposé) poserait le problème de la facturation : en effet il ne serait pas possible de poser des compteurs. Les grands groupes énergétiques, notamment pétroliers, ne pourraient que s’opposer à cette nouvelle source d’énergie, même si elle réduisait le problème des inégalités dans le monde. L’accent est mis sur la toute puissance des lobbies pétroliers qui exercent de fortes pressions sur les États, dépendants de leur énergie.

Le problème a aussi été montré dans l’industrie automobile. Des innovations technologiques (airbag, ABS, ESP,…) n’ont pas été mises immédiatement en circulation (à part sur les voitures haut de gamme), non pour une raison de coût de fabrication mais afin de montrer au public une évolution constante des moyens de sécurité. Tant qu’une évolution n’est pas demandée par le public, les modèles n’évoluent pas car ils se vendent très bien dans leur état d’avancée technique.

Une dernière interrogation a été posée : la gloire est-elle plus importante que l’argent ? Plus précisément est ce que l’on préfère de nos jours faire une découverte servant l’humanité et ainsi être reconnu, par exemple par un Prix Nobel, ou bien travailler ²dans l’ombre² mais en gagnant des sommes fabuleuses car on permet à une entreprise de gagner de l’argent.

Il est apparu que la tendance penchait plutôt vers l’emprise de l’argent ; de toute façon l’argent procure une gloire à lui tout seul, il n’y a qu’à voir l’étalage des richesses qui se produit dans notre société pour s’en convaincre. Il est donc plausible que l’argent supplante la gloire ou la dignité dans le monde moderne.

On retiendra de ce débat qu’il y a une opposition entre le secteur public et le secteur privé dans le domaine de la recherche. On a, dans ce dernier, « perdu la vocation de la science qui est de faire avancer la technologie et de comprendre le monde ». Ce constat a été attribué à l’argent, qui a une place prépondérante dans notre société et dans notre vie ; ce pouvoir permet notamment aux sociétés fortunées, surtout dans le domaine de l’énergie et de la pharmacie, d’user d’influence et ainsi de contourner les lois ou d’exercer un contrôle sur la recherche, dans le but de faire toujours plus de profit.

En annexe, le débat s’est terminé sur l’énumération – non exhaustive – des domaines de recherche prometteurs pour le siècle prochain :

La théorie qui permettra la réunification des 4 forces de l’Univers (gravitationnelle, électromagnétique, nucléaire faible, nucléaire forte)
La fusion nucléaire permettant de produire de l’énergie avec l’hydrogène
L’intelligence artificielle

Livres à consulter :

« Coucou c’est Tesl – l’énergie libre », auteurs collectifs internationaux, Editions Felix, 1997.

« Le livre jaune n°5 », auteurs collectifs internationaux, Editions Felix, 1997.
Energie libre et technologies, Jeane Manning, Louise Courteau éditrice, 2001.
Vidéo

« Science et Vie », dossier « La guerre des ondes », mensuel n°1009, octobre 2001.

« Sciences et Avenir », dossier « Les hérétiques de la science », mensuel, Janvier 2002.

« Sciences et Avenir », article « Gare à l’effet Casimir », mensuel, Décembre 2001.
Sites Internet

recherche Quanthomme : http://www.multimania.com/quanthomme/
les machines à énergie libre : http://www.multimania.com/pascuser/energie.html
Tesla, the electric magician : http://www.parascope.com/en/1096/tesindex.htm
L’énergie du point zéro : http://users.skynet.be/kurtgode/
The home of primordial energy : http://depalma.pair.com/index.html
http://www.pbs.org/tesla

Au cours de nos recherches, nous avons créé un annuaire qui répertorie des liens vers des sites contenant des informations sur l’énergie libre et sur une forme de complot que nous avons évoqués au cours de l’exposé : http://secretlinks.free.fr

« ÉNERGIE LIBRE ET TECHNOLOGIES » de Jeane Manning
(Dernier trimestre 2001, Louise Courteau Éditrice)

Le monde se trouve aujourd’hui dans une quête assidue de nouveaux moyens de productions d’énergie qui respectent l’environnement. Ce livre, paru fin 2001, a été écrit dans ce cadre, et présente des inventeurs qui sont convaincus que nous sommes entourés d’une mer d’énergie, sur laquelle nous pourrons nous brancher. J’ai choisi ce livre car il aborde largement la notion d’énergie du vide, appelée énergie libre, que nous avons détaillée dans l’exposé.

Jeane Manning est une journaliste indépendante qui depuis 1981, voyage à travers l’Amérique du Nord et l’Europe, pour rendre compte des technologies en nouvelle énergie. Ses articles et ses essais ont été publiés dans de nombreuses revues spécialisées.

Le livre commence par présenter les fondements de la nouvelle énergie. L’historique de la nouvelle énergie est retracée et sont présentés les personnes du passé qui ont été en avance sur leur temps dans leurs travaux. Nikola Tesla est même considéré comme le père de l’énergie libre.

La deuxième partie analyse de plus près l’énergie de l’espace, la physique sous-jacente et se penche sur quelques inventeurs qui ont réussi à la capter. De nombreuses machines et procédés sont présentés en expliqués en termes techniques.

La partie suivante explorent les autres technologies en nouvelles énergies, comme la fusion froide et la technologie thermique. Il est présentés des nouveaux moyens de productions d’énergie : l’énergie hydraulique, énergie solaire, énergie thermique. Mais les procédés qui mettent en jeu ces énergies plus conventionnels sont tout aussi révolutionnaires.

Pour finir, l’auteur traite des problèmes et des avantages liés au développement des nouvelles énergies. Il s’interroge comment la société pourrait passer d’une économie basée sur les énergies fossiles à une économie basée sur les nouvelles énergies. Les scientifiques et les inventeurs rencontrent des obstacles, essentiellement des harcèlements, concernant la mise sur le marché de leurs inventions. Le pouvoir de voir un jour apparaître sur le marché des machines à énergie libre est entre nos mains.

Telle est la première phrase de la préface écrite par Dr Brian O’Leary, physicien et ancien astronome : « ceci pourrait être l’un des livres les plus importants que vous ayez jamais lus ». Il va sans dire que ce livre présente des informations hors du commun et on ne peut qu’être affecté.

Ce livre est un hommage à tous les inventeurs et scientifiques qui furent les pionniers sur la scène des énergies nouvelles. Ces énergies sont infinies et en harmonie avec la nature. Il retrace la vie de nombreux inventeurs qui se sont dévoués pleinement à la recherche de ces nouveaux équipements, sacrifiant presque leurs vie pour la science.

Ils ont été victimes d’harcèlements et certains trouvèrent même la mort. Il est absolument nécessaire que ces informations parviennent au grand public pour que tout le monde sache ce qu’il se passe réellement concernant le secteur des nouvelles énergies. Le «Syndrome de la Répression » s’infiltre dans chaque aspect de tout développement révolutionnaire. Il faut mettre au courant le grand public au sujet de l’existence de tels moyens de production et œuvré pour la mise en place d’une économie basée sur les nouvelles énergies.

Je fus aussi très étonné de voir que tant d’inventions qui sont en harmonie avec la nature ont été construites et fonctionnent sans que personne n’en ait jamais pris connaissance. Ces informations si précieuses ont bien été gardées du grand public. La possibilité d’une indépendance totale vis à vis de l’énergie n’est pas une utopie.

Si tout le monde prenait la peine de s’informer et de prendre conscience des informations qui sont évoquées dans ce livre, la société pourrait subir des bouleversements sans précédant.

LA GUERRE DES ONDES
Sciences et vie n°1009 – octobre 2001

L’article traite de l’utilisation des ondes dans un domaine militaire. Ces armes « du futur » sont à énergie dirigée, elles envoient des ondes électromagnétiques dans une direction précise. Elles neutralisent l’ennemi, matériellement ou humainement, sans détruire la zone visée. Ces armes se classent selon la fréquence du rayonnement.

Les armes à basses ou très basses fréquence SLF et ELF (Super [30-300Hz] ou Extremely [0-30Hz] Low Frequencies) sont produites grâce à de grandes antennes semblables aux relais hertziens. Elles sont non-ionisantes, elles ne peuvent pas créer de dommages cellulaires. Les études montrent cependant qu’elles engendrent des troubles cérébraux (interaction avec la mémoire, altération des réflexes et des mouvements volontaires, contrôle des émotions , troubles cardiaques) car elles ont des fréquences proches de celles du cerveau ; elles ont été utilisées notamment en 1962 : le « Signal de Moscou ». Elles ne créent pas de dégâts matériels.

Les armes à micro-ondes (3.1010-3.1013Hz soit une longueur d’onde de 10-6m à 1cm) sont ionisantes : elles détruisent les tissus et chauffent les molécules d’eau (principe du four). Elles sont redoutables et peuvent atteindre, par l’intermédiaire de gigantesques antennes ou de compresseurs de flux terrestres (une explosion ou une puissante source d’énergie créent un fort courant dans une bobine de cuivre, ce qui induit une impulsion électromagnétique), transportés par missile ou dans l’espace (« Guerre des Etoiles »), une puissance de quelques milliers de milliards de Watts, ce qui équivaut à l’explosion d’une bombe à Hydrogène (le rayonnement n’a pas la même fréquence mais les effets se ressemblent). Sous une telle intensité de micro-ondes, les êtres vivants cuisent littéralement et tout le matériel électronique et informatique est instantanément détruit dans un très large périmètre. Cela ressemble à une explosion nucléaire sans le souffle ni la radioactivité (les émissions électromagnétiques occupent une place importante dans la dévastation d’une bombe H). Ces armes terribles ont déjà été utilisées par les Soviétiques contre les rebelles Afghans en 1984 et par les Américains pendant l’opération Tempête du désert de la Guerre du Golfe contre les systèmes de défense antiaériens et les postes de commandement irakiens.

Il existe aussi les ondes à hautes fréquences, que les USA étudient dans le cadre du projet HAARP. Ces ondes peuvent modifier localement l’ionosphère, et neutraliser radar et radio qui l’utilisent comme réflecteur ; elles pourraient aussi influencer le climat et devenir de terribles armes climatiques.

On peut se demander pourquoi l’existence des armes électromagnétiques, ayant des effets aussi importants que dangereux, est aussi peu divulgué, que se soit par les militaires ou les scientifiques. Les ondes, invisibles, difficilement détectables, passent pratiquement inaperçues dans la panoplie des militaires, alors qu’elles sont peut-être encore plus destructrices que les armes que le 20ème siècle a apportées : contrôle des personnes (basses fréquences), mêmes effets que la bombe atomique sans explosion (micro-ondes), contrôle climatique.

Il est étonnant de voir que les avis des scientifiques sur les effets des ondes basses fréquences sur l’homme soient partagés alors que les militaires les utilisent depuis longtemps (Signal de Moscou : 1962). Les compresseurs de flux et leurs micro-ondes sont opérationnels (Guerre du Golfe : 1991) et pourtant peu de monde semblent s’intéresser à leurs effets dévastateurs. L’article parle d’un « épais silence » autour de ces recherches, cela rejoint l’idée que les forces armées et les gouvernements cherchent à camoufler ces armes qui peuvent faire agir les personnes contre leur volonté, ce qui est contraire aux Droits de l’Homme, ou avoir des conséquences terribles sans que l’on puisse forcément en connaître l’origine (compresseurs de flux). Ces armes électromagnétiques ont des enjeux militaires, stratégiques et opérationnels considérables, et les gouvernements se gardent bien d’en divulguer la connaissance.

Cette idée rejoint la thèse implicite soutenue dans notre dossier . Certaines découvertes ou inventions, certains faits, sont cachées aux yeux du public pour des enjeux militaires, économiques ou politiques. Cela apparaît quand on relève les incohérences dans les informations qu’on (ce « on » reste à définir) nous donne, par exemple pour les sujets suivants : énergie, assassinat de Kennedy, Tesla, attentat du World Trade Center, extraterrestres…

Conclusion Générale…

Cet exposé, durant sa réalisation, nous a beaucoup fait réfléchir sur le rapport entre la science et le monde moderne.

Ainsi Nikola Tesla, qui a fait nombre de découvertes, et qui de son temps (au début du siècle) était l’un des scientifiques les plus reconnus, est passé dans l’oubli et n’est même pas mentionné dans les livres scientifiques ou les manuels scolaires. Les traces écrites parlant de lui sont rares, très peu de livres parlent de lui, et de façon succincte. Par contre, les sites Internet foisonnent sur lui en le présentant comme l’inventeur d’une machine permettant de créer de l’énergie à partir du vide : la machine à énergie libre. D’après ces personnes, plusieurs machines de ce type auraient été construites et fonctionneraient, cependant elles affirment que les lobbies pétroliers et certaines institutions cherchent à cacher depuis longtemps cette invention qui permettrait d’obtenir de l’énergie gratuite et à volonté. L’une des hypothèses expliquant l’oubli de Tesla serait donc ce « complot » contre la connaissance de cette invention, formidable si elle existe réellement.

L’absence de documents a été un obstacle à la réalisation de notre dossier, mais à force de recherches, notamment sur Internet, nous avons réussi à trouver certaines informations. La difficulté a aussi été de rester objectifs devant certains sites qui parlaient un peu trop vite peut-être de « complot ». Ce qui est sûr, c’est qu’il a énormément œuvré dans l’avancé technologique de notre siècle, soit par ses inventions (courant alternatif, radiocommunication,…), soit par les principes qu’il a posés et qui ont permis à d’autre de faire avancer la science (principe du radar,…).

Nous continuons nos recherches pour peut-être comprendre un jour un peu mieux son œuvre.

Nous espérons que cet exposé intriguera suffisamment pour que certaines personnes aient la curiosité de voir par eux-mêmes que quelque chose n’est pas très clair autour de Nikola Tesla.

Sources: http://cerfbleu.free.fr/serieux/tesla/exposeweb.htm

ça laisse rêveur…

++

FredZ.

Trouvé sur LE MONDE

Myriam El Khomri, la Ministre du Travail, à la sortie du conseil des ministres exceptionnel au Palais de l’Elysée à Paris, le 10 mai.

Le gouvernement a décidé de passer en force sur la loi travail. Après le feu vert du conseil des ministres, réuni en conseil extraordinaire, Manuel Valls a recouru, mardi 10 mai, au 49-3. L’usage de cet article de la Constitution vise à contrer les blocages qui persistent contre le projet de loi travail, car il permet à l’exécutif d’adopter un texte sans vote, avec engagement de la responsabilité du gouvernement. Il a déjà été utilisé à trois reprises en 2015 sur le projet de loi Macron.

Lire aussi :   Qu’est-ce que l’article 49-3 ?

Le gouvernement, en « recherche permanente du compromis », a intégré « 469 amendements [au texte], issus d’un travail collectif », a défendu le premier ministre. Déplorant une « alliance des contraires et des conservatismes » face au projet de loi, Manuel Valls a justifié le recours au 49-3 afin d’éviter de « revenir sur l’ambition et la cohérence du projet de loi et [d’]offrir le spectacle désolant de la division et des postures politiciennes dues à une minorité de blocage ». « Nous avons le devoir d’aller de l’avant, de dépasser les blocages […], a-t-il affirmé. C’est cette exigence qui m’amène à engager la responsabilité de mon gouvernement. » « J’exprime une fronde contre la division », a-t-il ajouté.

Devant les députés, un peu plus tôt, Manuel Valls avait indiqué qu’il allait recourir au 49-3 « avec responsabilité, mais aussi avec confiance ». Il avait justifié ce passage en force par le fait que « la réforme doit aboutir », que « le pays doit avancer », et « parce que les représentations salariales et les droits des salariés doivent progresser ».

Manuel Valls a défendu un texte « qui a évolué depuis deux mois » mais qui reste « cohérent et équilibré », « fruit d’un compromis » avec les syndicats dits « réformistes ». « Ce compromis a réuni le groupe majoritaire. Pourtant certains refusent de s’inscrire dans la logique de ce compromis », a-t-il regretté devant les députés. « Je comprends cette position mais ne la partage pas », a-t-il ajouté, provoquant un brouhaha dans l’Assemblée.

Lire aussi :   Projet de loi travail : le gouvernement renonce à la surtaxation des CDD

Débat jeudi sur une motion de censure de la droite

Conséquence du recours au 49-3, le débat sur le projet de loi a été « immédiatement suspendu ». Seule l’adoption d’une motion de censure peut permettre à l’Assemblée de s’y opposer. Elle doit être déposée dans les vingt-quatre heures, c’est-à-dire avant 16 h 30 mercredi.

Les députés Les Républicains (LR) et UDI ont d’ores et déjà déposé la leur, dénonçant « l’impasse dans laquelle François Hollande a mené [le] pays ». Le débat sur cette motion de censure aura lieu jeudi après-midi à l’Assemblée nationale, ont indiqué les présidents de groupes. Si elle était adoptée, elle renverserait le gouvernement. Interrogé à ce sujet au journal de 20 heures de TF1, Manuel Valls a dit ne pas craindre que cela puisse arriver.

Lire le décryptage :   Le recours au 49-3 : un usage répandu sous la Ve République

Les communistes se disent prêts à voter la motion de censure de la droite. Jean-Luc Mélenchon, candidat à la présidentielle de 2017 et fondateur du Parti de Gauche, a appelé tous les députés de gauche à les imiter. Le secrétaire d’Etat aux relations avec le Parlement, Jean-Marie Le Guen, a jugé « inconcevable » que des députés PS puissent s’associer à la droite. Si une motion de gauche s’ajoutait à celle de droite, elle serait débattue le même jour, jeudi.

Avant même le discours de M. Valls devant les députés, le député socialiste Pouria Amirshahi avait proposé notamment à ses collègues, « pour répondre à la brutalité politique du gouvernement », de « déposer une motion de censure issue des rangs progressistes » en cas de recours au 49-3.

« J’espère que nous serons suffisamment nombreux — soit au minimum cinquante-huit — pour porter collectivement une telle démarche. Le cas échéant, si nous n’y arrivions pas, pour ma part je voterai une motion de censure [de la droite]. »

Dans le cas où le gouvernement ne serait pas censuré, le projet de loi travail sera considéré comme adopté, mais cela ne vaut que pour la lecture en cours. Le texte sera alors immédiatement transmis pour la « navette » avec le Sénat, à majorité de droite, qui en débattra d’abord en commission, puis en séance. Les sénateurs pourront alors modifier le projet de loi à leur guise, aboutissant sûrement à une version différente du texte.

Lire aussi :   Loi travail : le recours au 49-3, un « déni de démocratie » pour les frondeurs

« Le débat n’a plus lieu sur le texte mais sur des postures »

Mardi dans la matinée, les députés « frondeurs » du PS avaient exprimé leur colère après avoir été reçus à Matignon au sujet de l’examen du texte. Pour le rapporteur du texte, Christophe Sirugue, « le débat n’a plus lieu sur le texte mais sur des postures ».

Manuel Valls n’a « pas envie d’aller vers un compromis sur la loi travail », avait de son côté déclaré le député Christian Paul, ajoutant qu’un éventuel recours à l’article 49-3 n’avait pas été évoqué par le gouvernement lors de cette réunion.

Dans la rue, le prochain temps fort aura lieu jeudi 12 mai, avec une cinquième journée de mobilisation (CGT, FO, FSU, Solidaires, UNEF, FIDL, UNL). Après l’annonce du passage en force du gouvernement, ces sept syndicats opposés au projet de loi ont appelé à deux nouvelles journées de grèves et manifestations, les mardi 17 et jeudi 19 mai.S’y ajoutent Nuit debout et une grève reconductible des routiers appelée par la CGT et FO à partir du 16 mai.

Lire aussi :   Projet de loi travail : les syndicats appellent à de nouvelles journées de manifestations

Plusieurs milliers de personnes du mouvement Nuit debout, né le 31 mars dans la foulée d’une manifestation contre le projet de loi, se sont rassemblées dès mardi en France pour protester contre le recours au 49-3, une « attaque contre nos droits sociaux et notre démocratie ».

A Paris, ils étaient 500, selon la police, à manifester devant l’Assemblée aux cris de « Tout le monde emmerde le 49-3 », « la vraie démocratie, elle est ici », ou encore « Assemblée nationale assemblée du capital ». L’appel de Nuit debout a été entendu dans plusieurs villes, notamment à Toulouse, où un cortège de 1 000 personnes selon la police, 2 000 selon la CGT, s’est d’abord réuni place du Capitole, avant de sillonner la ville aux cris de « Toulouse, soulève-toi », « Cette société-là, on n’en veut pas ».

Réveillez -vous les Mougeons… on est en dictature déguisée…
++ FredZ

Trouvé Chez Etienne Chouard, Merci à lui, tiré de son article « Histoire détaillée d’un odieux Complot » que je vous recommande.

 

Inside_job_texte_integral_en_francais

Merci Étienne pour ces éclaircissements…

 

++

 

FredZ.

 

 

 

 

Trouvé sur Le Comment ,merci à eux.

Alors que la plupart d’entre nous pensaient que la situation financière actuelle ne pouvait plus empirer, la réalité est tout autre.

 

 situation financière

 

Le monde financier connaît de nombreux rebondissements qui alarment et touchent même les investisseurs les plus avertis.

Ces dernières années, on a pu observer des anomalies comme le taux d’intérêt à zéro pour cent, l’assouplissement quantitatif, la dévaluation de la monnaie compétitive et bien d’autres faits critiques dans le milieu de la finance.

Si bien qu’ils sont devenus des situations habituelles, un peu comme une nouvelle norme au niveau mondial. Malheureusement, on n’est pas au bout de nos surprises avec les faits chocs qui arrivent souvent sans prévenir.

 

Des mesures gouvernementales insoutenables

imf

Pour couronner le tout, les gouvernements ne cessent de prendre des mesures ridicules et insoutenables, aggravant encore plus la situation.

Si ces dernières années, les gouvernements ont émis des dettes à court termes avec des taux d’intérêt négatifs, la Suisse est par exemple le premier à émettre une dette à long terme de 10 ans, avec bien sûr un rendement négatif.

Et le cauchemar continue avec le gouvernement mexicain qui a vendu des obligations de 100 ans libellées en euros, le premier dans son genre.

Auparavant, le Mexique a déjà vendu une première obligation de 100 ans mais libellées en dollars américains pour ensuite faire de même avec des libellées en livres sterling. Autant le dire, tout cela est insensé.

Comment le Mexique a pu faire cela ? Et bien tout simplement en profitant de la relance sans précédent de la Banque Centrale européenne.

L’emprunt obligataire de 100 ans dans une devise qui ne sera même plus d’ordre dans la prochaine décennie ne semble intéresser les investisseurs.

Et pourtant si, il y tout de même des investisseurs qui s’y risquent. On parle ici des investisseurs institutionnels, des grands fonds de pension et les autres.

Mais il y a pire, c’est votre argent qu’ils investissent dans ces obligations à rendement négatifs.

 

Une guerre monétaire en vue ?

guerre monetaire

Depuis quelques années, le terme de guerre monétaire est souvent utilisé. Il ne s’agit pas de guerre de devises mais plus d’une guerre de siège de change.

Comme dans la Première Guerre Mondiale, le monde financier ne se préoccupe plus des montants et des valeurs perdus.

Les mesures comme les plans de relance de billion de dollar ; le quantitative easing 1,2,3 ; les taux d’intérêts négatifs ; des impôts élevés ; les contrôles de capitaux ; les rendements négatifs de dette à long terme sont devenus monnaie courante.

Mais le plus choquant dans cette histoire c’est que les perdants sont nous, les contribuables. Nous perdons un argent durement gagné au profit des grands investisseurs.

Posez-vous des questions comme : et si le dollar américain n’était pas la monnaie de réserve, si les Empires montent, s’ils baissent, s’ils s’effondrent… ? C’est la tendance de l’histoire.

Bref, la situation financière actuelle est chaotique, voilà pourquoi il est important de protéger votre intérêt.

Il est primordial d’atteindre votre liberté personnelle et votre prospérité financière en dépit de toutes ces situations. Protéger votre épargne, votre retraite et votre investissement avant qu’ils ne soient anéantis.

 

La situation 401k selon Robert Kiyosaki

rpbert kyosaki

Robert Kiyosaki, auteur de renom, est un investisseur américain, un homme d’affaires et un commentateur financier. Dans son livre « Rich’s Dad Prophecy », cet auteur explique pourquoi le plus grand krash boursier est à venir et comment vous pouvez vous y préparer et en profiter.

Ce livre est issu de sa série Rich dad, regroupant entre 10 à 15 livres.

 

Rich Dad Prophecy en bref

rich dad's prohecy

Dans la prophétie de Rich Dad, R. Kiyosaki prédit que le marché financier va chuter et atteindre le fond en 2016.

Dans la première partie intitulée « le conte de fée n’est-il plus ? » Il parle de l’effondrement du marché boursier pour ensuite suggérer un plan de survie dans la deuxième partie « construire l’arche ».

Selon son analyse, c’est la loi ERISA ou Employer Retirement Income Security Act, adoptée en 1974 qui provoquera le Krach boursier de 2016.

En fait, cette loi a été adoptée pour soi-disant protéger la retraire des employés. Elle a permis de transférer la charge de la retraite de l’employeur à l’employé.

Seulement, Kiyosaki prédit que les employés qui mettent généreusement leur argent dans leur compte retraite à cause de ce transfert paniqueront lorsque le crash arrivera. De ce fait, ils vont vendre, vendre et vendre comme les investisseurs inexpérimentés qu’ils sont.

 

crash

Il met également en lumière que le gouvernement n’est pas en mesure de fournir une aide financière et médicale pour plus de 150 millions de personnes. Il est difficile d’avoir un bon emploi et l’épargne retraite ne suffira pas au 80 % des retraités.

Il illustre cette analyse par le marché boursier, qui depuis Mars 2000, ne cesse de rebondir, de chuter, de rebondir, de chuter pour finalement arrêter de rebondir un beau jour à cause des hypothèses financières.

Les travailleurs supposent que leurs retraites et leur sécurité sociale seront suffisantes pour vivre pendant leur retraite. De plus, ils ne font pas réellement confiance aux fonds communs de placement et aux stocks.

 

Les causes du krash boursier de 2016 selon Robert Kiyosaki

crise financiere 2016

Les trois raisons du krash de 2016 sera, d’abord le sell-off du marché parce que les retraités vont chercher à convertir leurs actifs financiers en argent comptant.

Ensuite, le coût de la vie et les frais médicaux vont augmenter. Du coup, ils vont vendre leurs fonds communs de placement pour vivre. Enfin, le nombre de mauvais investisseurs va augmenter. Ils vont forcément prendre des mauvaises décisions concernant la gestion de leur argent.

Selon Kiyosaki, la loi ERISA a causé le fait que les gens attendent et comptent sur le gouvernement pour résoudre leurs problèmes.

Tous ces facteurs forment « la tempête parfaite » pour créer le krash boursier de 2016. D’ailleurs, on observe déjà la hausse des coûts des soins médicaux, la précarité de la situation financière du Japon, la montée de la Chine au premier rang de l’économie mondiale, l’augmentation des actes terroristes, l’obsolescence de Wall Street et l’échec des grandes entreprises.

 

Construire votre arche pour parer contre la crise

solid

Dans la deuxième partie, l’auteur Robert Kiyosaki aborde le thème de construire une arche. Vous commencerez par développer votre propre déclaration financière pour ainsi déterminer si votre argent vous apporte quelque chose.

Vous continuerez ensuite par l’examen de vos pensées concernant l’argent. Si vous vous laissez guider par la peur et non par les faits, vous devez changer de comportement pour atteindre la liberté. Alors plus d’excuse, prenez votre argent en main et faites un investissement dans les entreprise, l’immobilier ou les stocks.

Mais surtout, pesez le pour et le contre, demandez les conseils de professionnels au besoin mais vous serez seul maître de votre décision.

 

5 façons pour vous protéger de la crise financière

5 facons pour se proteger de la crise financiere

Etant donné la situation économique américaine, se dire que la crise financière n’arrivera pas est une grande erreur. Il est difficile de prédire que le marché financier va retrouver son équilibre.

Au contraire, tous les analystes financiers admettent que les temps difficiles restent à venir. La première estimation étant que la déflation va peser sur l’économie américaine, exactement comme ce qui s’est passé au Japon. Dans ce cas, il faut seulement garder des liquidités pour se protéger.

Mais la seconde hypothèse avance l’inflation. Si vous faites partie de ces personnes qui y croient, il vaut mieux diversifier votre investissement.

Ne mettez pas votre économie dans une seule chose. Vous le protègerez ainsi de la malchance ou de mauvais call. Voici 5 façons d’investir efficacement votre argent :

 

Investir dans la propriété :

investir dans la propriete

Elle offre plusieurs avantages. D’abord, vous pouvez emprunter pour acheter, c’est très avantageux surtout si vous pouvez fixer le taux d’intérêt.

Elles sont également devenues plus abordables après des années de baisse de prix. Il est possible d’obtenir un flux de revenu régulier si vous les mettez en location mais cela peut tourner au vinaigre en période de crise.

 

Les devises :

devises

Même si le monde dépend encore du dollar pour le moment, puisque c’est la monnaie de réserve du monde, les conséquences du déficit commercial massif des Etats-Unis vont finir par affaiblir progressivement sa valeur.

Du coup, acheter des devises en livre sterling, en euro, yen ou couronnes norvégiennes est plus judicieux. De cette façon, votre argent tiendra sa valeur lorsque le dollar chutera.

 

L’alternative des actifs :

Placer son argent dans les actifs est un bon moyen pour le préserver de la crise. Même si le marché financier s’effondre, ils ont des valeurs intrinsèques et l’inflation n’y changera rien.

Les peintures, les pièces de monnaie, les timbres, les meubles ont quelques exemples où ranger votre trésorerie sans aucun risque.

 

Choisir une banque de réserve :

100%

Les banques de réserve sont aussi une excellente alternative pour mettre votre argent à l’abri. Ces banques sont intéressants parce qu’il ne prête pas d’argent. Vous pouvez éventuellement y mettre une partie de votre économie.

 

L’or :

pr

L’or est bon en période d’inflation. L’inconvénient c’est que l’or est difficile à stocker pour des raisons de sécurité.

Aussi, il est important de bien choisir l’endroit et la manière de l’acheter avant de vous lancer. La solution est donc d’acheter votre or auprès d’une banque de renom liée avec les raffineries. Il vous donnera une excellente couverture contre l’inflation.

 

La solution : Euro Pacific Bank

europac bank logo

Euro Pacific est une banque œuvrant à l’échelle mondiale. Elle offre un moyen pour les investisseurs de s’ouvrir à l’économie mondiale.

Vous, en tant qu’investisseur de détail, pouvez donc effectuer des placements sur de nombreux secteurs dans le monde. Les courtiers développent une relation proche avec les investisseurs afin de déterminer vos besoins et les investissements qui vous correspondent.

carte or

Le tout est de gérer votre portefeuille de manière optimale. Les placements comme le Compte d’or, la banque 100% de réserve, les comptes retraites, les actifs et bien d’autres vous donneront de nombreux avantages en plus.

Ouvrir un compte à l’Euro Pacific bank est donc la solution idéale pour diversifier votre placement et le mettre à l’abri de la crise financière imminente.

En savoir plus – Site de Euro Pacific Bank

 

Mise à Jour – 20 Janvier 2016

Une diminution de l’index de S&P 500 de 2100 point à 1850.

Une diminution progressive avec faible volatilité.

crise de 2016

Mise à Jour – 5 février 2016 – Baiser De La Mort (Kiss Of Death)

baiser de la mort s&p500

Par ici le  Cours de l’Or

++

FredZ.

Back to Top