Physique

Les plus extravagantes explications sur un monde bien compliqué mais bien réel même si parfois les illusions sont bien visibles

La matière noire enfin découverte et expliquée grâce au spectomètre magnétique alpha

Et si les astrophysiciens étaient sur le point d'expliquer l'existence de matière noire dans l'univers, l'un des plus grands mystères de la science moderne ? On en est encore loin, mais cette semaine est sans doute à marquer d'une pierre blanche dans la compréhension de cette énigme aussi fascinante qu'insaississable. Mercredi, à Genève, au siège de l'organisation européenne de physique nucléaire (Cern), Samuel Ting, prix Nobel de physique en 1976 et responsable du programme, a livré les premiers résultats récoltés par le spectromètre magnétique alpha (AMS-02), amarré à la Station spatiale internationale (ISS). 

Derrière ce nom de science-fiction, se cache un intrument à 2,5 milliards de dollars - tout de même - capable de détecter et de filtrer les flux cosmiques. Dans ces rayons, on trouve des électrons et des protons bien connus des lois de la physique, mais qui ne représentent que 4,9% de notre univers. Plus intéressant, sur ses 18 mois d'exploration et ses 25 milliards de particules détectées, l'AMS a recensé 400.000 antiélectrons, appelés également positons (ou positrons), qui n'entrent pas dans la "composition" de la matière visible, mais alimentent avec d'autres particules, la fameuse matière noire, ou antimatière. Or, si cette découverte de positons n'a rien d'exceptionnel, leur nombre, dix fois plus élevé qu'attendu, certifie qu'une source de matière noire existe bel et bien dans notre galaxie.

Dans les pas de Fritz Zwicky

Mais quelle est précisément cette source d'antimatière, d'où viennent ces positons détectés en très grand nombre ? Là est toute la question qui agite aujourd'hui le monde scientifique. En l'état actuel des connaissances, la matière noire a été théorisée il y a 80 ans par l'astrophysicien américano-helvétique Fritz Zwicky. Grossièrement, le scientifique était arrivé à la conclusion qu'il n'y avait pas assez de masses (étoiles, etc.) dans les galaxies qu'il a observées pour que cet ensemble "tienne" avec les seules règles de la gravité. Par conséquent, d'autres forces - la matière noire - agissent dans le cosmos et représentent même 26,8% de l'univers. Par soustraction, en compabilisant la matière visible et l'antimatière, les 69,6% restant représentent ce que les savants appellent l'énergie sombre. Cette énergie expliquerait l'expansion de l'univers.

Retour en 2013 et aux travaux des scientifiques internationaux. Que signifie, donc, exactement la découverte de cette profusion d'antiélectrons par l'AMS-02 ? Deux théories s'affrontent. La plus classique et - malheureusement pour l'excitation de l'imagination - la plus crédible, serait que ces positons naissent de "pulsars". Il s'agit d'étoiles à neutrons nées de la destruction d'étoiles massives. Leur modèle est relativement bien cerné par l'astrophysique. Les champs magnétiques que ces "pulsars" génèrent en tournant à grande vitesse produisent des électrons, mais également des positons.

Washington s'emballe

Dont acte, même si cette théorie n'élimine pas la seconde, bien plus stimulante. "Les résultats (d'AMS-02, ndlr) sont compatibles avec des positons pouvant provenir de la destruction d'antimatière", reconnaît le Cern, ouvrant la voie à une véritable exploration de la mystérieuse matière noire. L'idée est ici que si deux particules de matière noire entrent en collision, elles émettent à leur tour des électrons et des protons, mais également des positons. L'excès de ces antiélectrons mis au jour par l'AMS-02 pourrait précisément conforter cette théorie particulièrement en vogue depuis de premières expériences déroutantes menées en 2008 par des scientifiques russes et italiens, mais pas encore validée scientifiquement.

Quoi qu'il en soit, l'heure est encore aux hypothèses et au travail de recherche. Prévu pour durer 20 ans, l'AMS-02 a donc encore du pain sur la planche afin d'éclairer les scientifiques. Mais les espoirs d'une découverte majeure restent permis. "Avec davantage de données, nous allons en apprendre plus quant à la nature de cet excès d'antimatière, a déclaré, depuis Washington, Michael Salamon, responsable au département américain de l'Energie. Et avec de la chance nous pourrons faire une découverte très excitante", a-t-il poursuivi, espérant, comme tout le monde, que la matière noire le devienne, un jour, un peu plus claire pour la science.

Et si les astrophysiciens étaient sur le point d'expliquer l'existence de matière noire dans l'univers, l'un des plus grands mystères de la science moderne ? On en est encore loin, mais cette semaine est sans doute à marquer d'une pierre blanche dans la compréhension de cette énigme aussi fascinante qu'insaississable. Mercredi, à Genève, au siège de l'organisation européenne de physique nucléaire (Cern), Samuel Ting, prix Nobel de physique en 1976 et responsable du programme, a livré les premiers résultats récoltés par le spectromètre magnétique alpha (AMS-02), amarré à la Station spatiale internationale (ISS). 

Derrière ce nom de science-fiction, se cache un intrument à 2,5 milliards de dollars - tout de même - capable de détecter et de filtrer les flux cosmiques. Dans ces rayons, on trouve des électrons et des protons bien connus des lois de la physique, mais qui ne représentent que 4,9% de notre univers. Plus intéressant, sur ses 18 mois d'exploration et ses 25 milliards de particules détectées, l'AMS a recensé 400.000 antiélectrons, appelés également positons (ou positrons), qui n'entrent pas dans la "composition" de la matière visible, mais alimentent avec d'autres particules, la fameuse matière noire, ou antimatière. Or, si cette découverte de positons n'a rien d'exceptionnel, leur nombre, dix fois plus élevé qu'attendu, certifie qu'une source de matière noire existe bel et bien dans notre galaxie.

Dans les pas de Fritz Zwicky

Mais quelle est précisément cette source d'antimatière, d'où viennent ces positons détectés en très grand nombre ? Là est toute la question qui agite aujourd'hui le monde scientifique. En l'état actuel des connaissances, la matière noire a été théorisée il y a 80 ans par l'astrophysicien américano-helvétique Fritz Zwicky. Grossièrement, le scientifique était arrivé à la conclusion qu'il n'y avait pas assez de masses (étoiles, etc.) dans les galaxies qu'il a observées pour que cet ensemble "tienne" avec les seules règles de la gravité. Par conséquent, d'autres forces - la matière noire - agissent dans le cosmos et représentent même 26,8% de l'univers. Par soustraction, en compabilisant la matière visible et l'antimatière, les 69,6% restant représentent ce que les savants appellent l'énergie sombre. Cette énergie expliquerait l'expansion de l'univers.

Retour en 2013 et aux travaux des scientifiques internationaux. Que signifie, donc, exactement la découverte de cette profusion d'antiélectrons par l'AMS-02 ? Deux théories s'affrontent. La plus classique et - malheureusement pour l'excitation de l'imagination - la plus crédible, serait que ces positons naissent de "pulsars". Il s'agit d'étoiles à neutrons nées de la destruction d'étoiles massives. Leur modèle est relativement bien cerné par l'astrophysique. Les champs magnétiques que ces "pulsars" génèrent en tournant à grande vitesse produisent des électrons, mais également des positons.

Washington s'emballe

Dont acte, même si cette théorie n'élimine pas la seconde, bien plus stimulante. "Les résultats (d'AMS-02, ndlr) sont compatibles avec des positons pouvant provenir de la destruction d'antimatière", reconnaît le Cern, ouvrant la voie à une véritable exploration de la mystérieuse matière noire. L'idée est ici que si deux particules de matière noire entrent en collision, elles émettent à leur tour des électrons et des protons, mais également des positons. L'excès de ces antiélectrons mis au jour par l'AMS-02 pourrait précisément conforter cette théorie particulièrement en vogue depuis de premières expériences déroutantes menées en 2008 par des scientifiques russes et italiens, mais pas encore validée scientifiquement.

Quoi qu'il en soit, l'heure est encore aux hypothèses et au travail de recherche. Prévu pour durer 20 ans, l'AMS-02 a donc encore du pain sur la planche afin d'éclairer les scientifiques. Mais les espoirs d'une découverte majeure restent permis. "Avec davantage de données, nous allons en apprendre plus quant à la nature de cet excès d'antimatière, a déclaré, depuis Washington, Michael Salamon, responsable au département américain de l'Energie. Et avec de la chance nous pourrons faire une découverte très excitante", a-t-il poursuivi, espérant, comme tout le monde, que la matière noire le devienne, un jour, un peu plus claire pour la science.

source : http://www.metrofrance.com/high-tech/le-mystere-de-la-matiere-noire-enfin-perce/mmde!rw31IHKqWqIHQ/

Lire la suite

Charge tellurique et force électromagnétique mises en cause

Lozère : une maison «hantée» sème le trouble dans un village

Antonin Chilot | Publié le 22.03.2013, 15h25 | Mise à jour : 19h37

En Lozère, une maison a connu des phénomènes étranges : meubles renversés, ampoules grillées, vaisselles éparpillées... 

En Lozère, une maison a connu des phénomènes étranges : meubles renversés, ampoules grillées, vaisselles éparpillées...  | DR

«Quand mon adjoint a vu les meubles voler, on a décidé d'enquêter». Michel Thérond, maire d'un petit village de Lozère, en revient à peine : une maison de son village est l'objet de phénomènes étranges, dignes de films d'épouvante. Hollywood ? Non, bienvenue à La Roche, petit hameau d'Albaret-Sainte-Marie (600 habitants), à une cinquantaine de kilomètres de Mende (Lozère). 
 

Depuis le 12 mars, une ancienne grange réaménagée par la mairie est au coeur de toutes les interrogations. Les locataires, qui vivaient là depuis sept ans, ont fini par se plaindre après une sucession de faits inexpliqués. Ampoules explosées, meubles et frigo renversés, vaisselles dérangées... Un rapport de la gendarmerie fait même état d'un chat et d'oiseaux décédés de façon inexpliquée.
 
L'angoisse se répand dans le village, le maire demande aux médias locaux de garder le silence, le temps de faire la lumière sur ces événements. Les pompiers sont prévenus, la gendarmerie lance les investigations. 

La maison dévastée. : DR


Pas de faille dans le bâtiment, pas de cause architecturale, pas de séisme enregistré dans la zone... Selon l'édile, contacté par leParisien.fr,  un expert en charges électromagnétiques -également sourcier- aurait trouvé la solution. «Il a découvert une faille tellurique qui passe sous la maison. Elle pourrait provoquer un champ magnétique ou électrique qui fait bouger les objets, résume rapidement Michel Thérond. Au niveau des interrupteurs, il y a une charge électrique 10 à 12 fois supérieure à la norme». Les meubles qui auraient bougé seraient ceux placés près d'une prise électrique. 

Selon des gendarmes qui ont participé à l', la maison était dévastée. «On aurait dit un avec effraction, explique l'un d'entre eux. On est dans le réel, on ne croit pas aux phénomènes paranormaux. Il fallait juste trouver une explication.» Les locataires ont été relogés et ne veulent pas s'exprimer publiquement. «Ils sont encore un peu choqués, ils veulent tourner la page», explique le maire du village. 

Les experts restent sceptiques quant à l'explication avancée par le maire
 
Que faire de cette maison, désormais ? «On va continuer de chercher d'autres experts, poursuite le maire. On nous a dit qu'il existait des moyens de faire dévier le champ magnétique. Et puis je tiens vraiment à rassurer les habitants.» Car tout n'est peut-être pas réglé : si Michel Thérond assure que la faille tellurique et la charge électrique expliquent ces drôles de phénomènes «à 99%», il n'y a pas vraiment de certitude absolue. D'autant que ces explications ne convainquent pas certains experts...
 
«Cette explication paraît très étonnante a priori, nous explique un chercheur de l'Institut de physique du globe de Paris (IGPG). Je ne vois pas trop comment un mouvement dans le sous-sol pourrait conduire à de telles conséquences en surface.» Même scepticisme pour Jacques-Marie Bardintzeff, vulcanologue. «Une faille, c'est une cassure dans le sous-sol, deux parties bougent, avec parfois un déplacement de l'une sur l'autre. Ce déplacement peut provoquer une remontée de gaz carbonique ou de radon (un gaz invisible et inodore, ndlr)», résume cet enseignant à l'université de Cergy-Pontoise et de Paris-Sud Orsay. «Il est possible que des remontées de ce type produisent de l'électricité statique, mais pour me prononcer, il me faudrait faire des analyses sur place. Mais de là à faire bouger des meubles, je n'y crois pas trop, cela me paraît très peu cartésien», conclut-il.

Par ailleurs, de l'avis de plusieurs électriciens, qui refusent de se prononcer ouvertement sur le fond du dossier, n'ayant pas connaissance des mesures exactes relevées sur les lieux de cette «maison hantée», «une charge électrique très importante peut certes faire claquer des ampoules mais toujours pas faire bouger des meubles». Reste que l'adjoint au maire a bien vu des meubles voler ! Le mystère reste entier...
source : http://www.leparisien.fr/societe/lozere-une-mysterieuse-maison-hantee-seme-le-trouble-dans-un-village-22-03-2013-2661789.php

Réduire le rayonnement solaire ferait baisser les précipitations terrestres

Réduire l’énergie solaire reçue par la Terre par ingénierie climatique n’empêcherait pas la distribution des précipitations d’être fortement perturbée

Jeudi, 21 Juin 2012

Lutter contre le changement climatique en réduisant le rayonnement solaire atteignant notre planète à l'aide de l'ingénierie climatique ne semble pas être une panacée. C’est ce qui ressort d’une étude menée par des chercheurs issus de quatre pays européens (Allemagne, France, Grande-Bretagne et Norvège). À partir d'un scénario climatique correspondant à une augmentation brutale de l’effet de serre, ils montrent en effet que de réduire la quantité de rayonnement solaire reçu par la Terre pour contrer cet effet de serre pourrait fortement réduire les précipitations à l'échelle du globe. Les variations régionales des précipitations pourraient aussi être substantielles car du même ordre de grandeur que celles attendues en l’absence d'ingénierie climatique.

L'objectif de l'ingénierie climatique est de contrecarrer le réchauffement climatique en manipulant le climat pour qu’il ressemble au climat pré-industriel, au climat actuel ou encore à un climat jugé optimal pour l’humanité et les écosystèmes dont elle dépend. Mais jusqu'à quel point peut-on contrôler le climat et à quoi ressemblerait-il s’il était ainsi manipulé ?

Pour tenter de répondre à de telles questions, une équipe de chercheurs européens(1) a choisi de s’intéresser aux techniques d’ingénierie climatique visant à contrer l’effet de serre en réduisant la quantité de rayonnement solaire reçu par la Terre.
Les chercheurs ont analysé la manière dont quatre modèles climatiques(2) répondaient à un scénario climatique hypothétique extrême, consistant en un quadruplement instantané de la concentration atmosphérique préindustrielle de CO2, selon que l’augmentation de la température moyenne globale induite par ce scénario était ou non compensée par une réduction du rayonnement solaire reçu par la planète (compensation obtenue en réduisant la constante solaire). Pour ce faire, ils ont comparé les réponses des modèles aux caractéristiques climatiques préindustrielles, en termes de moyennes globales et régionales de la température et des précipitations.

Si la température moyenne globale à la surface de la Terre reste presque inchangée par rapport à la période préindustrielle, lorsque l'effet de serre dû au quadruplement du CO2 est compensé par une réduction de la quantité de rayonnement solaire reçu par la planète, on observe néanmoins un refroidissement au niveau des tropiques et un réchauffement au niveau des hautes latitudes. Ces changements régionaux de température sont toutefois beaucoup plus faibles que ceux obtenus avec un quadruplement du CO2 seul, ce scénario conduisant à un très fort réchauffement général.

 


Différences de température (en °C) par rapport aux températures préindustrielles suite à un quadruplement instantané de la concentration atmosphérique de CO2, celui-ci étant compensé (à gauche) par une diminution de la constante solaire et non compensé (à droite). Seules les régions où les 4 modèles climatiques utilisés simulent un changement de même signe ont été coloriés, la valeur indiquée étant une moyenne des valeurs obtenues par chacun des modèles. © Creative Common License

En revanche, lorsque l'effet de serre dû au quadruplement du CO2 est compensé par une réduction de la quantité de rayonnement solaire reçu par la planète, le cycle hydrologique à l'échelle globale est fortement ralenti par rapport à la période préindustrielle : les précipitations à l’échelle globale diminuent, avec davantage de régions où il pleut moins et quelques-unes où il pleut plus, ces variations régionales des précipitations étant du même ordre de grandeur que celles observées en présence du quadruplement du CO2 seul mais de signe opposé. Notamment, les précipitations diminueraient de manière significative (15-20%) en Europe et en Amérique du Nord.

 
 
Différences de température (en °C) par rapport aux températures préindustrielles suite à un quadruplement instantané de la concentration atmosphérique de CO2, celui-ci étant compensé (à gauche) par une diminution de la constante solaire et non compensé (à droite). Seules les régions où les 4 modèles climatiques utilisés simulent un changement de même signe ont été coloriés, la valeur indiquée étant une moyenne des valeurs obtenues par chacun des modèles. © Creative Common License
 

À la lumière de ces résultats, il ne semble donc pas possible d'affirmer que l'ingénierie climatique assurerait à tous les pays un climat meilleur ou au moins aussi favorable que le climat présent. Elle ne peut donc pas être considérée comme un substitut possible à une action politique volontaire pour réduire les émissions de gaz à effet de serre.

 
 
 
Note(s): 
  1. Ces chercheurs sont affiliés aux laboratoires suivants : en Allemagne, le Max Planck Institute for Meteorology, le Max Planck Institute for Chemistry et le Institute for Advanced Sustainability Studies ; en France, le Laboratoire des sciences du climat et de l’environnement (LSCE-IPSL) et le Laboratoire de météorologie dynamique (LMD-IPSL) ; en Norvège, l’Université d’Oslo, le Norwegian Meteorological Institute et le laboratoire Cicero ; en Grande-Bretagne, le Met Office Hadley Centre.
  2. MPI-ESM, NorESM, HadGEM2-ES et IPSL-CM5A
Source(s): 

H. Schmidt, K. Alterskjær, D. Bou Karam, O. Boucher, A. Jones, J. E. Kristjánsson, U. Niemeier, M. Schulz, A. Aaheim, F. Benduhn, M. Lawrence, C. Timmreck. Solar irradiance reduction to counteract radiative forcing from a quadrupling of CO2: climate responses simulated by four earth system models. Earth System Dynamics, 2012; 3 (1): 63. DOI: 10.5194/esd-3-63-2012

Contact(s):

Les coordonnées ci-dessus peuvent avoir été mises à jour depuis la publication de cet article.

source : http://www.insu.cnrs.fr/environnement/climat-changement-climatique/reduire-l-energie-solaire-recue-par-la-terre-par-ingenier?utm_source=DNI&utm_medium=Newsletters

----------

article du monde

CarbonSat d'Astrium le satellite qui mesurera les gaz à effet de serre

Boursier.com) -- Astrium, Numéro 1 européen de l'industrie spatiale, va poursuivre, au cours des 22 prochains mois, la préparation de CarbonSat, un nouveau satellite de recherche climatique pour l'Agence spatiale européenne (ESA).

Au début du mois d'avril, l'ESA a en effet annoncé avoir confié à Astrium un contrat pour la conception du satellite CarbonSat. Emmenée par Astrium, une équipe internationale d'ingénieurs approfondira les différentes composantes du satellite CarbonSat, un satellite destiné à mesurer, avec une précision inégalée, la concentration et la répartition, à l'échelle planétaire, des deux principaux gaz à effet de serre - le dioxyde de carbone (CO2) et le méthane (CH4). Il fournira aux climatologues des données essentielles pour l'analyse du climat et permettra d'affiner les modèles informatiques de simulation climatique.

Le dioxyde de carbone et le méthane sont les deux premiers gaz à effet de serre responsables du changement climatique mondial. La compréhension exhaustive des sources et de la répartition de ces gaz est donc indispensable aux prévisions climatiques globales. CarbonSat fournira ses mesures avec une résolution inférieure à 2 x 2 km, permettant aux scientifiques, pour la première fois, de quantifier les sources ciblées de CO2, (centrales thermiques au charbon, missions provenant des grandes agglomérations...) ainsi que les sources géologiques (volcans...). Pour le méthane, la mission prévoit de quantifier les émissions issues de sources comme les sites d'enfouissement technique et les grands complexes de traitement pétrolier, mais aussi de fournir des données sur la question méconnue des émissions de méthane dans les océans du globe.

CarbonSat livrera les premiers rapports complets sur les petites sources d'émission à travers le monde, permettant ainsi de bien mieux distinguer les émissions naturelles des émissions imputables à l'activité humaine.

CarbonSat est présélectionné pour être la 8ème mission 'Earth Explorer' du programme d'observation de la Terre de l'ESA. Il permettra de poursuivre le processus de pistage spatial des gaz à effet de serre entamé par le spectromètre Sciamachy du satellite Envisat, développé par Astrium

CarbonSat d'Astrium le satellite qui mesurera les gaz à effet de serre

Boursier.com) -- Astrium, Numéro 1 européen de l'industrie spatiale, va poursuivre, au cours des 22 prochains mois, la préparation de CarbonSat, un nouveau satellite de recherche climatique pour l'Agence spatiale européenne (ESA).

Au début du mois d'avril, l'ESA a en effet annoncé avoir confié à Astrium un contrat pour la conception du satellite CarbonSat. Emmenée par Astrium, une équipe internationale d'ingénieurs approfondira les différentes composantes du satellite CarbonSat, un satellite destiné à mesurer, avec une précision inégalée, la concentration et la répartition, à l'échelle planétaire, des deux principaux gaz à effet de serre - le dioxyde de carbone (CO2) et le méthane (CH4). Il fournira aux climatologues des données essentielles pour l'analyse du climat et permettra d'affiner les modèles informatiques de simulation climatique.

Le dioxyde de carbone et le méthane sont les deux premiers gaz à effet de serre responsables du changement climatique mondial. La compréhension exhaustive des sources et de la répartition de ces gaz est donc indispensable aux prévisions climatiques globales. CarbonSat fournira ses mesures avec une résolution inférieure à 2 x 2 km, permettant aux scientifiques, pour la première fois, de quantifier les sources ciblées de CO2, (centrales thermiques au charbon, missions provenant des grandes agglomérations...) ainsi que les sources géologiques (volcans...). Pour le méthane, la mission prévoit de quantifier les émissions issues de sources comme les sites d'enfouissement technique et les grands complexes de traitement pétrolier, mais aussi de fournir des données sur la question méconnue des émissions de méthane dans les océans du globe.

CarbonSat livrera les premiers rapports complets sur les petites sources d'émission à travers le monde, permettant ainsi de bien mieux distinguer les émissions naturelles des émissions imputables à l'activité humaine.

CarbonSat est présélectionné pour être la 8ème mission 'Earth Explorer' du programme d'observation de la Terre de l'ESA. Il permettra de poursuivre le processus de pistage spatial des gaz à effet de serre entamé par le spectromètre Sciamachy du satellite Envisat, développé par Astrium

Une entreprise française à la pointe de la recherche en matière d'ondes

http://www.f-i-science.com/

Exerce son activité dans les domaines de la HF, RF jusqu' au THz, de la température, des lasers, de l' optique, de la connectique, et de la mesure.

Les inventions suivies par le laboratoire Leclerc

le site internet du Laboratoire Lecler http://www.laboratoirelecler.org/

les inventions suivies :

l'hydrogène non stockée

le générateur électrique de Tesla

Russie : Une "patrouille spatiale" pour protéger les gazoducs du Soleil

Une corrosion extérieure sous contrainte anormalement élevée, appelée "stress corrosion", est à l'origine de 40% des incidents sur les gazoducs russes. La vitesse de la corrosion des tubes est d'ordinaire de 0,25 mm par an, mais l'on enregistre parfois des chiffres pouvant aller jusqu'à 1,16 mm. Cette corrosion a pour conséquence que 5 à 10 ans après avoir été mises en service, les conduites commencent à être victimes d'incidents, alors même que leur durée d'exploitation normale est prévue pour 25 à 30 ans. La Russie, relève le ministère russe des Situations d'urgence, connaît en moyenne deux fois plus d'incidents liés à la corrosion que les pays d'Europe occidentale.

Des spécialistes de l'Institut d'optique d'Etat Vavilov ont présenté des données attestant que les grosses conduites et les gros réseaux électriques sont victimes du "temps spatial", autrement dit des puissantes tempêtes géomagnétiques et éruptions solaires. On sait que ces phénomènes peuvent provoquer des courants géomagnétiques induits dans les conduites qui sont installées à des latitudes moyennes ou élevées (supérieures à 50° de latitude Nord), autrement dit sur une grande partie du territoire de la Russie, du Canada et de l'Alaska.

Les chercheurs ont attiré l'attention sur le fait qu'en période d'activité solaire, il est fréquent que les stations de protection cathodique, par lesquelles sont alimentés les gros gazoducs, se débranchent ou soient mises hors d'usage. Se retrouvant, de fait, sans protection électrochimique, les tubes sont alors soumis à une corrosion accélérée. Conformément à la réglementation technique, le débranchement de la protection cathodique des gros gazoducs n'est pas autorisé plus de dix jours par an. Or, notre planète essuie annuellement entre une cinquantaine et une centaine de puissantes tempêtes géomagnétiques - jusqu'à une fois, voire deux fois par semaine !

Afin de prévenir la brusque augmentation de la vitesse de la corrosion des gros tubes, les spécialistes de l'Institut Vavilov ont proposé de créer un service de surveillance spatiale. Dans l'esprit de ses concepteurs, ce service spatial doit annoncer les possibles incidences des flux géomagnétiques induits sur les conduites et déterminer les "fenêtres de tranquillité", durant lesquelles il sera possible de débrancher les stations de protection cathodique (pour les tester et les réparer). Il sera possible de réaliser ces prévisions en se fondant sur les mesures de l'activité héliophysique à l'aide de l'appareillage optoélectronique "patrouille spatiale solaire", élaboré par l'Institut Vavilov, qui inclut des radiomètres et spectromètres de rayonnements ionisants.

Le système de patrouille solaire que la Russie souhaite développer pour observer l'activité du Soleil doit être composé non pas de satellites distincts fonctionnant individuellement, mais d'un groupement de satellites fonctionnant en permanence, estime Anatoli Chpilov, directeur adjoint de Roscosmos (Agence spatiale russe).

Le projet de "patrouille solaire" implique la mise en orbite de trois petits satellites situés les uns par rapport aux autres à un intervalle de 120°. "Peu importe que ces satellites soient petits, qu'ils n'embarquent qu'un seul appareil et soient mis en orbite en tant que charges associées, l'important est qu'ils fonctionnent sans à-coups", a souligné Anatoli Chpilov.

source : http://www.bulletins-electroniques.com/actualites/64199.htm

A sa création l'univers n'était que plasma, liquide.

D'après les travaux menés au LHC (grand collisionneur de hadrons), l'Univers, à ses premiers instants, était composé d'une espèce de plasma de quarks et de gluons.     

L'univers à sa création aurait été liquide

Après trois semaines d'expériences à peine, les chercheurs du CERN (l’Organisation européenne de recherche nucléaire) ont pu découvrir comment se serait comportée la matière aux tous premiers instant de l'Univers. "C’est impressionnant de voir à quelle vitesse les expériences sont arrivées à ces résultats, qui portent sur la physique très complexe", indique Sergio Bertolucci, directeur de recherche. 

Un des objectifs de ces expériences est de découvrir et de recréer la matière telle qu'elle aurait existé dans les instants qui suivirent le Big Bang. A la naissance de l'Univers, la matière qui nous entoure n'existait pas, les particules se déplaçaient librement dans une espèce de plasma de quarks et de gluons.  
Grâce au collisionneur, le LHC, les faisceaux d'ions lourds peuvent concentrer une énergie si dense que d'infinitésimales gouttelettes de matière primordiale sont produites. Trois expériences distinctes se déroulent actuellement pour tenter d'observer et de comprendre ce plasma.

Premières constatations de ces différentes expérimentations : le plasma produit par le LHC se comporte de façon tout-à-fait inattendue, comme un fluide parfait. En clair, à un moment de son existence, pendant un millionième de seconde après le Big Bang, l'Univers aurait pu n'être qu'un liquide.

Source : maxiscience.com

Les résultats du LHC obligent les scientifiques à résoudre une enigme suggérant l'existence d'une nouvelle "force"

Fermilab : d'étonnants résultats suggèrent l'existence d'une nouvelle "force"

le grand collisionneur de hadrons

Une équipe internationale de chercheurs travaillant sur l'accélérateur de particules du Fermilab à Chicago doit révéler la possible existence d'une nouvelle "force". Si celle-ci s'avère confirmée, elle représentera une avancée exceptionnelle dans le domaine de la physique des particules.

Jusqu'à présent les physiciens caractérisaient l'ensemble des interactions de la matière par quatre types de forces : la gravité, l'électromagnétisme et les forces nucléaires forte et faible. Ce concept pourrait être révisé suite à l'hypothèse avancée par une équipe de chercheurs du Fermilab. Selon eux, il existerait une nouvelle "force" dans la nature. Giovanni Punzi, physicien et porte-parole de l'équipe à la base des travaux a été interrogé par l'AFP. Selon lui, cette nouvelle hypothèse pourrait correspondre à "la première manifestation de quelque chose qui est tout un monde d'interactions au-delà de toute la science physique telle que nous la connaissons, quelque chose que l'on recherche depuis longtemps".

Depuis plus d'un an, l'équipe de chercheurs mène une série d'expériences dans l'accélérateur de particules. Ils ont réalisé tout juste 10.000 collisions entre des protons et des antiprotons. Sur l'ensemble des résultats obtenus, les chercheurs ont remarqué une étrangeté pour une centaine de cas. Les chiffres ne sont pas en accord avec les théories des forces qui régissent la physique des particules. Selon Giovanni Punzi il est possible que ces observations ne soient que de simples fluctuations ou irrégularités, explicables par la physique conventionnelle mais cette possibilité est très improbable, "avec moins de deux chances sur mille".

L’hypothèse du boson de Higgs a été écartée

Jusqu'à présent, personne n'a su expliquer d'où venait cette irrégularité. Les chercheurs ont pourtant écarté la possibilité que ce phénomène soit une manifestation du boson de Higgs, particule hypothétique jusque là jamais observée. L'hypothèse d'une nouvelle "force" a donc été avancée. En attendant qu'elle se confirme, les chercheurs continuent leurs études pour obtenir des résultats plus probants. "Nous allons maintenant essayer d'obtenir autant de données que possible pour confirmer ces résultats", explique le physicien avant d'ajouter : "Si cela se confirme, ce serait la découverte la plus importante en physique depuis un demi-siècle".

La découverte n'a toutefois pas provoqué l'engouement de toute la communauté scientifique. Nigel Lockyer, directeur du laboratoire national canadien de physique nucléaire et des particules, estime qu'il est encore trop tôt pour confirmer avec certitude la découverte des chercheurs du Fermilab. Il souligne : "D'une part, il y a des indications claires que nous sommes face à quelque chose d'inexpliqué et en même temps il existe une longue liste d'autres explications possibles".

Pour l'heure, les travaux des chercheurs du Fermilab ont été publiés dans la revue américaine Physical Review Letters et ont fait l'objet d'une récente présentation au laboratoire.

source :

 http://www.maxisciences.com/lhc/fermilab-d-039-etonnants-resultats-suggerent-l-039-existence-d-039-une-nouvelle-force_art13774.html

http://fr.sott.net/articles/show/3198-Frequence-des-seismes-depuis-1966-en-une-image

 

 


Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×