News

Les trous noirs moteurs possibles de la formation des galaxies

Les trous noirs créateurs de galaxies

Serge Brunier France info le 5 décembre 2009

Une nouvelle observation européenne éclaire d’un jour nouveau la formation des galaxies : ce sont peut-être les trous noirs qui les assemblent autour d’eux...

 

Qui est le premier, le trou noir super-massif qui dévore frénétiquement de la matière ou l’énorme galaxie où ils réside ? Un tout nouveau scénario est apparu suite à une récente série de remarquables observations d’un trou noir "sans toit" : les trous noirs pourraient "construire" leur propre galaxie hôte. Ce résultat pourrait être le chainon manquant longtemps recherché pour comprendre pourquoi la masse des trous noirs hébergés par des galaxies contenant plus d’étoiles est plus importante

“ La question de "la poule et de l’œuf", qui de la galaxie ou de son trou noir était là le premier, est un des sujets de l’astrophysique contemporaine les plus débattus” déclare David Elbaz, premier auteur de l’article scientifique présentant ce résultat. “Notre étude suggère que les trous noirs super-massifs peuvent déclencher la formation d’étoiles, “ construisant ainsi leur propre galaxie hôte”. Ce lien pourrait aussi permettre d’expliquer pourquoi le galaxies hébergeant les plus grands trous noirs ont plus d’étoiles”. Pour obtenir une conclusion aussi extraordinaire, l’équipe d’astronomes a mené une importante campagne d’observation sur un curieux objet : le très proche quasar HE0450-2958 (voir le communiqué ESO PR 23/05 sur une précédente étude de cet objet), qui est le seul trou noir pour lequel les astronomes n’ont pas détecté de galaxie hôte. HE0450-2958 est situé à quelques 5 milliards d’années-lumière de la Terre. Jusqu’à maintenant, les astronomes supposaient que la galaxie hôte de ce quasar était cachée derrière une grande quantité de poussière. Aussi, les astronomes l’ont observé dans l’infrarouge moyen avec un instrument du très grand télescope (le VLT) de l’ESO. A ces longueurs d’onde, les nuages de poussière brillent vivement et sont facilement détectables. “En observant à ces longueurs d’onde nous aurions pu détecter la poussière supposée cacher la galaxie hôte”, déclare Knud Jahnke, le responsable du programme d’observation réalisé au VLT. “Toutefois, nous n’en avons pas trouvé. A la place, nous avons découvert qu’une galaxie, apparemment sans aucun rapport, dans le voisinage immédiat du quasar, produisait des étoiles à un rythme effréné. ” Ces observations nous ont offert un nouveau regard surprenant sur ce système. Alors qu’aucune trace d’étoiles n’apparaît autour du trou noir, sa galaxie voisine est très riche en lumineuses et très jeunes étoiles. Elle forme des étoiles à un taux équivalent à environ 350 soleils par an, cent fois plus que dans les galaxies typiques de l’Univers local. De précédentes observations avaient montré que cette galaxie se faisait en fait tirer dessus : le quasar est en train de déverser un jet de particules de très haute énergie sur la galaxie, accompagné par un flot de gaz très rapide. L’injection de matière et d’énergie dans la galaxie indique que le quasar lui-même doit provoquer la formation d’étoiles et ainsi créer sa propre galaxie hôte. Dans un tel scénario, les galaxies auraient évolué à partir de nuages de gaz frappés par les jets d’énergie émergeant des quasars. “Ces deux objets vont fatalement fusionner dans le futur : le quasar se déplace à une vitesse de seulement quelques dizaines de milliers de kilomètres par heure par rapport à la galaxie et ils sont éloignés d’à peine 22 000 années-lumière.” précise David Elbaz. “Bien que le quasar soit encore « nu », il finira par être « vêtu » quant il fusionnera avec sa galaxie riche en étoiles. Il résidera finalement à l’intérieur d’une galaxie comme tous les autres quasars. ” De ce fait, cette équipe a identifié les jets des trous noirs comme des moteurs possibles de la formation des galaxies et pourraient également être le lien longtemps recherché expliquant pourquoi la masse des trous noirs est plus importante dans les galaxies contenant plus d’étoiles.

source (document audio à entendre)

http://www.france-info.com/chroniques-du-cote-des-etoiles-2009-12-04-les-trous-noirs-createurs-de-galaxies-376825-29-33.html

à lire : "Aux confins de l'Univers" aux éditions Atlas.

Lire la suite

Nos océans seraient d'origine extraterrestre !

Contrairement aux idées reçues, l'atmosphère et les océans n'ont pu se former à partir des vapeurs émises lors d'un volcanisme intense à l'aube de notre planète. Pour Francis Albarède du Laboratoire des sciences de la Terre (CNRS / ENS Lyon / Université Claude Bernard), l'eau ne fait pas partie de l'inventaire initial de la Terre mais provient de l'agitation entretenue dans le Système Solaire externe par les planètes géantes.

Des astéroïdes couverts de glace sont ainsi parvenus sur Terre une centaine de millions d'années après la naissance des planètes. L'eau serait donc extraterrestre, tardive, et sa présence aurait facilité la tectonique des plaques avant même l'apparition de la vie. Les conclusions de l'étude menée par Francis Albarède font l'objet d'un article publié le 29 octobre dans la revue Nature.

Les agences spatiales l'ont bien compris, qui parle de vie parle d'eau. Il y a 4,5 milliards d'années, la Terre a reçu en héritage suffisamment d'eau pour que des océans se forment et que la vie trouve les niches favorables dans les mers et sur les continents nés de la tectonique des plaques. En regard, la Lune et Mercure sont des déserts secs et mortellement froids, Mars s'est asséchée très vite et la surface de Venus est un enfer brûlant.

D'après nos livres, l'océan et l'atmosphère se sont formés à partir des gaz volcaniques et l'intérieur de la Terre est la source des éléments volatils. Or, les roches du manteau sont pauvres en eau (les géochimistes évaluent sa concentration à deux centièmes de pourcent). Il en est de même sur les planètes sœurs de la Terre (Vénus et Mars). Principale raison avancée par Francis Albarède, lors de la formation du Système Solaire, la température ne serait jamais descendue suffisamment bas entre le Soleil et l'orbite de Jupiter pour que les éléments volatils puissent se condenser avec le matériau planétaire. L'arrivée de l'eau sur Terre correspondrait donc à un épisode tardif de l'accrétion planétaire.

Il est admis que les planètes terrestres se forment en quelques millions d'années par agglomération d'astéroïdes (de taille kilométrique) puis de proto-planètes (de la taille de Mars). L'arrivée du dernier de ces gros objets correspond à l'impact lunaire 30 millions d'années après la formation du Système Solaire. Dans un premier temps, ce remue-ménage se fait entre objets planétaires localisés en deçà de la ligne de neige, c'est-à-dire entre le Soleil et la ceinture des astéroïdes. Cet espace balayé par les vents électromagnétiques du jeune Soleil est alors trop chaud pour que l'eau et les éléments volatils s'y condensent.

La livraison majeure des éléments volatils sur notre planète correspondrait à un phénomène qui s'est déroulé quelques dizaines de millions d'années après l'impact lunaire : il s'agit du grand nettoyage du Système Solaire externe initiées par les planètes géantes. Du fait de leur très forte gravité, celles-ci envoient dans toutes les directions, y compris la nôtre, les derniers gravats planétaires couverts de glace. Pénétrant dans le manteau par la surface, l'eau aurait alors ramolli la Terre et réduit la tension à laquelle les matériaux se brisent. La tectonique des plaques débute alors, et avec elle, l'émergence des continents, conditions probablement nécessaires à l'apparition de la vie. Mars s'est asséchée avant que l'eau n'arrive à pénétrer en profondeur et, en ce qui concerne Vénus, personne ne sait quelles étaient les conditions avant le violent remodelage de sa surface, il y a 800 millions d'années, par un volcanisme intense.

À l'heure où l'on commence à explorer sérieusement l'habitabilité des planètes extra-terrestres, comprendre ce qui a fait de la Terre le seul havre qui abrite la vie est une question primordiale.

SOURCE : http://www.notre-planete.info/actualites/actu_2157_oceans_extraterrestre.php

Faire tomber la pluie artificiellement

 source : http://rki.kbs.co.kr/french/news/news_science_detail.htm?No=6953

Lorsque les cultures pâtissent de la sécheresse ou que les feux de forêt en montagne ne peuvent être éteints en raison des conditions météorologiques, le besoin de pluie se fait particulièrement ressentir. Ne serait-il pas merveilleux si, dans de telles circonstances, quelqu’un pouvait faire tomber la pluie ? C’est un rêve que les hommes ont nourri depuis la nuit des temps et cela fait environ 120 ans que les scientifiques s’efforcent de le réaliser. La Corée du Sud a dernièrement réussi ce pari, se joignant ainsi aux rangs des pays ayant réussi à déclencher de la pluie artificielle.

De la pluie artificielle tombe sur la Corée du Sud

Le 30 mars, à 11 heures précises, un petit avion décollait de l’aéroport de Cheongju, avec, à son bord, deux chercheurs de l’Institut sud-coréen de recherche météorologique. L’avion a volé pendant environ 1h 30 avant d’atteindre sa destination, à 10 km au sud-ouest du barrage Gwangdong de la ville de Taebaek, dans la province de Gangwon. Lorsque l’un des chercheurs, qui surveillait les données météorologiques, a crié : « Feu ! », des particules d’iodure d’argent ont jailli des deux ailes de l’avion. Vingt minutes après que l’avion a saupoudré la totalité des 600 grammes d’iodure d’argent dans l’air, au cours de quatre allers-retours de 3 km, parcourus sur un axe nord-ouest-sud-est, des gouttes de pluie ont commencé à tomber, comme par magie. C’était une pluie fine, équivalant à 0,5 millimètre. Un exploit historique pour la Corée du Sud qui réussissait ainsi, pour la première fois, à déclencher une pluie artificielle. Comment cet exploit a-t-il été possible ?

Le principe de base pour la création de la pluie artificielle est ce qu’on appelle « l’ensemencement » des nuages. Autrement dit, si l’on saupoudre les nuages d’un catalyseur tel que l’iodure d’argent, la neige carbonique ou l’azote liquéfié, les gouttelettes d’eau déjà présentes dans les nuages s’attachent à ces « graines de pluie » et se transforment en grosses gouttes de pluie. Or un élément est absolument indispensable pour obtenir une pluie artificielle : il faut des nuages qui contiennent déjà des gouttelettes d’eau ! Avec la technologie dont ils disposent à ce jour, les hommes ne sont pas encore en mesure de créer de la pluie artificielle quand il n’y a pas assez de nuages ou quand ils sont en présence de nuages chauds. Où en est la Corée du Sud avec sa technologie de production de pluie artificielle ?

Les efforts déployés par les hommes pour créer de la pluie artificielle remontent aux années 1890. A cette époque, des scientifiques américains ont eu recours à des canons et des explosifs pour mener à bien leurs expériences. C’est beaucoup plus tard que les efforts humains se sont avérés fructueux, avec la tentative réussie de Vincent J. Schaefer en 1946. Ce dernier avait observé qu’en mettant de la neige carbonique dans un réfrigérateur embué, on obtenait des petites particules de glace. Il s’est alors rendu au sommet d’une montagne du Berkshire au Massachusetts, a saupoudré les nuages de neige carbonique et le « miracle » s’est réalisé. Les nuages se sont très vite transformés en flocons de neige, qui sont tombés au sol. Depuis cet exploit historique, 43 pays ont réussi à produire de la pluie artificielle. Parmi eux, figure la Chine. Avec la mise à contribution de 35 000 hommes et de 34 avions, la Chine a réussi à faire tomber de la pluie avant les cérémonies d’ouverture et de clôture des Jeux olympiques de Pékin en 2008, s’assurant ainsi que le ciel soit dégagé pour ces grands événements. Comparée à la Chine, la Corée du Sud n’en est qu’à ses débuts. Elle a commencé ses premières recherches en 1995 et vient seulement de produire pour la première fois de la pluie artificielle. Elle a donc commencé tard par rapport aux autres pays. Toutefois, la Corée du Sud dispose d’un énorme potentiel, qui lui permettra peut-être de devenir un leader dans le domaine.

Le travail de tous

Il existe plusieurs façons d’ensemencer les nuages pour faire de la pluie artificielle : on peut saupoudrer les nuages d’un catalyseur à partir d’un avion, en utilisant les courants ascendants présents dans les montagnes, ou encore en chargeant le catalyseur sur une fusée lancée en direction des nuages. Or, aucune de ces méthodes n’est parfaite. La plus grande contrainte est qu’il faut un minimum de nuages et que la pluie ne peut tomber que dans une zone limitée. La Corée du Sud a dernièrement réussi à surmonter la difficulté liée aux limitations géographiques en réussissant à faire tomber de la pluie sur une plaine. Forte d’une flotte d’avions et d’infrastructures adaptées, la Corée du Sud a déjà réalisé des progrès considérables. A noter qu’on estime un millimètre de précipitation artificielle à 500 000 dollars, soit 360 000 euros. Il faudra donc suivre les progrès de la Corée du Sud de très près dans ce domaine.

plus d'infos :

http://www.souillat.com/files/Ceux_qui_chassent_les_nuages.pdf

http://fr.wikipedia.org/wiki/Ensemencement_des_nuages

http://www.afrik.com/article8167.html

les extrêmophiles se développent en conditions extrêmes inimaginables : 98°C sous mer à des pressions de 520 bars

Les limites de la vie sur Terre une nouvelle fois repoussées... dans l'eau !

Communiqué de presse

[28-04-2009]

Une nouvelle espèce d'archaébactérie , Pyrococcus CH1, vivant dans un milieu allant de 85 à 105°C et capable de se diviser jusqu'à une pression hydrostatique de 1200 bars (soit plus de 1000 fois supérieure à la pression atmosphérique), vient d'être découverte par les microbiologistes du Laboratoire de microbiologie des environnements extrêmes (UMR sous la tutelle du CNRS, de l'Ifremer et de l'Université de Bretagne Occidentale), en partenariat avec l'Institut d'Océanographie de Xiamen (Chine) et le Laboratoire des sciences de la Terre (UMR sous la tutelle du CNRS, de l'ENS Lyon et de l'Université de Lyon). Cette archaébactérie a été isolée à partir d'échantillons de la campagne Serpentine , au cours de laquelle une équipe franco-russe a exploré pendant six semaines la dorsale médio-Atlantique à la découverte de nouvelles sources hydrothermales.

Cheminée hydrothermale sur le site Ashadze
Cheminée hydrothermale sur le site Ashadze
© ©Ifremer/Campagne Serpentine/ Victor 6000

Les recherches menées sur les extrêmophiles, ces espèces qui ont la particularité de vivre dans des conditions extrêmes et mortelles pour la plupart des autres organismes, constituent autant de « mondes à découvrir », tous très prometteurs. En terme de biodiversité d'abord, ces formes de vie, a priori « inimaginables », montrent que l'inventaire de toutes les espèces vivant sur Terre n'est pas prêt d'être fini. Les micro-organismes extrêmophiles sont également une illustration des capacités étonnantes d'adaptation du vivant, ce qui renforce l'hypothèse de l'existence de formes de vie sur des planètes dont on pensait que les conditions environnementales ne le permettaient pas.

Les microorganismes piézophiles, également appelés barophiles (aimant la pression), constituent un des sous-ensembles des extrêmophiles. Découverte sur le site « Ashadze » situé à 4100 mètres de profondeur, la souche CH1 est le premier organisme hyperthermophile et piézophile obligatoire connu. Cette archaébacterie (voir encadré) vit entre 85 et 105°C, avec un optimum à 98°C. Mais, surtout, elle se divise entre 150 et 1200 bars de pression hydrostatique, 520 bars étant sa pression optimum.

Cette découverte repousse une nouvelle fois les limites physico-chimiques de la vie sur Terre et conforte l'idée de l'existence d'une biosphère hyper-thermophile dans les profondeurs de notre planète. L'étude de la biomasse souterraine (les micro-organismes découverts dans les sédiments des plaques océaniques au fond de la mer) semble très prometteuse : les sources hydrothermales océaniques profondes offrent en effet aux microorganismes des conditions extrêmes de température, de pression et de composition de fluides.

Du fait des conditions extrêmes de développement, il s'avère que leurs enzymes sont thermostables et aptes à fonctionner dans des réacteurs sous pression. Il est donc tentant de les utiliser dans des procédés industriels, où certaines étapes requièrent des températures et des pressions élevées, notamment pour l'obtention de produits à forte valeur ajoutée, issus aujourd'hui de la chimie fine.

Les archaébacteries constituent un des domaines du vivant (voir encadré note 2). Dirigée par Yves Fouquet, Responsable du programme pluridisciplinaire d'étude des milieux extrêmes dans les grands fonds océaniques (programme GEODE) et du laboratoire de Géochimie et Métallogénie d'Ifremer Brest, la campagne Serpentine a rassemblé géologues, géochimistes, biologistes et microbiologistes durant six semaines sur la dorsale Atlantique.

Note(s)

    « Achadze », le site hydrothermal le plus profond actuellement connu dans les océans (4100 mètres), a été exploré et échantillonné pour la première fois grâce au ROV Victor 6000, robot téléopéré depuis le Pourquoi pas ?, le navire océanographique de l'Ifremer, lors de la campagne Serpentine.

 

Note(s)
    Les 3 domaines du vivant Il est admis actuellement que les êtres vivants peuvent être classés en 3 domaines : 1. Les eubactéries constituent le premier domaine du vivant. Ce sont des procaryotes (absence de noyau) qui possèdent des propriétés communes, distinctes des archées, pour leurs membranes et leurs génomes. Certaines bactéries sont pathogènes. 2. Les archaébactéries constituent le second domaine du vivant. Ce sont aussi des procaryotes possédant des membranes cellulaires plus résistantes et des génomes apparentés. Ainsi le mécanisme de réplication de l'ADN des archées est-il plus proche de celui des eucaryotes que de celui des bactéries. Aucune archée n'a pour l'instant manifesté de pathogénicité pour l'Homme. 3. Les eucaryotes constituent un groupe d'organismes unicellulaires ou pluricellulaires définis par leur structure cellulaire plus « évoluée » que celle des procaryotes (les archéobactéries et les eubactéries). Les eucaryotes possèdent en particulier des organites divisant l'espace cellulaire en zone dont la fonction est définie, tel que le noyau. Les plantes, les animaux et l'homme sont tous des eucaryotes.
Source
L'article scientifique relatant cette découverte est publié dans la revue « The ISME Journal » (numéro de mai). Il est en ligne à l'adresse suivante :
http://www.nature.com/ismej/journal/vaop/ncurrent/full/ismej200921a.html

 

Contact(s)
Daniel Prieur, Laboratoire de microbiologie des environnements extrêmes (LM2E), daniel.prieur@univ-brest.fr

source : http://www.insu.cnrs.fr/a3011,limites-vie-terre-nouvelle-fois-repoussees-eau.html

Conférence du 14 septembre 2009 à l'université de Strasbourg

http://www.canalc2.fr/video.asp?idVideo=8895&voir=oui

De l'observation aux processus et aux modèles en sciences de la Terre : l''exemple des évolutions climatiques récentes

M. Vincent Courtillot

Conférence : Conférence : De l'observation aux processus et aux modèles en sciences de la Terre : l'exemple des évolutions climatiques récentes

Série : Autres conférences en 2009
Thème(s) : Sciences de la terre

Durée : 1h 39m 49s
Langue : Français (fr)

Production : Université de Strasbourg
Réalisation : Colloques et Conférences

Nous y apprendrons :

- Les graphiques des reconstructions de températures pour l'Europe et l'Amérique du Nord par l'équipe de l'IPG

- Les graphiques des variations de températures par le Met Office de 1850 à 2007

- Les courbes de densité des cernes d'arbres corrigeant celles de leur épaisseur par Grudd en 2008

- Les courbes des périoes de 100 000 ans dites périodes interglaciaires reconstruites à partir du CO2 analysé dans les prélèvements de carottes de glace de Vostok en Antarctique Petit et al 1999

- Les courbes dites du cycle de Milankovitch du nom de l'ingénieur astronome serbe qui les a reconstruites à partir des cycles astronomiques. Explication de l'importance des cycles des planètes géantes gazeuses Jupiter-Saturne-Uranus-Neptune et des précessions (cycles de 100 000, 41 000 et 23 000 ans)

- Images du site touristique et géoloqique de Punta di Maieta en Sicile. Explication des alternances des couleurs (rose, blanc, gris) correspondant aux 400 000 ans des cycles de Milankovitch. Les bords épais blancs correspondant au carbonate de calcium des cycles de 100 000 ans.

- Explication sur le réchauffement : la chaleur pilote le CO2. Une période de 800 à 1000 ans précède toujours une augmentation de la courbe de CO2 et non l'inverse.

- Courbes de 2006 par Mouet et al, Courtillot et al sur le champ magnétique qui leur a valu leur éviction de la reconnaissance par la sphére scientifique. Nous y apprendrons qu'en 1900 les océans étaient plus élevés de 20 cm.

- Courbe de l'oscillation Madden Julian du nom de celui qui a établi le lien entre l'oscillation solaire et celle du Pacifique Nord. Elle suit l'évoluton des températures. Descend de 1910 à 1950, monte de 1950 à 1970, descend de 1970 à 1980-1985 puis remonte. En fait la courbe reconstruite des températures globales montre une relative stabilité jusqu'en 1985 date à partir de laquelle elle grimpe en flèche selon l'analyse des scientifiques. Ceci correspond également à une anomalie dans la courbe de l'indice aa sur 100 ans d'observation.

-  Nous lirons la similitude dans les courbes de reconstructions des températures sur 300 ans des trois seules villes européennes en disposant : Prague, Bologne et Oeckel (celles de Bologne et Oeckel sont inverses)

- Nous apprendrons que les valeurs dont disposent les experts du GIEC sont erronées. Les valeurs des satellites ACRIM 1 et 2  sont des artefacts moyennés avec les valeurs d'un satellite inconnu. La valeur de 0.5 attribuée au Soleil est fausse. Scafetta et Wilson ont corrigé les valeurs :

 1W/m2 attribué au Soleil. 2W/m2 pour le CO2. 80 W/m2 pour les nuages (la variation des nuages serait de 3 % en 100 ans. Soit l'équivalent du CO2)

- Nous reprendrons l'étude de Svensmark en 2007 à partir des données de Viencario au Pérou. La triple influence des flux de rayons solaires, des particules galactiques et du champ magnétique terrestre est confirmée par les courbes.

- L'étude de Richard Lindzen du MIT  en 2009 ajuste la sensibilité du climat au CO2 non plus à 2 mais à 0,5° C. Ainsi le CO2 doit être divisé par 6 et le Soleil multiplié par 10.

Il est précisé lors des questions que depuis le météorologue Lorentz nous savons que les équations en matière cliamtique sont non linéaires et couplées aux sensibilités. Le GIEC se base sur des équations linéaires.

============================================================

Au sujet de l'oscillation Madden Julian : http://www.cgd.ucar.edu/cas/abstracts/files/Madden2000_1.html 

De Richard Lindzen : http://en.wikipedia.org/wiki/Richard_Lindzen ; ses publications : http://www-eaps.mit.edu/faculty/lindzen/PublicationsRSL.html

Influence des taches solaires sur la formation des nuages et des précipitations

Nous reproduisons la traduction d'un article paru sur le blog italien New Ace Age débuté en octobre 2008 :

http://daltonsminima.wordpress.com/2009/09/18/piccole-fluttuazioni-dellattivita-solare-causano-una-grande-influenza-sul-clima/

Le fréquence taches solaires a une influence plus forte que prévu sur la formation des nuages et des précipitations.

Notre soleil ne rayonne pas de façon uniforme. L'exemple le plus connu des fluctuations du rayonnement solaire est le fameux 11-cycle année des taches solaires. Personne ne conteste son influence sur la variabilité naturelle du climat, mais des modèles climatiques, première main, ne sont pas suffisants pour reconstruire son impact sur les activités du climat.

Mais certains chercheurs venus des États-Unis et l'Allemagne ont récemment, pour la première fois, simulé avec succès dans le détail, l'interaction complexe entre le rayonnement solaire, l'atmosphère et l'océan. Comme il rapporte la revue Science dans son dernier communiqué, Gerald Meehl l'US-National Center for Atmospheric Research (NCAR) et son équipe ont été en mesure de calculer les variations de la façon extrêmement faible du rayonnement solaire entraîne une modification relativement importante dans le «système atmosphère-océan".

Katja Matthes du GFZ (centre de recherche allemand pour les géosciences), co-auteur de l'étude, a déclaré: «Prenant en compte tout le spectre des rayonnements émis par le soleil, l'intensité du rayonnement dans un 11-year cycle solaire, varie seulement environ 0,1 pour cent. Toutefois, les mécanismes complexes liés entre eux dans la stratosphère et la troposphère, à créer des changements mesurables dans la température des eaux du Pacifique et les précipitations.

Au sein de ce régime, le lieu de nombreux facteurs petite alors s'entrelacent. Le produit du processus initial de haut en bas: l'accroissement du rayonnement solaire en fait conduit à une concentration plus élevée de l'ozone et des températures plus élevées dans la stratosphère.

«Le taux de rayonnements ultraviolets varie beaucoup plus fortement que d'autres parties du spectre à-dire de cinq à huit pour cent, qui forment l'ozone», explique Katja Matthes. En conséquence, il est avant tout celle de la stratosphère tropicale devient plus chaud, ce qui entraîne à son tour changer la circulation atmosphérique. Ainsi, le schéma typique des pluies tropicales peuvent varier. "

Le second processus (bottom-up) a lieu dans le sens inverse: l'activité solaire plus élevé mène à une évaporation accrue dans la zone libre de nuages. Les alizés effectuer de gros volumes de l'humidité vers l'équateur, où elle provoque de fortes pluies, les températures basses dans l'océan Pacifique et moins de la formation des nuages, ce qui est susceptible d'augmenter l'évaporation.

Katja Matthes poursuit: «Il est juste que le couplage positif qui renforce le processus." Ce lien entre le rayonnement du soleil et du climat, il est possible d'expliquer leurs mesures et observations sur la surface de la Terre.

Professeur Reinhard Huettl, Président du Conseil exécutif scientifique du GFZ, ajoute: «L'étude est importante pour comprendre la variabilité naturelle du climat, ce qui - à différentes époques - est nettement influencée par le soleil. Afin de mieux comprendre les émissions responsables du changement climatique et de rendre plus fiables les futurs scénarios climatiques, il est très important de comprendre la base de la variabilité naturelle du climat. Ce sondage démontre une fois de plus que nous avons encore à travailler dur pour comprendre le système climatique ».

Avec l'Alfred-Wegener Institute for Polar and Marine Research et l'Institut de recherche Senckenberg GFZ était en effet organisé une conférence intitulée «Le climat dans le système terrestre", previst0 pour 2 / 3 Novembre 2009 à Berlin.

Source: http://wattsupwiththat.com/2009/08/27/ncar-spots-the-transistor-effect-small-solar-activity-fluctuations-amplify-to-larger-climate-influences

Nous serons satisfaits de constater la similitude des conclusions de cette étude avec notre grahique sur la pluviométrie à Bordeaux. Nous proposions de le comparer avec les vents d'ouest en l'associant au graphique comparatif des cycles solaires/indice aa. Cette théorie est développée par Albert Nodon et l'assocition ARFA depuis 1950 à Bordeaux. Nous n'adoptons toutefois une méthode d'analyse différente tout en developpant le lien entre activité solaire et pluviométrie.

Ce même blog italien indique une autre étude qui établie le lien entre les minimums solaires et les anomalies océaniques

  http://translate.google.com/translate?hl=fr&sl=it&u=http://daltonsminima.wordpress.com/2009/04/23/correlazione-tra-minimo-solare-e-anomalie-oceaniche/&prev=/search%3Fq%3Ddaltonsminima.wordpress.com%26hl%3Dfr%26rlz%3D1G1GGLQ_FRFR268%26sa%3DG

Sonder le coeur de la Terre

Sciences 17/05/2003 à 23h02

DELBECQ Denis

«Une modeste proposition.» C'est ainsi que le géophysicien David Stevenson, du California Institute of Technology, a baptisé son projet fou : envoyer une sonde dans les entrailles de la Terre. Une mission qui permettrait l'inimaginable : obtenir des mesures directes de ce qui se passe sous nos pieds pour comprendre la formation et l'évolution de la planète.

«Alors que les sondes spatiales ont voyagé sur des milliards de kilomètres, les forages terrestres n'ont pas dépassé une dizaine de kilomètres», écrit le scientifique dans Nature (1). La raison ? Il faut beaucoup plus d'énergie pour parcourir la même distance, et la géophysique n'a jamais pu bénéficier des crédits de la recherche spatiale, dopée par la guerre froide. Mais il est temps de passer à l'action, affirme le chercheur. Délirant en apparence, son projet lui semble pourtant à la portée de la science moderne.

Pamplemousse. Pas question d'y envoyer des humains, prévient évidemment Stevenson, en clin d'oeil au Voyage au centre de la terre de Jules Verne. Il propose d'expédier une sphère grosse comme un pamplemousse, bourrée de capteurs et capable de résister aux températures et pressions infernales qui règnent à grande profondeur. Pas question non plus d'utiliser une technique de forage classique pour descendre de six mille kilomètres. Stevenson se propose de créer une faille profonde à l'aide d'une explosion nucléaire souterraine, l'équivalent d'un tremblement de terre de magnitude 7, telle qu'elles se sont longtemps pratiquées pour les essais d'armes atomiques. Dans cette faille serait injectée une goutte de fer en fusion. Goutte à l'échelle planétaire, mais lourde tout de même de cent mille à dix millions de tonnes, l'équivalent selon Stevenson, d'une heure à une semaine de la production mondiale d'acier... La sonde serait placée dans cette «mèche» liquide et suivrait son trajet d'environ une semaine dans les entrailles terrestres.

Le fer liquide fracturerait les roches environnantes, comme le fait le magma volcanique. Sa densité élevée lui permettrait de s'enfoncer à quelques mètres par seconde. Lors de la descente aux enfers, l'énergie de gravité transformée en chaleur entretiendrait la fusion. Pendant ce temps, la sonde fabriquée dans un matériau résistant à la chaleur et surtout aux pressions gigantesques renverrait les informations de ses capteurs (température, densité, champ magnétique, composition chimique) à la surface par ondes acoustiques interposées.

«C'est le vieux rêve de tout géologue, commente Claude Jaupart, le directeur de l'Institut de physique du globe de Paris. C'est déprimant de passer sa vie à étudier un phénomène qu'on ne voit pas.» Le géophysicien rappelle que la connaissance du noyau terrestre est encore très grossière et produit beaucoup d'incertitudes dans les résultats des modèles. Elle est pourtant indispensable pour mieux comprendre la formation de la planète, et son évolution. «La mesure de l'activité volcanique et tectonique permet d'obtenir des données jusqu'à 300 kilomètres. Nous avons quelques indications sur ce qu'il y a à une plus grande profondeur grâce aux météorites qui témoignent de la formation des planètes. Mais c'est peu de chose.» De fait, le noyau reste une véritable énigme : «C'est un peu une "poubelle" qui permet d'équilibrer les bilans. On lui donne les propriétés qui nous arrangent ; on y met du potassium, du calcium, du nickel, du carbone. Mais s'ils ne s'y trouvent pas dans les bonnes proportions, c'est que les modèles sont faux.» De la même manière, le champ magnétique terrestre «s'observe mais ne s'explique pas».

Faisabilité. Le projet insensé de Stevenson, qu'il qualifie lui-même de «provocateur» ne trouvera donc pas de détracteurs chez les géophysiciens, du moins sur le principe. Quant à la faisabilité c'est une autre paire de manches... A supposer d'ailleurs qu'il soit possible de fabriquer les instruments de mesure capables de résister. «Honnêtement, je n'en ai pas la moindre idée, reconnaît le chercheur américain. Il faudrait utiliser une électronique non conventionnelle, par exemple à partir de diamant. A ces niveaux de température et de pression, c'est un semi-conducteur.» Mais Stevenson insiste pour rappeler qu'«au début du projet Manhattan et de la conquête spatiale, c'était la même chose».

Claude Jaupart reste circonspect. «Ce type est sérieux, mais la logistique est lourde. Et cela paraît difficile de mettre assez d'énergie dans un pamplemousse»... qui, de l'aveu de Stevenson, pourrait atteindre «la taille d'un frigo». Le géophysicien admet que son projet «n'a pas une forte probabilité d'aboutir». Construire la sonde, trouver le moyen de lui fournir assez d'énergie et la méthode de transmission des données dans un milieu que presque rien ne traverse, rassembler l'acier et le fondre... «C'est la recherche préalable qui serait le plus cher, prévient Stevenson. Mais si cela coûte moins que les dix milliards d'euros de la conquête spatiale, cela vaut le coup, vu les retombées scientifiques.» «En tout cas, je n'aimerais pas qu'il tente le coup près de chez moi, rigole Claude Jaupart. Amasser autant de fer en un endroit risque de casser l'écorce terrestre.» «C'est bien ce que j'espère, lui répond Stevenson. Mais cela se ferait loin de toute population assure-t-il, la France n'est pas l'endroit idéal !»

(1) Edition du 15 mai. Une version plus complète est disponible sur

http://www.gps.caltech.edu/faculty/stevenson

Des apparences : une vidéo qui explique comment les électrons créent les illusions visibles

Une vidéo étonnante qui nous explique comment les particules peuvent créer l'hologramme ou les électrons créent l'illusion du monde visible.En anglais mais assez bien compréhensible.

==================================================================================================

Nouvelle réalisation par des chercheurs

Mémoire : un record de miniaturisation grâce à un hologramme quantique

Par Jean-Luc Goudet, Futura-Sciences le Le 30 janvier 2009 à 15h36

En manipulant un nuage d'électrons pour y créer un hologramme, une équipe de l'université Stanford est parvenue à inscrire deux lettres dans un volume plus petit qu'un atome. Un exploit de laboratoire qui ouvre de nouvelles perspectives à long terme.

La plus petite mémoire du monde occupe une surface à peu près carrée large de 0,3 nanomètre à la surface d'une pièce de cuivre. Et elle contient deux lettres... On peut y lire – avec des moyens sophistiqués – un S et un U, pour Stanford University. C'est en effet dans cette université californienne qu'une équipe de chercheurs (Christopher Moon, Laila Mattos, Brian Foster, Gabriel Zeltzer et Hari Manoharan) a réussi cet exploit, qui repose sur l'utilisation d'un microscope à effet tunnel. Cet instrument, constitué d'une pointe métallique extraordinairement fine que l'on déplace à très faible distance d'une surface peut aussi servir à mouvoir des atomes. En 1989, une équipe d'IBM avait ainsi inscrit les trois lettres de la compagnie en disposant 35 atomes de xénon sur une surface nickel. Chacune des lettres était quatre fois plus grosse que la mémoire de l'équipe de Stanford.

Les trois lettres I-B-M inscrites sur une surface de nickel et constituées d'atomes de xénon déplacés avec la pointe d'un microscope à effet tunnel. Ici, l'expérience présentée en avril 1990. © IBM
Les trois lettres I-B-M inscrites sur une surface de nickel et constituées d'atomes de xénon déplacés avec la pointe d'un microscope à effet tunnel. Ici, l'expérience présentée en avril 1990. © IBM

C'est donc à l'échelle subatomique que l'information a été inscrite. Pour y parvenir, les chercheurs ont dû manipuler les électrons eux-mêmes. Eux aussi ont utilisé un microscope à effet tunnel pour déplacer des molécules de monoxyde de carbone sur une surface de cuivre. Celles-ci, par leur seule présence, provoquent des ondes au sein du nuage électronique des atomes de cuivre. Analogues d'ondes de compression produites par une pierre bougeant dans l'eau, mais gouvernée par les lois de la mécanique quantique, elles génèrent des motifs dans ce nuage, qui peuvent être transformés en hologramme avec un peu de doigté.

20 bits par nanomètre carré

L'équipe de Stanford est parvenue de cette manière, en contrôlant précisément la position des molécules de monoxyde de carbone, à créer des motifs prévus à l'avance et donc à y stocker de l'information. Il s'agit d'un hologramme dans le sens où l'information est portée par un arrangement de structures matérielles. Mais il est ici bidimensionnel, à la surface du cuivre, contrairement à un hologramme classique à trois dimensions. Il ne se lit pas avec de la lumière mais à l'aide de tous les électrons de la surface de cuivre, au moyen, comme pour l'écriture, du microscope à effet tunnel.

De gauche à droite, Chris Moon, Hari Manoharan et Laila Mattos, trois des chercheurs qui ont participé au travail. © Stanford University

De gauche à droite, Chris Moon, Hari Manoharan et Laila Mattos, trois des chercheurs qui ont participé au travail. © Stanford University

Publiés dans Nature Nanotechnology, ces résultats vont donc bien plus loin que les records actuels. Beaucoup cherchent encore à réaliser des mémoires à un seul électron (SEM, pour single electron memory, en anglais). Fin 2008, un qubit (un bit d'ordinateur quantique) avait été enregistré dans le noyau d'un atome.

En enregistrant ces deux lettres, les chercheurs expliquent avoir atteint une capacité de stockage de 35 bits par électron, ou, dit autrement, une densité de 20 bits par nanomètre carré ! Bien sûr, il ne s'agit pour l'instant que d'un travail à l'échelle du laboratoire et on est loin, très loin, d'une application, qui, d'ailleurs, concernera peut-être surtout l'ordinateur quantique, toujours hypothétique.

le nuage électronique des atomes de cuivre (en jaune) est affecté par la présence de molécules de monoxyde de carbone (en noir). La conséquence est un motif stabl dans les états quantiques des électrons
Schéma de principe. Le nuage électronique des atomes de cuivre (en jaune) est affecté par la présence de molécules de monoxyde de carbone (en noir). La conséquence est un motif stable dans les états quantiques des électrons. Codée, l'information correspond à deux lettres, ici S et U, inscrites ensemble, comme si elles occupaient deux couches distinctes. © Stanford University

Le cycle Solaire est lié au climat mondial, il conduit les événements semblables à El Nino et La Nina

S'appuyant sur notre compréhension du cycle solaire, nous pouvons être en mesure de connecter ses influences avec les probabilités météorologiques d'une manière qui peut alimenter les prévisions à plus long terme.

Fourni par NCAR, Boulder, CO

En établir un lien entre le cycle solaire et le climat mondial, de nouvelles recherches menées par le Centre National pour les Recherches Atmospheriques (NCAR) à Boulder dans le Colorado, montre que le maximum d'activité solaire et ses conséquences ont des impacts sur Terre qui ressemble aux événements La Nina et El Nino dans l'océan Pacifique tropical. La recherche peut ouvrir la voie à de meilleures prévisions de la température et des précipitations à certains moments du cycle du Soleil, qui dure environ 11 ans.

L'énergie totale du Soleil atteignant la Terre ne varie que de 0,1 pour cent pendant le cycle solaire. Les scientifiques ont cherché pendant des décennies pour relier ces hauts et des bas aux conditions météorologiques et variations climatiques et distinguer leurs effets subtils du plus large modèle du réchauffement climatique causé par l'homme. Les scientifiques ont cherché pendant des décennies pour relier ces hauts et des bas aux conditions météorologiques et variations climatiques et distinguer leurs effets subtils du plus large modèle du réchauffement climatique causé par l'homme.

Changements dans les gaz à effet de serre ont également été inclus dans le modèle, mais l'objectif principal de l'étude est d'examiner le rôle de la variabilité solaire sur le changement climatique.

"Nous avons cerné les effets d'un nouveau mécanisme visant à comprendre ce qui se passe dans le Pacifique tropical, quand il y a un maximum d'activité solaire," a déclaré Gerald Meehl, scientifique du NCAR. "Lors des pics du Soleil, il y a une vaste portée et souvent des impacts subtils sur les précipitations tropicales et sur les systèmes météorologiques dans une grande partie du monde." L'étude, avec les collègues les plus proches de Meehl, montre que quand le Soleil atteint le maximum d'activité, il chauffe suffisamment les paties de nuages de l'océan Pacifique pour augmenter l'évaporation, intensifier les pluies tropicales et les alizés, et refroidir l'est du Pacifique tropical.

Encore une fois, la réponse de l'océan est seulement à peu près la moitié aussi fort qu'avec El Nino. Il est vrai les événements La Nina et El Nino sont associés aux changements de températures des eaux de surface de la partie orientale de l'océan Pacifique. Ils peuvent avoir une incidence sur les conditions météorologiques dans le monde entier.

L'étude n'a pas analysé les impacts de la météo des événements du conducteur solaire. Mais Meehl et Julie Arblaster, du NCAR et du Bureau australien de météorologie, ont constaté que le conducteur solaire tend vers La Nina pour causer des conditions relativement chaudes et sèches sur les régions de l'ouest de l'Amérique du Nord. Plus de recherches seront nécessaires pour déterminer l'impact additionnel de ces événements sur la météo à travers le monde.

"En construisant notre compréhension du cycle solaire, nous pouvons être capable de connecter ses influences avec les probabilités météorologiques d'une manière qui peut alimenter les prévisions à plus long terme, une dizaine d'années à la fois", a déclaré Meehl. Les scientifiques savent depuis des années que les variations solaire à long terme ont une incidence sur certains modèles climatiques, y compris les sécheresses et les températures régionales. Mais l'établissement d'une connexion physique entre le cycle solaire décennal et les modèles du climat mondial a indubitable évasive. Une raison est que c'est seulement dans les récentes années que les modèles informatisés ont été capables de simuler les processus sous-jacents du réchauffement du Pacifique tropical et le refroidissement associés à El Nino et La Nina. Avec ces modèles maintenant en main, les scientifiques peuvent reproduire le comportement solaire du siècle dernier et voir comment il influe sur le Pacifique.

Pour dégager ces connections parfois subtiles entre le Soleil et la Terre, Meehl et ses collègues ont analysé les températures de surface de la mer de 1890 à 2006. Ils ont ensuite utilisé deux modèles informatique basé au NCAR pour simuler la réponse des océans aux changements solaires.

Ils ont constaté que, quand la production du Soleil atteint un sommet, la petite quantité de soleil supplémentaire au cours de plusieurs années entraîne une légère augmentation de la chaleur atmosphérique locale, en particulier dans certaines parties de la zone tropicale et subtropicale du Pacifique où les nuages de blocage solaire sont généralement rares. Cette petite quantité de chaleur supplémentaire entraîne plus d'évaporation, produisant de la vapeur d'eau supplémentaire. À son tour, le taux d'humidité est transporté par les alizés de aux régions normalement pluvieuses de l'ouest du Pacifique tropical, alimentant des pluies plus abondantes.

Comme cette boucle climatique s'intensifie, les alizés se renforcent. Ce qui maintient l'est du Pacifique plus frais et plus sec que d'habitude, produisant les conditions comme La Nina. Comme ce modèle du Pacifique est produit avec le maximum solaire, les scientifiques ont constaté que son passage à un état El Nino est probablement déclenché par le même type de processus qui normalement conduit de La Nina à El Nino. La transition commence au moment où des changements dans la force des alizés produit les pulsions lentes équatoriale appelées ondes de Rossby dans la couche supérieure de l'océan, qui prennent environ une année pour voyager en retour d'ouest à travers le Pacifique.

L'énergie alors reflète des bords ouest du Pacifique tropical et ricoche vers de l'ouest le long de l'équateur, en approfondissant la couche supérieure de l'eau et réchauffant la surface de l'océan. En conséquence, le Pacifique connaît un phénomènes de type El Niño deux ans environ après un maximum solaire. La manifestation s'installe après environ un an, et le système retourne à un état neutre.

"El Nino et La Nina semblent avoir leurs propres mécanismes distincts", a déclaré Meehl, "mais le maximum d'activité solaire peuvent venir et incliner les probabilités vers une faiblesse de La Nina. Si le système se dirigeait vers la Nina de toute façon", dit-il ", il serait probablement plus important."

traduction avec google de cette page http://www.astronomy.com/asy/default.aspx?c=a&id=8466

Voir cette étude qui annonce le retour d'el Nino pour le mois de décembre prochain. Le texte confirme ce qui se produit en ce moment.

http://translate.google.com/translate?hl=fr&u=http://www.iceagenow.com/El_Ni%25C3%25B1o_is_back-Global_Ocean_Surface_Temperature_Warmest_on_Record_for_June.htm&rurl=translate.google.com

La céramique : une membrane textile révolutionnaire ?

La céramique : une membrane textile révolutionnaire ?

En utilisant des fibres de céramiques qui agissent comme des éponges en absorbant et en restituant des rayonnements infrarouges lointains, les fabricants de vêtements sportifs préparent de nouvelle gamme de protection contre le froid.
Texte : Paul Molga
Photo : Société Vertical les fabriquants de vêtements sportifs préparent une nouvelle gamme de protection contre le froid

On connaissait jusqu’alors les agréables propriétés enveloppantes des rayonnements infrarouges utilisés sur les radiateurs haut de gamme. Voilà maintenant que ces ondes de lumière invisibles débarquent dans la conception de vêtements aux caractéristiques surprenantes : réchauffement corporel, mais aussi fluidification de la circulation sanguine, réduction de l’acide lactique responsable de l’engorgement des cellules après un effort sportif, ou encore diminution des spasmes musculaires.
« Les textiles infrarouges génèrent un processus complexe qui réserve sans doute d’autres surprises », est persuadé le professeur Bernard Durand, responsable de l’équipe Génie Biomécanique à l’Université de Mulhouse. Avec le concours d’Oseo, il teste en ce moment l’efficacité de ces textiles révolutionnaires sur la stabilité posturale des personnes âgées. Et les résultats sont surprenants : ainsi revêtus, les cobayes chutent considérablement moins que d’autres qui en sont dépourvus. L’effet de la veste seule, des textiles infrarouges ou des deux ? « L’équilibre dépend de toute une batterie de capteurs qui recueillent et transmettent les informations de l’environnement au cerveau, explique le chercheur. La responsabilité des infrarouges n’est pas prouvée, mais on peut être certains d’effets induits liés à la température et à la sensation sur la peau ».

Les infrarouges sont des rayons électromagnétiques situés à gauche de l’arc-en-ciel, dans des longueurs d’ondes de 0,76 à 1000 microns. À l’extrémité du spectre, les infrarouges lointains sont ceux des trois bandes (après les courts et les moyens) qui émettent le plus d’énergie. Le principe sur le corps humain est connu : au contact de l’organisme, les ondes entrent en résonance avec les molécules d’eau qui s’agitent. Leur frottement échauffe les cellules qui transmettent à leur tour une chaleur qualifiée par les experts de « douce et uniforme » à tout le corps.

Alchimie polymère

Pour domestiquer ces propriétés dans un vêtement, le chimiste et géologue Jacques Casper a eu l’idée d’utiliser de fines particules de céramiques connues pour leur capacité à refléter les rayonnements infrarouges. Le process mis au point est exploité par le fabriquant vosgien de textile technique HT Concept. Il mélange une trentaine d’oxydes à 1200°C, tels que le zircon, le titane et la tourmaline. « Cette matrice polymère est ensuite additionnée à une bouillie polyuréthane dans des proportions qui donnent des qualités révolutionnaires à nos membranes », explique Thierry Heim, président de l’entreprise.
Mis au point il y a deux ans, ces tissus ont trouvé leur première application auprès du fabricant de vêtements sportifs Vertical, réputé pour ses tests de matière grandeur nature. Deux vestes de sa dernière collection hiver en sont équipées pour les alpinistes et les amateurs de cascades de glace. « Nos ventes sont encore confidentielles, détaille le président de l’entreprise Frédéric Beal. Mais nous perpétuons ainsi notre tradition de défricheur ». Dès l’an prochain, sa collection infrarouge comprendra ainsi une veste grand public.
Le patron n’aura pas longtemps à attendre la concurrence : à Taiwan, un autre industriel à eu la même idée que HT Concept en utilisant une fibre polyester comme support d’un mélange céramique pour obtenir un fil synthétique qui peut être tissé avec d’autres fibres (coton, élasthanne, nylon…). La société Akeo (120 employés, 45 millions d’euros de chiffre d’affaires) est la première utilisatrice en France. « Nous avons élaboré une centaine de références bien-être qui vont du bonnet à l’anorak coupe-vent, explique son président André-Pierre Alexandre. Cette innovation promet un renouveau aux membranes de protection contre le froid », pronostique-t-il. Commercialisée confidentiellement cet hiver sous la marque Form’Vital par un mode de ventes relationnelles, sa gamme auraient déjà généré plus de 1 million d’euros de ventes. De quoi donner des idées aux géants de la confection. Il se murmure dans le milieu que Lafuma s’apprêterait à utiliser lui aussi ces textiles révolutionnaires.

http://www.freepresse.com/La-ceramique-une-membrane-textile.html?univers=outdoor

 


Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site