News

Les inventions suivies par le laboratoire Leclerc

le site internet du Laboratoire Lecler http://www.laboratoirelecler.org/

les inventions suivies :

l'hydrogène non stockée

le générateur électrique de Tesla

Russie : Une "patrouille spatiale" pour protéger les gazoducs du Soleil

Une corrosion extérieure sous contrainte anormalement élevée, appelée "stress corrosion", est à l'origine de 40% des incidents sur les gazoducs russes. La vitesse de la corrosion des tubes est d'ordinaire de 0,25 mm par an, mais l'on enregistre parfois des chiffres pouvant aller jusqu'à 1,16 mm. Cette corrosion a pour conséquence que 5 à 10 ans après avoir été mises en service, les conduites commencent à être victimes d'incidents, alors même que leur durée d'exploitation normale est prévue pour 25 à 30 ans. La Russie, relève le ministère russe des Situations d'urgence, connaît en moyenne deux fois plus d'incidents liés à la corrosion que les pays d'Europe occidentale.

Des spécialistes de l'Institut d'optique d'Etat Vavilov ont présenté des données attestant que les grosses conduites et les gros réseaux électriques sont victimes du "temps spatial", autrement dit des puissantes tempêtes géomagnétiques et éruptions solaires. On sait que ces phénomènes peuvent provoquer des courants géomagnétiques induits dans les conduites qui sont installées à des latitudes moyennes ou élevées (supérieures à 50° de latitude Nord), autrement dit sur une grande partie du territoire de la Russie, du Canada et de l'Alaska.

Les chercheurs ont attiré l'attention sur le fait qu'en période d'activité solaire, il est fréquent que les stations de protection cathodique, par lesquelles sont alimentés les gros gazoducs, se débranchent ou soient mises hors d'usage. Se retrouvant, de fait, sans protection électrochimique, les tubes sont alors soumis à une corrosion accélérée. Conformément à la réglementation technique, le débranchement de la protection cathodique des gros gazoducs n'est pas autorisé plus de dix jours par an. Or, notre planète essuie annuellement entre une cinquantaine et une centaine de puissantes tempêtes géomagnétiques - jusqu'à une fois, voire deux fois par semaine !

Afin de prévenir la brusque augmentation de la vitesse de la corrosion des gros tubes, les spécialistes de l'Institut Vavilov ont proposé de créer un service de surveillance spatiale. Dans l'esprit de ses concepteurs, ce service spatial doit annoncer les possibles incidences des flux géomagnétiques induits sur les conduites et déterminer les "fenêtres de tranquillité", durant lesquelles il sera possible de débrancher les stations de protection cathodique (pour les tester et les réparer). Il sera possible de réaliser ces prévisions en se fondant sur les mesures de l'activité héliophysique à l'aide de l'appareillage optoélectronique "patrouille spatiale solaire", élaboré par l'Institut Vavilov, qui inclut des radiomètres et spectromètres de rayonnements ionisants.

Le système de patrouille solaire que la Russie souhaite développer pour observer l'activité du Soleil doit être composé non pas de satellites distincts fonctionnant individuellement, mais d'un groupement de satellites fonctionnant en permanence, estime Anatoli Chpilov, directeur adjoint de Roscosmos (Agence spatiale russe).

Le projet de "patrouille solaire" implique la mise en orbite de trois petits satellites situés les uns par rapport aux autres à un intervalle de 120°. "Peu importe que ces satellites soient petits, qu'ils n'embarquent qu'un seul appareil et soient mis en orbite en tant que charges associées, l'important est qu'ils fonctionnent sans à-coups", a souligné Anatoli Chpilov.

source : http://www.bulletins-electroniques.com/actualites/64199.htm

Les tsunamis menacent-ils nos côtes ?

D'après un recensement effectué par le Bureau des recherches géologiques et minières (BRGM), pas moins de 34 tsunamis se sont produits le long des côtes métropolitaines depuis le XVIIIe siècle dont 22 en Méditerranée, 4 en Atlantique et 8 en Manche.

On en dénombre 28 en France d'outre-mer. C'est le recensement le plus complet à ce jour et il est dans le dernier numéro de la revue Natural Hazards and Earth System Sciences. Ce catalogue qui va continuer à s'étoffer au cours des prochaines années est d'ores et déjà disponible sur internet via ce site.

Le site où sont présentés les tsunamis est accompagné des documents ayant permis de repérer les grosses vagues qui ont léché nos côtes. Il s'agit le plus souvent d'articles de journaux ou de témoignages qui régaleront les amoureux d'histoire locale. C'est donc un outil pour attirer l'attention du public sur le risque de tsunamis qui peuvent toucher les côtes françaises.

Sa constitution a notamment permis aux chercheurs de découvrir des tsunamis inconnus le long des côtes méditerranéennes entre Marseille et Perpignan. Les premières recherches n'ont commencé sur le territoire français qu'après le tsunami de Sumatra en décembre 2004.

Le tsunami meurtrier du Japon, le 11 mars dernier, va les relancer encore.

Un projet de recherche baptisé Maremoti est en cours concernant cette problématique. L'Autorité de sûreté nucléaire (ASN) a, en effet, décidé de réévaluer les risques d'inondations auxquelles pourraient être soumises les cinq centrales EDF situées sur les côtes: Blayais (Gironde), Flamanville (Manche), Paluel et Penly (Seine-Maritime), Gravelines (Nord).

Le terme «tsunami» n'a été adopté par les scientifiques européens qu'en 1960, après le séisme de magnitude 9,5 au Chili qui fit plus de 5000 victimes. A l'époque on ne parlait que "raz-de-marée», il a donc fallu faire le tri dans les archives entre tsunamis et faux tsunamis (tempêtes, ouragans...).

La France métropolitaine n'a pas de volcan actif, ni de grandes failles sismiques actives sous-marines suceptibles de générer des séisme de très forte magnitude et par là-même des tsunamis majeurs. Nos rivages sont en effet beaucoup plus exposés à des événements météorologiques extrêmes. Les côtes bretonnes n'ont même pas été touchées par le tsunami provoqué par le séisme de Lisbonne en 1755. Pourtant, le sud de l'Angleterre et l'Écosse ont enregistré une montée du niveau de la mer. Mais la réalité de ce risque est assez complexe. Ainsi, plusieurs (petites) vagues ont été enregistrées entre 1725 et 1850 dans le port de Cherbourg, dont l'origine reste encore inexpliquée.

À défaut de séismes, la France peut être exposée à des effondrements de falaises ou, pire, de fonds sous-marins comme celui de Storegga qui, il y a huit mille ans, a vu disparaître en mer près de 300 km de côtes norvégiennes. Il est donc fort probabble que nos côtes soient toujours exposées à ce type de phénomènes.

Mais la question sous-jacente nous ramène à une problématique récurrente en matière de gestion des risques naturels : doit-on et peut-on s'en prémunir alors ce phénomènes se produisent tous les cinq mille ans. Les recherches se poursuivent. Récemment, un chercheur de l'École normale supérieure a découvert un mystérieux tsunami qui, le 6 avril 1580, a submergé une partie des côtes de la Manche. Cet événement ne figure pas encore dans le catalogue.

Source : BRGM, Le Monde d'après http://www.catnat.net/gestion-des-risques/gestion-risque-france/connaissances-des-risques/12158-un-catalogue-des-tsunamis-historiques-en-france

A lire en complément

http://www.lepost.fr/article/2010/11/11/2301497_la-plage-du-soleil-sinistree-a-cannes.html

http://www.laterredufutur.com/html/phpBB3/viewtopic.php?f=52&t=570&p=13019#p13019

A sa création l'univers n'était que plasma, liquide.

D'après les travaux menés au LHC (grand collisionneur de hadrons), l'Univers, à ses premiers instants, était composé d'une espèce de plasma de quarks et de gluons.     

L'univers à sa création aurait été liquide

Après trois semaines d'expériences à peine, les chercheurs du CERN (l’Organisation européenne de recherche nucléaire) ont pu découvrir comment se serait comportée la matière aux tous premiers instant de l'Univers. "C’est impressionnant de voir à quelle vitesse les expériences sont arrivées à ces résultats, qui portent sur la physique très complexe", indique Sergio Bertolucci, directeur de recherche. 

Un des objectifs de ces expériences est de découvrir et de recréer la matière telle qu'elle aurait existé dans les instants qui suivirent le Big Bang. A la naissance de l'Univers, la matière qui nous entoure n'existait pas, les particules se déplaçaient librement dans une espèce de plasma de quarks et de gluons.  
Grâce au collisionneur, le LHC, les faisceaux d'ions lourds peuvent concentrer une énergie si dense que d'infinitésimales gouttelettes de matière primordiale sont produites. Trois expériences distinctes se déroulent actuellement pour tenter d'observer et de comprendre ce plasma.

Premières constatations de ces différentes expérimentations : le plasma produit par le LHC se comporte de façon tout-à-fait inattendue, comme un fluide parfait. En clair, à un moment de son existence, pendant un millionième de seconde après le Big Bang, l'Univers aurait pu n'être qu'un liquide.

Source : maxiscience.com

Les résultats du LHC obligent les scientifiques à résoudre une enigme suggérant l'existence d'une nouvelle "force"

Fermilab : d'étonnants résultats suggèrent l'existence d'une nouvelle "force"

le grand collisionneur de hadrons

Une équipe internationale de chercheurs travaillant sur l'accélérateur de particules du Fermilab à Chicago doit révéler la possible existence d'une nouvelle "force". Si celle-ci s'avère confirmée, elle représentera une avancée exceptionnelle dans le domaine de la physique des particules.

Jusqu'à présent les physiciens caractérisaient l'ensemble des interactions de la matière par quatre types de forces : la gravité, l'électromagnétisme et les forces nucléaires forte et faible. Ce concept pourrait être révisé suite à l'hypothèse avancée par une équipe de chercheurs du Fermilab. Selon eux, il existerait une nouvelle "force" dans la nature. Giovanni Punzi, physicien et porte-parole de l'équipe à la base des travaux a été interrogé par l'AFP. Selon lui, cette nouvelle hypothèse pourrait correspondre à "la première manifestation de quelque chose qui est tout un monde d'interactions au-delà de toute la science physique telle que nous la connaissons, quelque chose que l'on recherche depuis longtemps".

Depuis plus d'un an, l'équipe de chercheurs mène une série d'expériences dans l'accélérateur de particules. Ils ont réalisé tout juste 10.000 collisions entre des protons et des antiprotons. Sur l'ensemble des résultats obtenus, les chercheurs ont remarqué une étrangeté pour une centaine de cas. Les chiffres ne sont pas en accord avec les théories des forces qui régissent la physique des particules. Selon Giovanni Punzi il est possible que ces observations ne soient que de simples fluctuations ou irrégularités, explicables par la physique conventionnelle mais cette possibilité est très improbable, "avec moins de deux chances sur mille".

L’hypothèse du boson de Higgs a été écartée

Jusqu'à présent, personne n'a su expliquer d'où venait cette irrégularité. Les chercheurs ont pourtant écarté la possibilité que ce phénomène soit une manifestation du boson de Higgs, particule hypothétique jusque là jamais observée. L'hypothèse d'une nouvelle "force" a donc été avancée. En attendant qu'elle se confirme, les chercheurs continuent leurs études pour obtenir des résultats plus probants. "Nous allons maintenant essayer d'obtenir autant de données que possible pour confirmer ces résultats", explique le physicien avant d'ajouter : "Si cela se confirme, ce serait la découverte la plus importante en physique depuis un demi-siècle".

La découverte n'a toutefois pas provoqué l'engouement de toute la communauté scientifique. Nigel Lockyer, directeur du laboratoire national canadien de physique nucléaire et des particules, estime qu'il est encore trop tôt pour confirmer avec certitude la découverte des chercheurs du Fermilab. Il souligne : "D'une part, il y a des indications claires que nous sommes face à quelque chose d'inexpliqué et en même temps il existe une longue liste d'autres explications possibles".

Pour l'heure, les travaux des chercheurs du Fermilab ont été publiés dans la revue américaine Physical Review Letters et ont fait l'objet d'une récente présentation au laboratoire.

source :

 http://www.maxisciences.com/lhc/fermilab-d-039-etonnants-resultats-suggerent-l-039-existence-d-039-une-nouvelle-force_art13774.html

http://fr.sott.net/articles/show/3198-Frequence-des-seismes-depuis-1966-en-une-image

 

Découverte d'un trou noir géant

L’astre pèserait plus de cinq masses solaires et serait en train d’absorber la substance de son étoile compagnon.

Ce trou noir de 5 fois la masse du Soleil est en train de phagocyter so étoile compagnon. Jesús Corral Santana (IAC)

 

Ce trou noir de 5 fois la masse du Soleil est en train de phagocyter so étoile compagnon. Jesús Corral Santana (IAC)

Situé dans le système binaire-X XTE J1859 226, dans la constellation Petit Renard, ce trou noir de 5,4 fois la masse du Soleil aspire la matière de son étoile compagnon comme en témoigne la présence d’un disque en spirale de matière se formant par un processus connu sous le nom d’accrétion. Seuls 20 systèmes binaires, sur une population estimée à environ 5.000 au sein de notre Galaxie, sont connus pour posséder un trou noir.

Les systèmes binaires-X sont composés d’un objet compact (qui peut être une étoile à neutrons ou un trou noir) et d’une étoile «normale». Les étoiles à neutrons ainsi que les trous noirs représentent les traces vestiges d’une étoile massive après sa mort. La plupart des étoiles à neutrons connues ont une masse d'environ 1,4 fois celle du Soleil, bien que dans certains cas des valeurs peuvent atteindre plus de deux fois la masse du Soleil.

Les astronomes pensent que lorsqu’une étoile à neutrons dépasse 3masses solaires, elle devient instable et finit par s’effondrer pour trouver un trou noir. « Avec ce résultat, nous ajoutons une nouvelle pièce à l'étude de la distribution de masse des trous noirs. La forme de cette distribution a des conséquences très importantes pour notre connaissance de la mort des étoiles massives, la formation dee trous noirs, et l'évolution des systèmes binaires-X » explique Jésus Corral-Santana, de l'Institut d'Astrophysique des Canaries.

Ce trou noir a pu être repéré lorsque le système est entré en « éruption » en 1999, depuis les astronomes n’ont jamais cessé de l’observer : à l’aide du télescope Isaac Newton (INT) et du télescope William Herschel (WHT) en l'an 2000, du Nordic Optical Telescope (PAS) en 2008 et finalement avec le Gran Canarias Télescope (GTC), situé à l’Observatoire de la Roque de los Muchachos (à La Palma, Iles Canaries), le plus grand télescope optique à infrarouge du monde équipé d’un miroir de 10,4 mètres.

Les données recueillies par ce télescope et associées aux autres résultats ont permis d’évaluer la période orbitale du système (6,6 heures) ainsi que la vitesse du mouvement orbital de l’étoile compagnon autour du trou noir. La combinaison de ces deux paramètres a permis d’estimer la masse de ce trou noir. Le détail des calculs et des observations est publié dans la revue de la Royal Astronomical Society.

http://www.dailymotion.com/video/k256XA0seTepZT21v9K#from=embed

J.I Sciences et Avenir

Le 25 mars 2011 

Le jour d’après c’était il y a plus de 10 000 ans !

De nouvelles analyses de carottes de glace du Groenland révèlent que la dernière transition climatique, il y a 11 700 ans, a été particulièrement brutale.

Ce n’est pas le scénario du Jour d’après, au lieu d’un brusque refroidissement c’est plutôt la fin d’une période glaciaire, mais les évènements semblent s’être déroulés aussi rapidement que dans le film catastrophe de Roland Emmerich.
 
C’est en tout cas ce que révèle l’analyse de carottes de glace provenant du forage de NorthGRIP (North Greenland ice core project) sur lesquelles sont gravés 125 000 ans d’histoire climatique. Pour chaque couche de glace annuelle, trois paramètres sont pris en compte : la quantité de poussières (plus il fait froid plus il y en a), l’oxygène (plus la quantité d’isotope O18 est élevée plus le climat local est chaud) et l’hydrogène (un excès de deutérium témoigne d’une température chaude de l’océan).

Les résultats, pour la période correspondant à la dernière transition climatique, révèlent que « l’excès en deutérium de la glace bascule d’un niveau glaciaire à un niveau interglaciaire quasiment d’une année à l’autre » explique Valérie Masson-Delmotte du Laboratoire des sciences du climat et de l’environnement. En clair le basculement entre la dernière période glaciaire et la période chaude actuelle a eu lieu en l’espace d’une année !
 
Ce changement, brutal, a été précédé d’une diminution de la quantité de poussières, d’un facteur 10, en quelques décennies. La preuve que le premier signe de bascule du climat se trouve loin du Groenland, dans les déserts d’Asie, sources de ses poussières. Selon les chercheurs, ce sont des modifications radicales de la circulation atmosphérique qui sont responsables de cette transformation climatique. Ces nouvelles données vont permettre d’affiner les modélisations mathématiques utilisées pour prévoir l’évolution future du climat.
 
 
J.I.
Sciences et Avenir.com
24/06/2008

 

La découverte par des chercheurs géologues canadiens de concentrations élevées de CO2 aux dorsales océaniques confirme la nature explosive de certaine

La découverte par des chercheurs géologues canadiens de concentrations élevées de CO2 aux dorsales océaniques confirme la nature explosive de certaines éruptions volcaniques.

Entre 75 et 80 pour cent de l'activité volcanique terrestre a lieu sous la mer, aux dorsales océaniques. La plupart de ces volcans produisent des coulées de lave effusive plutôt que des éruptions explosives, à la fois en raison des niveaux de gaz magmatiques (qui alimentent les explosions et sont constitués d'une variété de composantes, y compris de la plus importante, le dioxyde de carbone) qui tendent à être peu élevés, et parce que l'eau qui submerge les volcans leur fait subir une forte pression.

Toutefois, au cours des quelque dix dernières années, en raison de la présence de cendre volcanique à certains endroits, des géologues ont émis l'hypothèse que les volcans sous-marins puissent produire des éruptions explosives. Ce qui n'avait néanmoins pas été prouvé à ce jour.

À l'aide d'une microsonde ionique, Christoph Helo, doctorant du Département des sciences de la terre et des planètes de l'Université McGill de Montréal, a découvert de très fortes concentrations de dioxyde de carbone dans des gouttelettes de magma emprisonnées dans des cristaux recouverts de dépôts de cendre volcanique émises par le volcan Axial, sur la dorsale Juan de Fuca, au large des côtes de l'Oregon.

Ces gouttelettes emprisonnées représentent l'état du magma, avant l'éruption. Ainsi, monsieur Helo et des collègues chercheurs de l'Université McGill, de l'Institut de recherche de l'aquarium de la baie de Monterey et de l'Institut océanographique de Woods Hole sont parvenus à prouver que les volcans sous-marins peuvent produire des éruptions explosives. Leurs travaux indiquent également que la libération de dioxyde de carbone dans l'atmosphère terrestre provenant du manteau inférieur est beaucoup plus importante qu'on ne l'avait d'abord cru, à tout le moins dans certaines parties des dorsales océaniques.

Étant donné que ces dorsales constituent le système volcanique terrestre le plus vaste, cette découverte a des retombées importantes sur le cycle mondial du carbone qui reste à étudier.

Source : Techno-sciences
 

Une feuille artificielle qui peut chauffer une maison

Même si ce n'est qu'un début, ou si l'article manque de précisions, ce n'est pas inintéressant. Lu sur slate.fr

Des chercheurs du Massachusetts Institute of Technology (MIT) ont développé une feuille artificielle qui produit de l’énergie dix fois plus vite que la photosynthèse naturelle, et qui pourrait créer assez d’énergie pour chauffer une maison pendant un jour.

Un scientifique nommé John Turner avait déjà créé la première feuille artificielle il y a plus d’une décennie, mais celle des chercheurs du MIT est plus petite, plus puissante et moins chère que celle de Turner.

Le professeur Daniel Norcera a récemment présenté son modèle lors du meeting annuel de l’American Chemical Society en Californie. Il s’agit d’un appareil solaire sophistiqué de la taille d’une carte à jouer que l’on laisse flotter dans un récipient d’eau. Un peu à la manière de la photosynthèse réalisée par une feuille naturelle, la feuille utilise la lumière du soleil pour séparer les deux composants essentiels de l’eau, l’oxygène et l’hydrogène, qui sont ensuite utilisés pour produire de l’électricité.

La conception de ce nouveau prototype, qui contient également de la silicone du silicium et des circuits électroniques, a été possible grâce à la découverte de nouveaux catalyseurs puissants et bon marché en nickel et en cobalt. La feuille a fonctionné pendant au moins 45 heures d’affilée sans s’arrêter au cours des tests préliminaires. Norcera estime qu’avec quatre litres d’eau, une feuille pourrait produire assez d’électricité pour une maison dans un pays en développement pendant un jour. Il n’en fallait pas plus pour que certains tabloïds britanniques s’extasient: «Des scientifiques prétendent avoir trouvé le “Saint Graal” de la science avec une feuille artificielle qui pourrait transformer chaque maison britannique en sa propre centrale», écrit le Daily Mail.

L'invention peut sembler trop belle pour être vraie, mais elle est bien réelle et est déjà en passe d’être commercialisée. Wired.co.uk rapporte que le géant indien Tata Group a déjà passé un accord avec le chercheur du MIT pour construire une centrale électrique de la taille d’un réfrigérateur au cours des prochains 18 mois. Pour le moment, Nocera vise principalement les pays en développement:

«Notre but est de faire de chaque maison sa propre centrale électrique. On peut imaginer des villages en Inde et en Afrique dans un futur proche achetant des systèmes de production d’électricité basiques et abordables à partir de cette technologie.»

Photo: Jatropha hybrid - Leaf detail (129 DAS)/tonrulkens via Flickr CC License by

Du chlorure de talc naturel pour stocker l'énergie - Russie

L'électricité est conservée d'ordinaire sous forme d'énergie chimique. C'est le cas, par exemple, des piles que l'on utilise dans les lampes de poche ou les téléphones portables, ou bien encore des batteries de voitures. On utilise également dans la vie quotidienne des accumulateurs de chaleur : l'énergie peut être, ainsi, conservée dans des thermos, des bouillottes ou de gros poêles de campagne. Il serait très commode et très avantageux de pouvoir stocker de l'électricité dans des accumulateurs de chaleur de ce type. Des chercheurs de l'Université d'Etat de Petrozavodsk, en coopération avec une compagnie énergétique privée, s'emploient à concrétiser cette idée.

Comme matériau accumulateur de chaleur, ils utilisent du chlorure de talc naturel, dont on trouve des gisements en Carélie et en Finlande. Ce minéral est également appelé pierre ollaire ("pierre de vase") ou stéatite. Il possède une capacité de stockage thermique élevée (2,5 fois supérieure à celle des briques servant pour les poêles). Autrefois, le chlorure de talc, une pierre facilement taillable, servait à réaliser non seulement des poêles pour se chauffer, mais aussi des vases et même des poêles à frire. Le chlorure de talc s'est formé par carbonisation (absorption du gaz carbonique) à partir de roches volcaniques, ce qui lui confère ces qualités tout à fait inhabituelles.

Les chercheurs de Petrozavodsk tentent actuellement d'associer des accumulateurs de chaleur au chlorure de talc à des éoliennes. L'énergie du vent n'est en effet pas utilisée de manière optimale, car il ne souffle pas en permanence. Lorsque l'éolienne tourne à grande vitesse, mais que la consommation est faible, il faut envoyer l'énergie produite dans une résistance ballast, ce qui fait que de l'énergie thermique se dissipe inutilement dans l'atmosphère. Si cette énergie pouvait être dirigée vers du chlorure de talc, le rendement des éoliennes pourrait augmenter de 40%.

Un problème analogue se pose avec les centrales nucléaires. La nuit, la consommation industrielle et domestique d'électricité baisse. Or, il n'est pas facile de diminuer la production des centrales nucléaires. Une des solutions consiste à construire des sortes d'anti-centrales hydrauliques - la nuit, à l'aide de pompes alimentées par le courant de la centrale, on fait remonter de l'eau dans un réservoir situé plus haut afin que le jour, l'eau, en tombant, puisse fournir de l'énergie hydraulique. Mais de tels réservoirs occupent une énorme superficie, alors que les accumulateurs thermiques sont des plus compacts.

Les travaux des chercheurs de Carélie sont soutenus par l'Agence russe de l'énergie nucléaire, Rosatom, ce qui en dit long sur les perspectives qui s'ouvrent devant eux. L'énergie de demain pourrait fort bien être partiellement stockée dans des "réservoirs" de chlorure de talc.

Source : http://www.bulletins-electroniques.com/actualites/060/60194.htm

 


Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×