Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Didier Ritter

Chargé d'affaires, Chargé de clientèles

Didier Ritter
56 ans
Permis de conduire
MONTBLANC (34290) France
Situation professionnelle
En poste
Indisponible
Présentation
Mes années d'expérience de travail ont confirmées ma passion pour le commerce, le «B to B» et le «B to C».
Mon charisme et ma personnalité sont mes moteurs pour investir mes clients et appliquer une dynamique commerciale sur mon secteur, leurs apportant ainsi l'aide et l’information nécessaires pour mettre en œuvre leurs projets.

Egalement disponible sur le plan personnel car me connaissant, vous savez que je ne refuse jamais d’aider mes amis.

Besoin d’un conseil ou d’un coup de main, contactez-moi.

Rejoignez mes réseaux en cliquant sur les liens ci-dessous

Enjoy
CV réalisé sur DoYouBuzz
Google reconnaît que l'Internet mondial est attaqué par des requins
17 août 2014
L'Internet est une série de tubes... qui sont parfois attaqués par des requins.
Les requins mordent les câbles transportant nos données à travers le monde depuis au moins 1987. Cette année-là, le New York Times écrivait que «des requins ont démontré un goût inexplicable pour les nouveaux câbles à fibre optique que l'on installe au fond de l'océan et qui relient les Etats-Unis, l'Europe et le Japon.»
Aujourd'hui, Google a décidé de mordre à son tour. Selon Brandon Butler de Network World, un chef de produit de Google a expliqué au cours d'un récent évènement que l'entreprise s'est décidée à enrober ses câbles sous-marins trans-Pacifique dans du Kevlar pour lesprotéger contre les morsures de requin.
Google m'a confirmé que sa nouvelle génération de câbles sous-marins sont entourés d'un fil protecteur et d'un câble en acier, et que le but est de les protéger contre les incisions, y-compris celles provenant de possibles attaques de requins. Si vous vous demandez à quoi ça ressemble, voilà une vieille vidéo:

Que Google investisse dans de meilleures manières de protéger ses câbles de données transocéaniques est tout à fait logique. Il y a eu plusieurs exemples par le passé de lignes sous-marines endommagées qui ont perturbé le service Internet de manière importante.
Une infrastructure du réseau sur laquelle on peut compter est devenu de plus en plus essentiel pour les affaires de Google, dont le modèle dépend de la transmission ultrarapide d'information entre ses centres de données autour de la planète.
Lundi 11 août, le ponte de l'infrastructure de Google Urs Holzle a annoncé que l'entreprise participe à la construction d'un nouveau système de câbles trans-Pacifique reliant les Etats-Unis au Japon à des vitesses pouvant atteindre 60 Tbps. «C'est 10 millions de fois plus rapide que votre câble de modem» a souligné Holzle. Les partenaires de Google sur le projet incluent China Mobile et SingTel.
Pourquoi les requins s'en prennent-ils aux câbles de données sous-marins? Difficile à dire. Plusieurs médias ont souligné le fait que les requins perçoivent les champs électromagnétiques, et pourraient donc être attirés par le courant.
Un expert en requins de Californie a proposé une autre hypothèses à Wired: ils sont peut-être tout simplement curieux. Toute personne ayant une double expertise en comportement chondrichtyen et en ingénierie électrique est chaudement invitée à offrir une explication plus convaincante dans les commentaires. Google reconnait
Quoiqu'il en soit, il est clair que leurs puissantes morsures peuvent créer des problèmes. On peut lire dans un rapport du programme environnemental des Nations unies de 2009repéré par Popular Science:
«Les poissons, y-compris les requins, mordent depuis longtemps les câbles, comme le montrent les dents incrustées dans les revêtements. Les barracudas, les requins et d'autres espèces ont été à l'origine de pannes de câbles. Les morsures ont tendance à pénétrer l'isolation des câbles, ce qui permet au conducteur de courant d'entrer en contact avec l'eau de mer.»
Oubliez Google contre Apple, Google contre Amazon et Google contre Facebook. Ma nouvelle rivalité technologique préférée est Google contre les requins. 

http://www.slate.fr/story/91049/google-internet-requins-cables-sous-marins
Planck montre un nouveau visage de l'univers
22 mars 2013

Un univers plus âgé avec davantage de matière noire et moins d’énergie noire : voilà une partie des nouveaux résultats découverts grâce à Planck. Il apparaît aussi que certains aspects de notre univers sont presque parfaitement conformes aux prédictions du modèle cosmologique standard complété par la théorie de l’inflation. Mais de curieuses anomalies pourraient pointer vers une nouvelle physique...
Comme Futura-Sciences l’annonçait hier, une conférence de presse s’est tenue ce matin à Paris au quartier général de l’Esa. Elle portait sur les premiers résultats du satellite Planck en ce qui concerne leurs implications pour la cosmologie, déduites de l’étude du rayonnement fossile. Le directeur général de l’Esa, Jean-Jacques Dordain, après avoir salué la performance technologique représentée par le succès de la mission Planck, a laissé le cosmologiste George Efstathiou s’exprimer.
Le chercheur a exposé le contenu scientifique des découvertes en cosmologie déjà faites avec Planck, alors que toutes les données collectées par le satellite n’ont pas encore été complètement analysées.

Un voyage de quelques minutes pour comprendre pourquoi et comment observer les premiers jours de l'univers. © Planck HFI, YouTube
Un univers plus vieux et moins riche en énergie noire
Directeur du Kavli Institute for Cosmology à Cambridge (Royaume-Uni), George Efstathiou avait déjà considéré avec des collègues un modèle cosmologique avec des proportions de matière noire et d’énergie noire au début des années 1990. Elles étaient très similaires à celles que l’on a mesurées depuis la découverte de l’expansion accélérée de l’univers observable en 1998, des années plus tard.
Les nouveaux résultats à propos de ces proportions ne sont pas très différents de ceux déjà obtenus avec WMap et d’autres instruments d’observation, comme le révèle le chercheur avec une nouvelle carte des fluctuations de température du rayonnement fossile. Mais on constate que la matière noire est un peu plus abondante qu’on le pensait, avec une contribution de 26,8 % à la densité du cosmos. L’énergie noire, toujours dominante, ne représente plus maintenant que 68,3 % de cette densité.
En revanche, l’univers observable est un peu plus vieux qu’on le pensait. Son âge estimé est maintenant d’environ 13,82 milliards d’années. C’est une bonne nouvelle, étant donné la détermination de l’âge probable de certainesétoiles comme HD 140283.
Voici la nouvelle carte des fluctuations de température du rayonnement fossile sur l'ensemble de la voûte céleste. Le pôle nord céleste est en haut et le pôle sud en bas. Elle a été réalisée par la collaboration Planck à partir des données recueillies par les instruments HFI et LFI du satellite. L’écart par rapport à la température moyenne de -270,425 °C, mesurée par le satellite Cobe en 1992, va de -486 (en bleu foncé) à +538 millionièmes de degré Celsius (en rouge).
Voici la nouvelle carte des fluctuations de température du rayonnement fossilesur l'ensemble de la voûte céleste. Le pôle nord céleste est en haut et le pôle sud en bas. Elle a été réalisée par la collaboration Planck à partir des données recueillies par les instruments HFI et LFI du satellite. L’écart par rapport à la température moyenne de -270,425 °C, mesurée par le satellite Cobe en 1992, va de -486 (en bleu foncé) à +538 millionièmes de degré Celsius (en rouge). © Esa, collaboration Planck
Des observations presque conformes à la théorie de l'inflation
Le saut de résolution de la photographie de la plus vieille lumière du cosmos et la mesure précise des infimes fluctuations de températures qu’elle exhibe sur la voûte céleste ont aussi permis aux cosmologistes de dresser une nouvelle courbe de puissance pour le rayonnement fossile. Montrant en quelque sorte l'importance des fluctuations de température en fonction de la résolution en échelle angulaire, cette courbe est une carte d’identité de l’univers.
On peut la comparer à celles déduites de divers modèles cosmologiques construits avec des variantes de la théorie de l’inflation. Il apparaît maintenant qu’aux courtes et très courtes échelles angulaires, l’accord est presque parfait avec ce que prédit le modèle cosmologique de concordance standard, complété par la théorie de l’inflation dans ses formulations les plus simples.
Du coup, on pourrait croire que la théorie de l’inflation s’en trouve démontrée, ou pour le moins très renforcée. Mais George Efstathiou incite à la prudence. Au niveau des fluctuations aux grandes échelles angulaires, des anomalies très curieuses apparaissent dans la courbe de puissance du rayonnement fossile. Elles ne semblent pas pouvoir être expliquées simplement par la théorie de l’inflation. Il pourrait s’agir de manifestations d’une nouvelle physique, voire de traces laissées par un « pré-Big Bang » dans le cadre, par exemple, des théories du multivers.
Une représentation de la fameuse courbe du spectre de puissance angulaire du rayonnement fossile, déduite du modèle cosmologique standard complété par la théorie de l'inflation. C'est en quelque sorte une courbe de puissance moyenne du rayonnement (en ordonnée) donnant l'importance des fluctuations de températures en fonction de la résolution en échelle angulaire (en abscisse). La taille et la position des oscillations dépendent du contenu, de l'âge, de la taille de l'univers, et de bien d'autres paramètres cosmologiques encore. Les points et les barres rouges représentent les mesures de Planck avec des barres d'erreur. L'accord avec les prédictions aux petites échelles angulaires est spectaculaire.
Une représentation de la fameuse courbe du spectre de puissance angulaire du rayonnement fossile, déduite du modèle cosmologique standard complété par la théorie de l'inflation. C'est en quelque sorte une courbe de puissance moyenne du rayonnement (en ordonnée) donnant l'importance des fluctuations de températures en fonction de la résolution en échelle angulaire (en abscisse). La taille et la position des oscillations dépendent du contenu, de l'âge, de la taille de l'univers, et de bien d'autres paramètres cosmologiques encore. Les points et les barres rouges représentent les mesures de Planck avec des barres d'erreur. L'accord avec les prédictions aux petites échelles angulaires est spectaculaire. © Esa
Bientôt une preuve de la théorie de l'inflation ?
Il existe un test très convaincant, pour autant qu’on le sache, de la théorie de l’inflation. Il s’agirait de la détection des modes B. Il s’agit des traces d’infimes fluctuations quantiques primordiales des ondes gravitationnelles, au tout début de l’histoire du cosmos observable, qui pourraient avoir été considérablement agrandies pendant la phase d’inflation.
Or, comme le signale Jean-Loup Puget, l’un des principaux responsables de la collaboration Planck, les informations concernant ces modes B n’ont pas encore pu être proprement exploitées. Des analyses sont en cours, et si ces modes sont présents avec un signal suffisamment clair dans les données de Planck, on devrait le savoir probablement d’ici la fin de l’année.
Toutes les données collectées par Planck n’ont pas encore été examinées. Qui plus est, comme pour WMap, leur exploitation pourrait bien durer une décennie, et probablement plus. Nous ne sommes donc qu’au début des révélations qu’apportera Planck sur l’histoire et la structure de notre univers. Futura-Science examinera de plus près le contenu des informations déjà disponibles avec les données de Planck dans un prochain article, avec notamment des commentaires d'Aurélien Barrau et Jean-Pierre Luminet. En attendant, vous pouvez aller sur la page Facebook du site français de lamission Planck, ainsi que sur ce site lui-même, pour en apprendre plus sur l’univers à l'ère de Planck.

Juste après le Big Bang, entre une période s'étendant de 10<sup>-43</sup> à 10<sup>-35</sup> seconde après un hypothétique « temps zéro » de l'univers observable, on a de bonnes raisons de penser que l'expansion de l'univers a subi une très forte accélération transitoire. Cette brève période de temps s'appelle l'inflation, et elle serait une conséquence d'une nouvelle physique, comme celle de la gravitation quantique ou des théories de grande unification (GUT). Très fortement dilaté, l'univers observable aurait continué son expansion, mais en gardant dans le rayonnement fossile la mémoire de cette phase d'inflation. © Rhys Taylor, <em>Cardiff University</em>
Juste après le Big Bang, entre une période s'étendant de 10-43 à 10-35seconde après un hypothétique « temps zéro » de l'univers observable, on a de bonnes raisons de penser que l'expansion de l'univers a subi une très forte accélération transitoire. Cette brève période de temps s'appelle l'inflation, et elle serait une conséquence d'une nouvelle physique, comme celle de la gravitation quantique ou des théories de grande unification (GUT). Très fortement dilaté, l'univers observable aurait continué son expansion, mais en gardant dans le rayonnement fossile la mémoire de cette phase d'inflation. © Rhys Taylor, Cardiff University

Le moteur ionique, la clé des voyages spatiaux du futur
21 févr. 2013

Pour les longs trajets dans le Système solaire, ou plus loin encore, lemoteur ionique, peu puissant mais extraordinairement économe, semble idéal. C’est ce qu’explique très simplement John Brophy, de la Nasa, pour l’émission Voyage dans l’espace-temps, sur DiscoveryScience, jeudi à 21 h 00. Testez-en un avant-goût.
Pour s’arracher à la gravité terrestre, les énormes moteurs des lanceursactuels sont ce que l’on sait faire de mieux aujourd’hui. Mais ils sont vraiment très gourmands. Ainsi, une Ariane 5 embarque dans sa partie inférieure environ 620 t de carburant (140 t d’ergols liquides – hydrogène et oxygène – et 480 t de propergol solide, la « poudre »).
En moins de neuf minutes, tout est consumé. L’étage supérieur ne se trouve alors qu’à 172 km d’altitude, avec une vitesse d’à peine 7 km/s. Il doit allumer un nouveau moteur, qui puisera dans un réservoir d’environ 10 t, pour atteindre, en peu de minutes, la trajectoire voulue à la vitesse requise.
Voyage dans l'espace-temps : c'est le titre de cette série, diffusée tous les jeudis soirs sur la chaîne Discovery Science. Ici, John Brophy, spécialiste des « propulsions exotiques » à la Nasa, nous explique le principe du moteur ionique, ballons à l'appui. Qui nous permettra peut-être un jour de nous rendre jusqu'àProxima du Centaure (ou Proxima Centauri), l'étoile voisine du Soleil. ©Discovery Science
Accélérer peu mais longtemps : c'est le moteur ionique
Dans l’espace, ces puissants moteurs sont terriblement inadaptés. Une fois la vitesse de libération atteinte (11 km/s pour un vaisseau quittant la Terre) et sans frottement atmosphérique, une minuscule poussée suffit pour produire une accélération et, une fois acquise, la vitesse ne change plus. Ces moteurs à ergols consomment alors beaucoup trop, imposant d’énormes réservoirs.
En 1911, le grand pionnier russe de l’astronautique Constantin Tsiolkovski avait découvert que l’on peut obtenir une excellente poussée avec une faible masse éjectée si sa vitesse est suffisamment élevée. Des particules électriquement chargées, ou des ions (des atomes ayant perdu ou gagné un ou plusieurs électrons) font l’affaire, puisqu’on peut les accélérer fortement dans un champ électromagnétique. Le Russe, ainsi que les pionniers Hermann Oberth (Allemagne) et Robert Goddard (États-Unis), n’imaginaient sans doute pas que des panneaux solaires pourraient fournir l’énergie pour créer ce champ.
Dawn et son moteur ionique en direction de Cérès
Des générations d’ingénieurs se sont acharnées sur ce « moteur ionique » dont la poussée, au sol, serait insuffisante pour propulser un vélo, mais qui peut fonctionner des jours, voire des mois, et même des années. La vitesse finale peut donc être très élevée. La sonde Dawn de la Nasa a mis quatre ans à atteindre 11,6 km/s, mais elle n’a consommé que 430 kg de carburant (du xénon). Après avoir visité Vesta en juillet 2011, l’engin, lancé en 2007, a changé sa trajectoire et vogue aujourd’hui vers la planète naine Cérès. La petite Smart-1, de l’Esa, a mis plus de 13 mois à se mettre en orbite lunaire, mais avec l’énergie de ses panneaux solaires et en consommant 60 L de xénon. Et l’histoire du moteur ionique comporte déjà une saga spatiale, celle de la sonde japonaise Hayabusa. Lancé en 2003, le petit vaisseau a visité l’astéroïde Itokawa en 2005, puis a subi une kyrielle d’ennuis, retardant son retour de trois ans. Mais elle est arrivée au bout.
Sortons nos calculettes et partons de l’accélération de Smart-1 : 0,2 mm/s/s. À chaque heure qui passe, la petite sonde voyait sa vitesse augmenter de 2,6 km/h. Si le moteur pousse pendant un an, quelle vitesse atteindra-t-elle en un an, en dix ans ? Bon voyage…

Souce : Rédaction de Futura-Sciences

Pourquoi les hommes aiment-ils tant les seins ?
07 oct. 2012

Il existe plusieurs théories expliquant l’attirance des hommes pour les seins des femmes. La dernière en date, proposée par le psychologue Larry Young, défend l’idée qu’elle viendrait d’un circuit de neurones particulier servant à favoriser l’attachement d’une mère pour son petit pendant l’allaitement, mais aussi à son partenaire qui stimule la poitrine durant les rapports sexuels. En caressant les seins, les hommes pousseraient les femmes à les aimer davantage…
C’est de notoriété publique : les hommes aiment les seins des femmes. Mais pourquoi ? Tout le monde n’est pas d’accord sur ce point. Certains pensent par exemple qu’une femme à forte poitrine est perçue comme fertile et capable de nourrir convenablement son bébé. Mais Larry Young, psychologue à l’Emory University et Brian Alexander, journaliste et écrivain, ne sont pas de cet avis. Ils défendent leur point de vue dans un livre intituléThe chemistry between us et expliquent que tout serait régi par un réseau de neurones qui s’établit chez la femme pour faciliter l’attachement à son petit durant l’allaitement. Il serait aussi emprunté quand, dans un rapport sexuel un homme caresse la poitrine de sa partenaire, ce qui la pousserait à focaliser son attention et son amour sur son amant…
L’attirance pour les seins, une histoire de… cerveaux
Larry Young a pour spécialité l’étude des bases neurologiques des comportements sociaux complexes. Il explique qu’au moment de l’allaitement, lorsque le bébé suce le mamelon de sa mère, celle-ci voit son cerveauinondé d’une hormone appelée ocytocine, célèbre car fortement associée à l’amour et à l’attachement. Ainsi, la femme accorde toute son affection à son petit.
La poitrine joue aussi un rôle important lors des rapports sexuels et participe activement à l’excitation. Il a été montré que des caresses sur cette région activent les mêmes régions du cerveau que la stimulation du vagin ou duclitoris. Et comme pour les nourrissons qui se restaurent, les gestes délicats d’un amant induisent un relargage massif d’ocytocine. La cible de l’attention féminine, dans ce cas, n’est autre que son partenaire.

Du point de vue du succès reproducteur, il est donc intéressant pour un homme d’aimer les seins des femmes afin qu’elles lui prêtent davantage d’affection et d’amour, conditions requises pour former un couple durable. Young y voit les traces de la sélection naturelle, les mâles montrant de l’appétence pour les poitrines ayant pu se reproduire davantage que les autres. De ce fait, l’attirance des hommes pour les seins serait devenue une norme et le psychologue décrit même la présence d’un réseau neuronalspécifique qui se développerait chez les mâles hétérosexuels au moment de la puberté.
Aimer les seins, le propre de l'homme ?
Mais pourquoi l’Homme serait-il la seule exception du monde animal ? Les auteurs du livre apportent leurs explications. D’une part, chez lesmammifères, 97 % des espèces ne sont pas monogames*, ce qui élimine déjà bon nombre d’espèces. Ensuite, la différence viendrait de notre particularité à faire l’amour en face à face, ce qui ne se retrouve pas chez les autres mammifères monogames. Le campagnol, par exemple, monte sur le dos de sa femelle, dont les mamelles sont dirigées vers le bas. Aucune possibilité de les atteindre pendant le rapport sexuel, donc le comportement n’a pas été sélectionné par l’évolution.
La théorie est séduisante, mais ne fait pas l’unanimité. Car l’Homme est un être de nature, mais aussi de culture. Ainsi, l’anthropologue Fran Mascia-Lees, de la Rutgers University (New-Brunswick, États-Unis) ne peut être en total accord avec les thèses de Young et Alexander. En effet, elle signale que tous les hommes ne sont pas attirés par les seins. Elle évoque par exemple ces tribus africaines dans lesquelles les femmes se baladent torse nu sans susciter un intérêt particulier de la part des membres masculins de la troupe. Le débat pourrait donc être un peu plus complexe et ne se limiterait peut-être pas à de simples réseaux de neurones…
* L’espèce humaine ne peut être considérée comme monogame stricte. Mis à part les questions d’infidélité, selon les périodes ou les régions du monde, la polygamie a existé et existe encore. Il n’y a qu’à penser aux harems des Ottomans ou aux mariages multiples des hommes de confession mormone. De même, l’Homme ne pratique pas uniquement le sexe en face à face et a développé de nombreuses pratiques et fantaisies dans un but de plaisir, car chez lui (comme chez d’autres), la sexualité n’est pas qu’une affaire de reproduction.

Laisser bébé pleurer (un peu) n’est pas mauvais pour sa santé
17 sept. 2012

Il y a les pour et il y a les contre. Faut-il laisser le bébé pleurer un peu durant la nuit ? Une nouvelle étude vient de renvoyer les deux parties dos à dos : dans un cas ou dans l'autre, les enfants se portent aussi bien…
  • Un dossier pour tout savoir sur les bébés 
Lorsque le bébé se réveille en pleine nuit et se met à pleurer, que faut-il faire ? Se précipiter pour le rassurer ou le laisser s’exprimer un peu avant de venir le retrouver ? Les pédiatres ne se sont toujours pas mis d’accord sur cette question.
Les uns pensent que délaisser l’enfant conduit d’une part à affaiblir l’attachement qu’il a pour sa mère et à faire baisser l’estime de soi. De plus, une étude publiée en décembre dernier montrait que le stress engendré durant les premiers temps de la vie pouvait avoir de sévères répercussions sur le développement neurologique du bébé, et lui causer des traumatismesdurables.
Les autres en revanche considèrent que laisser pleurer le nourrisson est une expérience formatrice (si on ne le laisse pas trop longtemps), qu’il n’en souffre pas et qu’en plus, l’anxiété maternelle finit par diminuer. Pour apporter des réponses à ce débat, des scientifiques du Royal Children’s Hospital de Victoria (Australie) ont suivi des enfants pendant plus de cinq ans pour voir si ceux qu’on avait laissé pleurer se portaient plus mal que les autres. Apparemment non, d'après les résultats publiés dans la revuePediatrics.
Bébés pleureurs ou non, tous se portent aussi bien
En tout, 326 familles ont été recrutées. Chacune était libre d’élever son bébé selon les différentes méthodes. Une partie d’entre elles ont opté pour la technique du pédiatre Richard Ferber, dite des pleurs contrôlés, qui invite les parents à habituer le bébé à se plaindre un peu plus longtemps nuit après nuit avant l'intervention des parents. D’autres ont pratiqué la méthode du camping out, à savoir venir dans la chambre du nourrisson quand il est en pleine crise de larmes mais simplement se placer à côté de lui, sans le prendre dans ses bras. Un troisième lot regroupait les enfants « contrôle », ceux qui étaient aussitôt rassurés par leurs parents.
Dors bébé, dors. Au moins la question de savoir si tes parents doivent te laisser pleurer ou non ne se pose pas...
Dors bébé, dors. Au moins la question de savoir si tes parents doivent te laisser pleurer ou non ne se pose pas... © Ambrozinio, StockFreeImages.com
Régulièrement, des mesures pour évaluer le développement affectif, la santé mentale ou la capacité à gérer le stress ont été entreprises depuis l’âge de 7 mois jusqu’à leurs 6 ans. Et l'analyse est formelle : à aucun moment ces bambins n’ont présenté de différences avec leurs homologues. Pas de trouble du comportement, des émotions, des relations sociales ou dusommeil. Pas de problème d’attachement avec les parents ou avec les personnes extérieures, pas plus de conflits dans la famille. Les parents ne sont pas affectés non plus par les techniques d’apprentissage du sommeil : pas de problème de dépression, d’anxiété ni d’autorité.
Pas de consigne pour les parents
Les auteurs sont allés encore plus loin : ils ont mesuré les taux de cortisol, l’hormone du stress. À ce niveau non plus, aucune différence...
Les méthodes classiques conseillées par les pédiatres semblent donc toutes sans danger pour l’enfant. Ainsi, les chercheurs invitent les parents à opter pour la technique qui leur convient, sans se préoccuper de la santé de leur enfant puisque celle-ci ne sera pas affectée.
En revanche, il est important de ne pas commencer trop tôt. Avant l’âge de 6 ou 7 mois, les spécialistes conseillent de se lever systématiquement et de prendre le bébé dans les bras à chaque crise de larmes. Après, il devient possible de le laisser pleurer un peu. Mais pas toute la nuit !
La solution miracle pour empêcher les bébés de pleurer n'existe pas et les parents devront toujours se lever pendant la nuit pour rassurer leur enfant. Mais à quelle vitesse accourir dans la chambre ? À chacun de l'estimer... © Chalky Lives, Fotopédia, cc by sa 2.0
La solution miracle pour empêcher les bébés de pleurer n'existe pas et les parents devront toujours se lever pendant la nuit pour rassurer leur enfant. Mais à quelle vitesse accourir dans la chambre ? À chacun de l'estimer... © Chalky Lives, Fotopédia, cc by sa 2.0
Manger 5 fruits et légumes par jour… pour mieux grossir
26 juil. 2012

Et si suivre les recommandations en matière de santé pouvait faire grossir ? Le slogan accompagnant les publicités pour des aliments gras nous incitant à consommer 5 fruits et légumes par jour pourrait avoir l’effet inverse recherché. Il nous donnerait l'envie de nous faire plaisir...
  • À lire, notre dossier complet sur l'obésité 
Face à l’épidémie d’obésité et de surpoids qui se répand dans le monde, les autorités sanitaires ont décidé d’agir et de prévenir. C’est pourquoi, depuis 2009 en France, les publicités pour des aliments trop gras, trop salés ou trop sucrés sont accompagnées d’un slogan de l’Institut national deprévention et d’éducation pour la santé (INPES) incitant à manger 5 fruits et légumes par jour pour une bonne santé.
Mais quelle est l’efficacité réelle du message ? Deux chercheuses de l’école de management de Grenoble ont travaillé sur la question en faisant appel à 131 de leurs étudiants. Les volontaires devaient regarder une publicité pour un aliment bien trop riche, accompagné ou non du slogan leur recommandant de faire attention à ce qu’ils mangent. Après visionnage, on leur offrait la possibilité de choisir entre un bon pour une glace et un pour un sachet de fruits.
Le message sanitaire varie d'un pays à l'autre. Si aux États-Unis, comme en France, on préconise 5 fruits et légumes par jour, au Danemark on parle plutôt de 6. Mais c'est aussi pour des raisons mnémotechniques. En effet, dans ce pays scandinave, le chiffre 6 s'écrit seks et se prononce comme sex, qui est transparent et signifie « sexe ».
Le message sanitaire varie d'un pays à l'autre. Si aux États-Unis, comme en France, on préconise 5 fruits et légumes par jour, au Danemark on parle plutôt de 6. Mais c'est aussi pour des raisons mnémotechniques. En effet, dans ce pays scandinave, le chiffre 6 s'écrit seks et se prononce comme sex (« sexe »). © Deserttrends, StockFreeImages.com
Les images parlent plus qu’un slogan
Contrairement à ce que voudrait le bon sens, les consommateurs n’ayant pas vu défiler le message ont, 2 fois plus que les autres, opté pour les fruits. C’est ce qui s’appelle un effet boomerang : on produit le résultat inverse de ce qui était désiré.
Les auteures apportent une explication à cette observation paradoxale. Selon Carolina Werle, le message déculpabiliserait le consommateur qui hésiterait moins à se diriger vers des produits dits « de plaisir », ce qui risque, à terme, de conduire au surpoids. En revanche, ce même aliment est associé à des concepts négatifs lorsqu'il n'est pas accompagné des recommandations sanitaires : par souci pour notre santé, nous préférons nous diriger vers une nourriture plus saine.
En conclusion de cette étude publiée dans Marketing Letters, les chercheuses proposent de modifier la façon d’opérer. Au lieu d’associer la publicité à un texte, elles encouragent à utiliser la force des images, comme cela existe dans la lutte contre le tabac, car l'impact est plus puissant dans l’esprit des gens.
Matière noire : le premier filament entre Abell 222 et Abell 223 observé
13 juil. 2012

Le modèle de la matière noire froide semblait à la veille d’une crise il y a quelques mois. Elle a vite été résolue et la première observation d’un filament de matière noire connectant deux amas de galaxies, Abell 222 et Abell 223, apparaît comme un nouveau triomphe du modèle cosmologique standard. De tels filaments sont en effet prédits depuis longtemps.
L’univers semble bel et bien rempli de matière noire et d’énergie noire. Bien que le dernier mot n'ait pas encore été dit en ce qui concerne des alternatives à ces hypothèses basées sur des modifications des lois de lagravitation, en particulier avec Mond, la matière noire reste pour le moment un ingrédient fondamental dans la recette permettant de faire naître lesgalaxies et les amas de galaxies que l’on observe aujourd’hui.
Mais ses caractéristiques sont encore mal comprises, même si on peut l’étudier en observant les structures à grandes échelles que forment les différents types de galaxies et les amas de galaxies.
Matière noire froide ou tiède ?
En effet, on sait que selon la masse des particules de matière noire, les galaxies se forment avant les grandes structures, ou inversement. Si les particules de la matière noire avaient été des neutrinos, dont on sait que les masses sont faibles, les grandes structures en forme de bulles et de filaments de matière seraient apparues en premier. Les étoiles et les galaxies se seraient ensuite formées dans ces structures par effondrementgravitationnel.

Une simulation conduite à partir de travaux publiés en 1990 par David Weinberg et James Gunn montrant la formation des grandes structures dans l'univers dans le cadre du modèle de matière noire froide. Les galaxies apparaissent les premières et se rassemblent plus tard en superamas formant des filaments. © Johannes Hidding/YouTube
Dans l’univers observable, nous constatons l’inverse. Les étoiles et les galaxies précédent dans l'histoire du cosmos les amas de galaxies, lesquels forment finalement des superamas constituant des bulles et des filaments. Il faut donc faire intervenir des particules massives qui se comportent comme un gaz de particules froid. C’est le modèle de la matière noire froide.
Si les neutrinos avaient été un peu plus massifs, tout en restant légers, et que les observations concernant les grandes structures avaient été différentes, on utiliserait alors le modèle de la matière noire chaude car le gaz de neutrinos se comporterait comme un gaz de particules chaud.
Il n’est pas exclu qu’un peu de matière noire chaude soit nécessaire en plus de la matière noire froide. On parle alors de modèle de matière noire tiède.
Pour mieux comprendre la formation des galaxies et des grandes structures dans l’univers observable, on réalise des simulations numériques depuis des décennies. Après la découverte de l’énergie noire en 1998, celle-ci est entrée dans la danse et l’on en tient compte dans des simulations comme celle de Deus.
Une nouvelle preuve de l'existence de la matière noire
Le modèle de la matière noire froide complétée avec de l’énergie noire rend particulièrement bien compte des observations à grandes échelles, même si on ne peut pas en dire autant de celle des galaxies. Il prédit que des filaments de matière noire froide se sont formés dans lesquels les amas de galaxies et la matière baryonique normale sont en train de tomber. Mais jusqu’à présent, seuls les filaments de matière baryonique, c'est-à-dire des amas de galaxies bien visibles, étaient observés. Les filaments de matière noire, eux, n’étaient pas détectés de façon irréfutable. Comme l’explique un article publié dans Nature, cela vient de changer.
Ce n'est pas la première fois que l'on tentait de détecter, par effet de lentille gravitationnelle faible, un filament de matière noire entre les amas galactiques Abell 222 et Abell 223. Mais c'est la première fois que les observations sont concluantes. La présence de la matière noire est représentée ici sous la forme de lignes d'isodensité reconstruites. L'image de fond a été prise dans le visible par le télescope Subaru.
Ce n'est pas la première fois que l'on tentait de détecter, par effet de lentille gravitationnelle faible, un filament de matière noire entre les amas galactiques Abell 222 et Abell 223. Mais c'est la première fois que les observations sont concluantes. La présence de la matière noire est représentée ici sous la forme de lignes d'isodensité reconstruites. L'image de fond a été prise dans le visible par le télescope Subaru. © Jörg Dietrich/U-M Department of Physics
Un groupe d’astrophysiciens et de cosmologistes a utilisé le fameux effet delentille gravitationnelle faible pour débusquer un de ces filaments de matière noire froide prédit par la théorie. Un tel filament s’étendant entre les amas de galaxies Abell 222 et Abell 223 dévie en effet la lumière le traversant sous l’effet du champ de gravitation de la matière noire. En produisant des déformations caractéristiques des images des galaxies d’autant plus importantes qu’il y a de la matière noire, il permet de détecter la présence de cette matière invisible mais aussi d’estimer les quantités présentes.
On peut compléter ces observations avec des mesures faites dans le domaine des rayons X. C’est ce qui a été effectué avec le satellite XMM-Newton. Un plasma de matière normale chaude se trouve aussi piégé, comme dans les amas de galaxies, dans les filaments. Dans le cas présent, la comparaison des mesures a permis d’estimer que 90 %, au moins, de la masse présente dans le filament était de matière noire.
C’est une preuve de plus en faveur de l’existence de la matière noire. On pense que des filaments similaires se trouveraient même dans les amas de galaxies, guidant des courants de matière normale et faisant croître des galaxies autrement que par des collisions et des fusions galactiques.
Pourquoi un régime hyperprotéiné coupe-t-il la faim ?
08 juil. 2012

On connaissait la faculté des protéines à couper la faim, mais pas par quels mécanismes. Des chercheurs français viennent d'expliquer le fonctionnement des régimes hyperprotéinés. Par une réaction en chaîne, le système digestif envoie un message au cerveau qui répond en retour. En agissant sur ces échanges qui contrôlent la satiété, les scientifiques espèrent mieux prendre en charge les patients obèses ou atteints de surpoids.
L’équipe de chercheurs InsermCNRS et université Claude Bernard Lyon 1est parvenue à élucider la sensation de satiété ressentie plusieurs heures après un repas riche en protéines. Elle s’explique par des échanges entre le système digestif et le cerveau, initiés par les protéines alimentaires que l’on trouve majoritairement dans la viande, le poisson, les œufs ou encore certains produits céréaliers.
Lors de travaux précédents, les chercheurs ont prouvé que l’ingestion deprotéines alimentaires déclenche une synthèse de glucose au niveau de l’intestin, après les périodes d’assimilation des repas (une fonction appelée néoglucogenèse). Le glucose qui est libéré dans la circulation sanguine (veine porte) est détecté par le système nerveux, qui envoie un signalcoupe-faim au cerveau. Plus connue au niveau du foie et des reins pour alimenter les autres organes en sucre, c’est au niveau de l’intestin que la néoglucogenèse délivre un message coupe-faim à distance des repas, caractéristique des effets dits de satiété.
Des protéines coupe-faim grâce aux récepteurs µ-opioïdes
Dans ce nouveau travail, publié dans la revue Cell, ils décrivent précisément comment la digestion des protéines provoque une double boucle de réactions en chaîne impliquant le système nerveux périphérique ventral (passant par le nerf vague) et dorsal (passant par la moelle épinière).
Ce schéma explique les interactions qui existent entre le système digestif et le système nerveux suite à l'ingestion de protéines. Les intestins servent de capteur et le cerveau de maître opérateur. Les régimes hyperprotéinés jouent donc sur ce principe.
Ce schéma explique les interactions qui existent entre le système digestif et le système nerveux suite à l'ingestion de protéines. Les intestins servent decapteur et le cerveau de maître opérateur. Les régimes hyperprotéinés jouent donc sur ce principe. © Inserm, F. Koulikoff
L’exploration dans le détail du mécanisme biologique a permis d’identifier des récepteurs spécifiques (les récepteurs µ-opioïdes) présents dans le système nerveux de la veine porte, à la sortie de l’intestin. Ces récepteurs sont inhibés par la présence des oligopeptides, produits de la digestion des protéines.
De l’intestin au cerveau, et vice-versa
Dans un premier temps, les oligopeptides agissent sur les récepteurs µ-opioïdes qui envoient un message par la voie du nerf vague et par la voie spinale vers les zones du cerveau spécialisées dans la réception de ces messages.
Dans un second temps, le cerveau envoie un message retour qui déclenche la néoglucogenèse par l’intestin. Cette dernière initie alors la transmission du message coupe-faim dans les zones du cerveau contrôlant la prise alimentaire, comme l’hypothalamus.
L’identification de ces récepteurs et de leur rôle dans la néoglucogenèse intestinale permet d’envisager de nouvelles pistes thérapeutiques dans le traitement de l’obésité. L’enjeu est de déterminer la façon d’agir sur ces récepteurs µ-opioïdes pour réguler durablement la sensation de satiété. Selon Gilles Mithieux, principal auteur de ce travail : « Sollicités trop fortement, ces récepteurs peuvent devenir insensibles. Il faudrait donc trouver le meilleur moyen de les activer modérément, afin de garder leur effet bénéfique à long terme sur le contrôle de la prise alimentaire ».
Les hommes sont plus heureux quand ils font le ménage
08 juil. 2012

Voilà qui va tordre le cou aux idées reçues des machos. Une étude sérieuse vient, à la grande surprise des auteurs, de révéler que plus les hommes participent aux tâches domestiques et plus ils vivent heureux. Et s’il suffisait de faire la vaisselle pour qu’un homme (mé)nage dans le bonheur ?
L’égalité des sexes, ce n’est pas encore pour aujourd'hui. Malgré les luttes féministes et les mouvements de libération de la femme entamés depuis une cinquantaine d’années, les hommes occupent toujours les plus hautes fonctions dans la société, ont encore un salaire plus important pour des fonctions équivalentes et passent moins de temps à accomplir les tâches ménagères.
Pourtant, voilà un argument qui pourrait pousser ces messieurs à changer. Et si la science leur prouvait à coup de statistiques que participer auxactivités domestiques les rendait plus heureux ? C’est exactement ce qui vient d’être fait. On ne pourra pas accuser les chercheurs d’avoir orienté leurs résultats puisqu’eux-mêmes ne s’attendaient pas à pareil constat…
Le contexte : une inégalité criante entre hommes et femmes
Difficile de sortir des stéréotypes. Si l’égalité des sexes transparaît plus facilement dans les discours aujourd’hui qu’il y a 50 ans, elle ne s’applique pas toujours dans les actes. Ainsi, une vaste étude, dont les résultats sont publiés dans un livre nommé Gendered Lives dans sa version originale, tente de faire le point sur la situation du continent européen… et révèle qu’il y a encore du travail à faire.
Au niveau professionnel notamment, car les femmes sont parfois amenées à choisir entre leur carrière et le fait de fonder une famille. La tradition de la bonne mère au foyer et de l’homme besognant pour nourrir sa famille est toujours bien prégnante, même inconsciemment. Les chiffres parlent d’eux-mêmes au Royaume-Uni, où 40 % des femmes travaillent à temps partiel contre 10 % des hommes.
Il a fallu du temps pour accorder des droits similaires aux hommes et aux femmes. Il faudra attendre 1945 pour voir la gent féminine faire entendre sa voix lors d'une élection. Aujourd'hui, les différences sont moindres mais elles existent toujours.
Il a fallu du temps pour accorder des droits similaires aux hommes et aux femmes. En France, il faudra attendre 1945 pour voir la gent féminine faire entendre sa voix lors d'une élection. Aujourd'hui, les différences sont moindres mais elles existent toujours. © Open Democracy, Flickr, cc by 2.0
Dans le foyer aussi les inégalités subsistent. L’Insee dévoile dans sonEmploi du temps 2009-2010 que les hommes contribuent aux tâches ménagères à hauteur de 2 h 24 par jour, chiffre stable depuis 10 ans, tandis que les femmes y consacrent quotidiennement 3 h 52, un chiffre pourtant en légère baisse. Les choses sont-elles immuables ?
L’étude : comment faire un ménage heureux ?
La gent féminine a peut-être l’occasion de se réjouir. Comme l’explique la prestigieuse University of Cambridge, l'ouvrage susnommé s’intéresse au bien-être des hommes en comparaison du temps passé à collaborer aux activités domestiques, telles que faire la cuisine, la vaisselle, les courses,faire le ménage ou encore la maintenance domestique.
Contrairement à ce qui était attendu, les hommes d’Allemagne, du Danemark, de France, de Grande-Bretagne, de Norvège, des Pays-Bas et de Suède se déclarent plus à l’aise et moins stressés lorsqu’ils participent aux tâches ménagères. Ils sont donc plus heureux.
Quelle est donc la clé de ce bonheur ? Est-ce de tremper la serpillère dans un seau humide ? L’odeur alléchante d’un repas qu’on a pris le temps de préparer ? Selon les scientifiques, une évolution des mœurs s’insinue peu à peu dans l’esprit des gens et les hommes commencent à culpabiliser de regarder leur compagne faire le plus gros du travail.
D’autre part, les femmes osent davantage réclamer un traitement équitable, là encore du fait de changements de considération dans la société, et les hommes besogneux ne subissent pas les foudres d’une épouse en colère. Moins de disputes, plus de calme, chacun peut vivre tranquillement. Des tâches partagées pour un bonheur partagé… Ou comment être heureux en ménage !
L’œil extérieur : des progrès restent à faire
Globalement, cet ouvrage tend à montrer l’impact des discours culturels et sociétaux dans la mise en place d’un traitement égalitaire entre hommes et femmes. Ainsi, dans les pays scandinaves, qui clament depuis de longues années l’absence de différence entre les unes et les autres, le fossé se réduit peu à peu.
De générations en générations, ces siècles de stéréotypes finiront peut-être par être balayés. Mais qui sera derrière le balai : un homme ou une femme ?
La grande aventure du boson de Higgs
06 juil. 2012

Le Cern a annoncé hier la découverte d'un nouveau boson, très probablement celui prédit en 1964, explicitement ou implicitement, par Peter Higgs et ses collègues Kibble, Guralnik, Hagen, Englert et Brout. Voici, illustrées de vidéos, les étapes de cette grande aventure de la physique qui a débuté il y a presque 50 ans.
C’est la fin des années 1950. Les accélérateurs de particules ont révélé l’existence d’un zoo très riche de particules élémentaires comme les mésonspi et les kaons. L’existence du neutrino et de l’antiproton a été confirmée mais les théoriciens sont dans une grande perplexité. On commence à connaître plusieurs dizaines de particules. C’est trop. Ce n’est pas ce qu’on attendait pour des particules dites élémentaires qui devraient se compter sur les doigts de la main tout au plus.
Il apparaît aussi que ces particules interagissent avec les mêmes forces nucléaires fortes qui collent protons et neutrons dans les noyaux et qu’elles se désintègrent selon les mêmes lois que celles de la radioactivité bêta. Il y a clairement une quatrième force universelle dans l’univers, la force nucléaire faible.
 
Dans cette vidéo en français, François Englert nous fait partager ses souvenirs sur la découverte du mécanisme de Brout-Englert-Higgs ainsi que son émotion lors de la découverte d'un nouveau boson au Cern. © Cern
La quête de l'unification de la physique
De même que l’existence de dizaines d’atomes était le signe qu'ils n’étaient pas élémentaires, on commence à soupçonner que plusieurs des particules de l’époque ne le sont pas non plus. Ou du moins, qu’il doit exister une théorie expliquant ce large spectre de particules variées avec des masses différentes, à la façon dont on sait que les atomes sont composites ou possèdent différents états d’énergie. Mais il y a plus...
Des couplages entre effets électriques et magnétiques avaient mis Maxwell sur la piste de sa théorie du champ électromagnétique. Ce sont des couplages entre les manifestations de la force nucléaire faible et celles de la force électromagnétique qui inspireront le grand théoricien Julian Schwinger. Il pense qu’il existe une théorie unifiée des forces électromagnétique et nucléaire faible. Il en parle à son étudiant de thèse, Sheldon Glashow, qui travaillera sur le sujet. Glashow proposera une telle théorie au début des années 1960. C’est à ce moment que François Englert, Robert Brout et Peter Higgs entrent aussi en scène.
François Englert (à gauche), malheureusement sans Robert Brout, a rencontré Peter Higgs pour la première fois de sa vie au Cern, le 4 juillet 2012.
François Englert (à gauche), malheureusement sans Robert Brout, a rencontré Peter Higgs pour la première fois au Cern, le 4 juillet 2012. © Maximilien Brice, Laurent Egli/Cern
Parallèlement aux travaux des théoriciens qui étudient des théories du type champ de Yang-Mills pour décrire les forces nucléaires, ils s’interrogent sur un mécanisme capable d’expliquer l’origine des masses des particules. Comme l’explique François Englert, dans la vidéo ci-dessus, les travaux sur la supraconductivité sont présents à l’esprit de beaucoup à cette époque. La théorie BCS avait été découverte en 1957 et Yoichiro Nambu avait publié ses travaux.
Or, avec l’effet Meissner qui se manifeste si spectaculairement avec lalévitation magnétique, tout se passe dans les supraconducteurs comme si un photon devenait massif. Supposons, et les lois de la mécanique quantique l’imposent presque, que les forces entre particules sont décrites par des équations similaires aux équations de Maxwell, les fameuses équations de Yang-Mills. On peut alors penser que les forces nucléaires à faible portée – car décrites par des particules massives comme le pion de Yukawa – sont au départ des forces véhiculées par des cousins du photon. Ces cousins sont sans masse mais deviennent massifs dans l'hypothèse où l’univers est un peu comme l’intérieur d’un supraconducteur.
Dès 1961, Robert Brout et François Englert réfléchissent à cette idée et c’est en 1964 qu’ils publient, les premiers, un article (qui deviendra célèbre) sur un mécanisme de la théorie des champs, capable de donner une masse aux particules. Peter Higgs a des idées similaires et il publie peu de temps après un article dans lequel, contrairement à ses collègues belges, il parle explicitement d’une nouvelle particule massive associée au champ de ce qui est aujourd’hui appelé le mécanisme de Brout-Englert-Higgs (BEH).
Ce point est bien mis en évidence dans une conférence par le grand théoricien John Ellis qui signale qu’il est aussi absent des travaux similaires publiés en 1964 par Gerald Guralnik, Carl Richard Hagen et Thomas Kibble que l’on considère comme les codécouvreurs du mécanisme de BEH.
Le mécanisme de Brout-Higgs-Englert et la théorie électrofaible
En 1964, peu de personnes comprennent ces résultats et l’article initial dePeter Higgs est même rejeté une première fois par l’expert du journal, auquel il l’avait soumis pour publication.
Toutefois, en 1967, Steven Weinberg et, peu de temps après, Abdus Salam, publient leur théorie unifiée des forces électromagnétiques et nucléaires faibles. C’est le fameux modèle électrofaible. Cette théorie reprend en partie les travaux de Sheldon Glashow mais, surtout, elle utilise de façon essentielle le mécanisme BEH pour doter d’une masse les bosons intermédiaires W et Z impliqués par la théorie. Sans ce mécanisme, ces bosons seraient sans masse et l’équivalent des photons du champ de Maxwell.

Un documentaire sur la découverte des bosons W, au Cern, au début des années 1980. Ces bosons sont massifs en raison de l'existence supposée du mécanisme de Brout-Englert-Higgs. © Cern, BBC Open University/YouTube
En 1971, Gerard 't Hofft, étudiant sous la houlette de Martinus Veltman, prouve que la théorie du modèle électrofaible, encore appelée modèle de Glashow-Salam-Weinberg (GSW) est, tout comme l’électrodynamique quantique de Feynman-Schwinger-Tomonaga, libre du problème des infinis menaçant en général les théories quantiques relativistes des champs. Là encore, le mécanisme BEH est central pour l’obtention de ce résultat.
Schwinger avait reçu son prix Nobel en 1965, Gerard 't Hofft et Martinus Veltman l'obtiendront en 1999 mais Nambu devra attendre 2008. Toutefois, dès 1973, certaines prédictions du modèle GSW, les courants neutres, sont vérifiées au Cern. En conséquence de quoi, Glashow, Salam et Weinberg se voient attribuer le prix Nobel de physique en 1979 sans que les bosons W et Z, les prédictions les plus fondamentales de leur théorie, ne soient encore découverts. Le boson de Higgs, l’autre pièce maîtresse de la théorie, étant tout aussi inobservé.
Carlo Rubbia se fait fort à l’époque de découvrir ces bosons intermédiaires dans des collisions en accélérateur. Il convainc les dirigeants du Cern et avec ses collègues, dont Simon van der Meer, ils aboutissent à la mise en évidence de ces bosons en 1983. Rubbia et van der Meer décrocheront le prix Nobel en 1984. La vidéo ci-dessus retrace cette découverte et montre plusieurs des grands noms impliqués dans cette aventure de la physique comme Salam, Rubbia et Weinberg.

Une vidéo sur le LHC et la chasse au boson de Higgs et à la nouvelle physique. Comparez le saut technologique en 20 ans avec la vidéo précédente. © CernTV/YouTube
Il restait une dernière pièce du modèle électrofaible à découvrir, la plus difficile mais, peut-être, la plus riche en potentiel pour aller au-delà des équations de ce qu’on appelle désormais le modèle standard. Il s’agit, bien sûr, du boson de Peter Higgs.
Du boson de Higgs à la cosmologie en passant par Turing et Charpak
Au début des années 1980, on pense en effet que des cousins du boson de Higgs doivent exister à des énergies très hautes et assurer l’unification de la force électrofaible avec la force nucléaire forte dans le cadre des théories de grande unification, les GUT. En bonus, ces GUT fournissent un moyen de résoudre l’énigme de l’antimatière cosmologique. Un ou des champs de Higgs similaires à celui du modèle GSW, pourraient même expliquer bien d'autres mystères de la théorie du Big Bang en la complétant avec la théorie de l’inflation. Surtout, dans le cadre de ces GUT, le champ de Higgs du modèle standard se révèle instable, d’une certaine façon. Or à l’époque, une autre théorie prend son essor et apparaît comme un très bon moyen de résoudre ce problème. C’est la théorie de la supersymétrie et ses avatars pour la gravitation quantique : la supergravité et les supercordes.
Il devient clair que pour progresser, après que l’idée d’unification des forces par des champs de Yang-Mills s'est trouvée féconde, il faut mettre en évidence le boson de Higgs et vérifier l’existence et les caractéristiques du mécanisme de BEH.
Pour cela, il faut une toute nouvelle génération de collisionneur de particules et de détecteur géant. On étudie donc le futur LHC, dès les années 1980. Tout comme pour le découverte des bosons W et Z, cette entreprise a été rendue possible grâce aux ordinateurs et donc par l’un des pères de l’informatique auquel on rend hommage cette année : Alan Turing.
Mais dans cette grande aventure du boson de Higgs, qui se poursuit aujourd’hui sous nos yeux, rien n’aurait été possible en 1983, et ne serait possible aujourd’hui, sans le détecteur couplé à un ordinateur mis au point par Georges Charpak et dont les descendants traquent les secrets de la matière et des forces.
Allaitement : des règles trop strictes deviennent inopportunes
06 juil. 2012

Pour bien mener l'allaitement, de multiples conseils circulent et les mamans s'imposent parfois des règles très strictes. La revue médicale Prescrire fait le point et met notamment en avant le fait que les bébés sont tous différents et que la prise de médicaments n'est sûrement pas une bonne solution.
Pour la réussite de l'allaitement au sein, des règles trop rigides sont plus néfastes qu'utiles, souligne la revue Prescrire dans sa dernière édition.
Donner le sein « à la demande (lorsque le bébé réclame) facilite la poursuite de l'allaitement », diminue le recours à des compléments artificiels et réduit le risque de douleur des mamelons ou d'engorgement des seins, indique la revue dans une fiche-info destinée aux jeunes mères. Il n'y a « pas de raison médicale d'imposer un rythme particulier ou des horaires fixes à l'allaitement: plusieurs études ont montré que cela a plus d'inconvénients que d'avantages », souligne la revue.
Faut-il donner un seul sein ou les deux ?
Prescrire ajoute qu' « il existe de grandes variations d'un nourrisson à l'autre ». « Par exemple, à l'âge d'1 mois, on a pu observer entre 5 et 11 tétées par jour, pour une durée totale allant de 1 h 15 à 6 h 45. Et le nombre de tétées par nuit peut varier de 1 à 5. » Sauf rares exceptions, mieux vaut commencer dès la naissance et poursuivre l'allaitement jusqu'à l'âge de 6 mois, plutôt que de recourir aux biberons de lait artificiel.
Le biberon facilite parfois la tâche des parents, mais il est meilleur de l'éviter car le lait artificiel ne vaut pas le lait maternel.
Le biberon facilite parfois la tâche des parents, mais il est mieux de l'éviter car le lait artificiel ne vaut pas le lait maternel. © Michael Jamtremski, Wikipedia, cc by sa 2.5
Il n'y a pas de raison médicale non plus de conseiller de donner un seul sein à chaque tétée, ou au contraire, de donner forcément les deux seins. Pour éviter les engorgements, il est préférable de vider entièrement le sein : pour cela, attendre que le bébé arrête de téter de lui-même le premier sein avant de lui proposer le second.
Manque de lait : éviter de prendre des médicaments
Certaines mères craignent de ne pas avoir assez de lait. Les astuces parfois proposées pour avoir plus de lait sont « souvent inutiles, inefficaces ou dangereuses ».
Ainsi, « prendre de la dompéridone augmente parfois la production de lait (comme avec tous les neuroleptiques) ». Mais ce médicament « passe dans le lait maternel, et fait courir au nourrisson des risques cardiaques », rappelle Prescrire.
Le Motilium ou dompéridone, médicament antinausées, fait partie des prétendues solutions pour réussir son allaitement que s'échangent sur leWeb des jeunes mères. L'agence du médicament a d'ailleurs lancé l'an dernier une mise en garde contre cette mode dangereuse. « Si un médecin vous prescrit un médicament pour allaiter, c'est très dangereux et suspect », avait également averti Dominique Maraninchi, patron de l'agence sanitaire (ANSM, ex-Afssaps).

Le lait maternel a de nombreux avantages sur les autres laits. Du point de vue de la santé du bébé, puisqu'il lui confère une meilleure immunité et des apports nutritionnels plus adaptés, mais aussi pour la maman chez qui l'utérus reprend sa forme normale de façon plus rapide après l'accouchement et permet de perdre plus vite du poids en épuisant les réserves accumulées durant la grossesse. © Hywit Dimyadi, shutterstock.com
Le lait maternel a de nombreux avantages sur les autres laits. Du point de vue de la santé du bébé, puisqu'il lui confère une meilleure immunité et des apports nutritionnels plus adaptés, mais aussi pour la maman chez qui l'utérus reprend sa forme normale de façon plus rapide après l'accouchement et permet de perdre plus vite du poids en épuisant les réserves accumulées durant la grossesse

Non, les neutrinos ne vont pas plus vite que la lumière !
08 juin 2012

C’est officiel, les quatre détecteurs enfouis sous le Gran Sasso, dont celui de la fameuse expérience Opera, ont rendu leur verdict. Lesneutrinos muoniques ne violent pas la théorie de la relativité en allant plus vite que la lumière. Les résultats précédents d’Opera qui semblaient donner tort à Einstein sont dus au branchement défectueux d’un câble de synchronisation optique des horloges de précision employées.
On se souvient de la bombe médiatique qui avait explosée en septembre 2011 lorsque des membres de la collaboration Opera avaient annoncé leur perplexité devant la mesure du temps de vol de neutrinos muoniques entre le Cern et le détecteur enfoui sous le Gran Sasso. Malgré tous leurs efforts, ils n’étaient pas parvenus à trouver une erreur dans leur chaîne de mesure qui aurait pu expliquer pourquoi ces neutrinos semblaient avoir parcouru les quelque 730 km séparant les deux laboratoires en dépassant la vitesse de la lumière. Bien conscients des multiples contraintes issues des tests portant sur la relativité restreinte et la physique des neutrinos, les chercheurs s’abstenaient avec prudence de toute interprétation théorique des résultats qui en feraient des signes d’une nouvelle physique au-delà du modèle standard.
Il semblait en effet bien peu probable que les mesures effectuées ne soient autre chose que le produit d’une erreur systématique quelconque. Il existe pourtant des théories spéculatives laissant entendre que l’on peut parfois défier Einstein et le mur de la lumière. Ainsi, tout en ne prenant pas vraiment au sérieux ce résultat, on ne pouvait s’empêcher de rester ouvert et de se poser la question : « Et si l’expérience Opera était l’équivalente de celle de Michelson et Morley ? ».
Toutefois, on n’allait pas tarder à apprendre d’une part que les expériencesIceCube et Icarus n’étaient pas compatibles avec les mesures d’Opera et d’autre part que des doutes sérieux portaient sur le branchement d’un câble de synchronisation optique des horloges de précision employées pour mesurer le temps de vol. Après le redémarrage du LHC en début d’année, il était prévu que de nouvelles mesures soient effectuées avec Opera en mai.
La mythique photo d'Einstein tirant la langue.
La mythique photo d'Einstein tirant la langue. © Arthur Sasse
Aujourd’hui à Kyoto, à l’occasion de la 25e Conférence internationale sur la physique du neutrino et l’astrophysique, la collaboration Opera et celles de Borexino, Icarus et LVD, toute les quatre voisines sous le Gran Sasso, ont annoncé par l’intermédiaire de Sergio Bertolucci avoir mesuré de manière cohérente une vitesse des neutrinos compatible avec celle de la lumière. Il s’agissait bien d’un problème de branchement défectueux d’un câble. Einstein triomphe !
Neutrinos transluminiques : une erreur et non une faute
Mais que penser au final de toute cette histoire ? Sans aucun doute la même chose que Jacques Martino, directeur de l’Institut national de physique nucléaire et de physique des particules du CNRS lorsqu’il a déclaré dans un communiqué du CNRS : « On ne peut que se réjouir de la résolution rapide de l’énigme posée par une vitesse des neutrinos semblant dépasser celle de la lumière. Comme cela a été noté dans la presse française et étrangère, ainsi que le magazine Nature, cette démarche critique constitue un bel exemple du fonctionnement de la science et du doute scientifique. La science et les chercheurs acceptent le questionnement de principes, même et surtout les plus fondamentaux, et se basent avant tout sur l'expérience et l’examen par les pairs afin de faire progresser notre connaissance des lois de la nature.
Il me semble important d'apporter notre soutien et notre confiance aux chercheurs d’Opera et en particulier aux chercheurs français qui ont joué un rôle important dans cette mesure, pour l'attitude de rigueur scientifique qu'ils ont toujours suivie dans cette analyse. Si in fine nous avons affaire à une erreur expérimentale, il est impossible de parler de faute. L’annonce par Opera de nouveaux résultats sur l’oscillation des neutrinos, but scientifique principal d’Opera, montre que ce soutien et cette confiance sont mérités ».
Record de distance : une galaxie à 12,91 milliards d'années-lumière
07 juin 2012

SXDF-NB1006-2 est présentée par une équipe d’astronomes japonais comme la galaxie la plus distante actuellement connue. D’autres candidats à ce titre existent cependant, avec des distances parfois supérieures aux 12,91 milliards d’années-lumière estimées à l’aide du télescope Subaru. Une découverte qui nous renseigne sur l’aubedu cosmos observable.
En 2013, les analyses du rayonnement fossile par Planck commenceront à être rendues publiques. On connaîtra encore mieux les événements ayant eu lieu dans l’univers observable 380.000 après le Big Bang, juste au moment où les premiers atomes neutres d’hydrogène et d’hélium se formaient massivement. Mais que s’est-il passé entre cette date de l’histoire du cosmos et les quelque 200 à 500 millions d’années après sa « naissance » il y a 13,7 milliards d’années ?
Cela reste encore indéterminé car c’est pendant cette période dite des âges sombres que les premières étoiles et les premières galaxies avec leurs trous noirs supermassifs se sont formées. On tente d'en savoir plus dans le cadre de vastes simulations numériques comme Deus et l’on prépare des instruments qui devraient nous permettre d’avoir des observations précieuses. Une chose est sûre : lorsque ces premières étoiles et les premiers trous noirs ont commencé à briller, leurs rayonnements ont peu à peu réionisé l’hydrogène neutre constituant la majorité de la matière baryonique de l’univers.
Cette tache rouge n'est autre que la galaxie SXDF-NB1006-2 située à 12,91 milliards d'années-lumière de la Terre.
Cette tache rouge n'est autre que la galaxie SXDF-NB1006-2 située à 12,91 milliards d'années-lumière de la Terre. © NAOJ
Les instruments actuels commencent à empiéter sur le territoire encore largement inconnu de la réionisation. En témoigne justement la découverte faite par un groupe d’astronomes japonais utilisant le télescope Subaru au sommet du Mauna Kea à Hawaï. Avec son miroir primaire de 8,2 m de diamètre, ce télescope a observé dans l’infrarouge pendant 37 heures au cours de 7 nuits deux grands champs, les Subaru Deep Field et SubaruXMM-Newton Deep Survey Field.
Une nouvelle preuve de la théorie du Big Bang ?
En traitant patiemment les images obtenues, les chercheurs ont fini par dénicher l’objet baptisé SXDF-NB1006-2. Il s’agit d’une galaxie si lointaine que la fameuse raie Lyman-alpha de l’hydrogène qu’elle contient, qui se trouve dans l’ultraviolet, est observée dans l’infrarouge. La mesure du décalage spectral (Z=7,2) a fourni une estimation de sa distance : 12,91 milliards d’années-lumière !
Le décalage spectral vers le rouge d'un objet cosmologique est donné par une quantité notée Z, le Redshift. Sa valeur est donnée par une fonction dépendant de l'âge, et donc de la distance, de l'objet par rapport à la Voie lactée. Plus ce décalage est élevé, plus la distance nous séparant de l'objet observé, en général une galaxie, est importante. Le schéma ci-dessus retrace l'histoire de l'univers observable avec le décalage spectral en échelle logarithmique en abscisse. Avant la Recombinaison Cosmique, 380.000 ans après le Big Bang, l'univers observable est un plasma chaud. Pendant les Âges Sombres, la matière est devenue neutre sous forme d'atomes et la naissance des étoiles et des galaxies débutent pour finalement réioniser partiellement le cosmos. SXDF-NB1006-2 est observée par Subaru pendant la Réionisation Cosmique.Le décalage spectral vers le rouge d'un objet cosmologique est donné par une quantité notée Z, le redshift. Sa valeur est donnée par une fonction dépendant de l'âge, et donc de la distance, de l'objet par rapport à la Voie lactée. Plus ce décalage est élevé, plus la distance nous séparant de l'objet observé, en général une galaxie, est importante. Le schéma ci-dessus retrace l'histoire de l'univers observable avec le décalage spectral en échelle logarithmique en abscisse. Avant la recombinaison cosmique, 380.000 ans après le Big Bang, l'univers observable est un plasma chaud. Pendant les âges sombres, la matière est devenue neutre sous forme d'atomes et la naissance des étoiles et des galaxies débute pour finalement réioniser partiellement le cosmos. SXDF-NB1006-2 est observée par Subaru pendant la réionisation cosmique. © NAOJ
SXDF-NB1006-2 est présentée par l’équipe japonaise comme la galaxie la plus lointaine connue à ce jour, visiblement certaine d’avoir fait une observation plus solide que celle de UDFj-39546284. Découverte en 2010 dans la constellation du Fourneau, visible dans l’hémisphère sud, à l’aide du télescope Hubble, on estimait alors sa distance à 13,2 milliards d’années-lumière à l’aide des instruments du VLT. La mesure était cependant délicate et si personne n’a encore infirmé cette distance, elle n’a pas non plus été confirmée, voilà sans doute pourquoi l’équipe japonaise affirme aujourd’hui détenir le record de distance avec une galaxie.
Une mesure obtenue par les astrophysiciens est particulièrement intéressante. On sait que d’après la théorie du Big Bang, le contenu et l’état de la matière et du rayonnement changent dans l’univers observable au cours du temps. On avait ainsi prédit que le rayonnement fossile devait être plus chaud il y a quelques milliards d’années en fonction du décalage Z et c’est bien ce qui a été observé. De même, avec SXDF-NB1006-2, sa distance cosmologique devait correspondre à une période où une large part de l’hydrogène de l’univers était encore à l’état neutre. C’est bien ce qui a été trouvé avec une proportion de 80 %. Plus généralement, les chercheurs ont bien constaté que la portion d’hydrogène neutre augmentait avec la valeur de Z. Un argument de plus en faveur de la théorie du Big Bang, au moment où certains pensaient, à tort, que le modèle de la matière noire était en grande difficulté.
Le transit de Vénus comme les Terriens n'ont pas pu le voir
06 juin 2012

C’est depuis l’espace que nous viennent les plus belles images dutransit de Vénus. Sur Terre, nombreux furent les frustrés qui ont souffert sous les nuages, guettant vainement la trouée, notamment en France métropolitaine. Destinées en priorité à eux, voici trois vidéos, dont deux ont été filmées par des observatoires spatiaux. SDO nous offre une superbe série en haute définition et Proba-2, de l’Esa, des images en UV extrême. En bonus, une explication du phénomène en animation.
Loin des rampants soumis aux caprices de la météo, les satellites étaient aux premières loges pour observer le second et dernier transit de Vénus du XXIesiècle. Commençons par Proba-2, mis en orbite en 2009 par l’Esa. De conception belge, cette deuxième version du Project for On-Board Autonomyest destinée à tester de nouvelles technologies. Proba-2 embarque notamment un télescope en UV extrême baptisé Swap, capable de prendre un cliché par minute de la couronne solaire. Le transit de Vénus était une excellente occasion de démontrer ses capacités, dans une vidéo, montage d’une série de photos.
 
Sur une période de 6 heures entre le 5 et le 6 juin 2012, SDO a observé le transit de Vénus devant le Soleil dans plusieurs longueurs d’onde, dans le visible et l’ultraviolet notamment, montrant différents détails, visibles ici dans les séquences successives. © Nasa
La Nasa a missionné SDO (Solar Dynamics Observation) pour observer l’événement, ce qui nous vaut une superbe vidéo. Elle comporte plusieurs séquences car l’instrument a filmé dans plusieurs longueurs d’onde. Enfin, nous avons ajouté une animation, de la Nasa également, qui explique le phénomène car un bon dessin en 3D animé vaut mieux qu’un long discours, comme disait Napoléon.
En bas de cet article, vous trouverez également une image prise par l’astronaute Don Pettit, royalement installé dans la Station spatiale internationale et qui a publié une série d’images du transit. Enfin, vous pouvez terminer cette promenade par une visite à la pointe Vénus, un site bien connu de la côte est de Tahiti où on a fêté le transit, jusqu’à faire chanter l’hymne polynésien par des enfants.
Le transit 2012 de Vénus observé par l’instrument Swap, de conception belge, installé sur le satellite Proba-2, de l’Esa. Sensible à l’ultraviolet extrême, Swap montre ici le passage de la planète devant la couronne solaire. Les points lumineux qui apparaissent sur l’image sont dus à des particules énergétiques frappant l’instrument. La forme s’éloignant du Soleil à la fin de la vidéo est une éjection de masse coronale (CME). © Esa
La planète Vénus, plus proche du Soleil et plus rapide, passe régulièrement entre la Terre et le Soleil. Mais, parce que les deux orbites des deux planètes ne sont pas tout à fait dans le même plan, la plupart du temps, Vénus passe (pour nous) au-dessus ou au-dessous du Soleil. © Nasa
Source :http://www.futura-sciences.com
Et si la matière noire n'existait pas ?
19 avr. 2012

C'est l'hypothèse iconoclaste à laquelle est parvenue une équipe de chercheurs qui a cherché les effets de la prétendue matière noire dans une bulle de 13 000 années-lumière autour du Soleil, soit la moitié de la distance qui nous sépare du centre galactique.

L'idée de ces chercheurs était d'observer finement avec le télescope MPG/ESO de 2,2 mètres à l'Observatoire de La Silla les mouvements de plus de 400 étoiles afin d'y détecter les effets de cette insaisissable matière noire, pourtant indispensable à la cohérence de la théorie de la Relativité générale car elle est censée expliquer pourquoi les galaxies tournent plus vite que prévu par cette même théorie. Résultat des courses : pas plus de matière noire que de beurre en broche.
Comme l'explique le responsable de l'équipe, Christian Moni Bidin (Département d'Astronomie de l'Université de Concepción, Chili) « la quantité de masse que nous avons déduite correspond très prècisément à ce que nous voyons - les étoiles, la poussière et le gaz %u2013 dans la région autour du Soleil. Cela ne laisse aucune place pour la matière supplémentaire %u2013 la matière noire - que nous pensions trouver. Nos calculs montrent qu'elle aurait dû clairement ressortir dans nos mesures. Mais elle n'est pas là ! »

Les modèles astronomiques existants pour montrer comment les galaxies se forment et tournent suggèrent que la Voie Lactée est entourée par un halo de matière noire. Ces modèles ne sont pas capables de prédire précisément la forme de ce halo, mais ils supposent la présence très importante de matière noire dans le voisinage du Soleil. Mais, pour pouvoir expliquer l'absence de matière noire révélée dans cette nouvelle étude, il faudrait supposer que le halo de matière noire a une forme vraiment peu probable, par exemple une forme extrêmement allongée.


« Malgré les nouveaux résultats, la Voie Lactée doit certainement tourner beaucoup plus vite que ce que l'on peut expliquer avec la seule matière visible. Aussi, si la matière noire n'est pas présente là où on l'attend, une nouvelle explication au problème de la masse manquante doit être trouvée. Nos résultats contredisent les modèles en vigueur. Le mystère de la matière noire en devient juste encore plus mystérieux. De prochains sondages, tels que ceux de la mission Gaia de l'ESA, seront cruciaux pour avancer au-delà de ce point » poursuit Christian Moni Bidin.

Voilà en tout cas qui ne manque pas d'apporter de l'eau au moulin de l'astrophysicien Christian Magnan, lequel, dans son passionnant ouvrage le Théorème du Jardin fait part avec de nombreux arguments de ses doutes profonds quant à la pertinence de l'approche qui prévaut en cosmologie depuis des décennies. Il ose même poser la question de savoir si les cosmologistes ne se seraient pas engagés dans des voies sans issue en se lançant dans des spéculations stériles sur la matière noire et l'énergie noire, qui ont valu peut-être un peu vite prix Nobel.

texte de Didier Jamet
publié le 18-04-2012

Grâce à l'OAM, la capacité des réseaux sans fil va-t-elle exploser ?
18 mars 2012
Une révolution en perspective pour les réseaux sans fil ? Peut-être : une équipe de chercheurs suédois et italiens vient en effet de présenter un nouveau moyen de transmettre des informations par radio, permettant d'exploiter sur une même fréquence une multitude de canaux, voire, en théorie du moins, une infinité... Comment faire ? En tordant les ondes comme des pâtes fusilli, explique à Futura-Sciences un chercheur italien membre de l'équipe.

Il suffit d’essayer d’envoyer plusieurs SMS à minuit le 1er janvier pour se rendre compte du problème de l’engorgement des ondes radio. Et ce n’est qu’un début, puisqu’avec la multiplication des smartphones et la mise en place de la TNT, les bandes de fréquences radio risquent de rapidement saturer.

Pour augmenter la capacité de transmission, le seul moyen actuellement disponible est d'élargir les bandes de fréquences. Mais la méthode trouve ses limites quand, à force d'inflation, ces bandes réservées à différents utilisateurs (3G, militaires, aéronautique...) menacent de se superposer.

Depuis quelque temps, des scientifiques planchent sur un autre procédé pour moduler des ondes radio, un peu comme si l'on exploitait une dimension supplémentaire. Longtemps resté une possibilité théorique, l'exploit vient d'être réalisé lors d'une véritable transmission radio par une équipe de scientifiques italiens et suédois. De quoi bouleverser l’univers du sans-fil dans les prochaines années et, pourquoi pas, rendre possible le visionnage de vidéos en 3D et en HD sur les smartphones.

Comment ? « En donnant aux ondes une forme torsadée, à l'aspect d'une pâte fusilli », a expliqué à Futura-Sciences, Fabrizio Tamburini, docteur à l’université de Padoue, en Italie, qui porte le projet. La forme de l’onde est générée par une antenne hélicoïdale parabolique. L’onde est enroulée autour de son axe plusieurs fois dans le sens des aiguilles d'une montre. Au final, représentées en 3D, ces ondes ressemblent effectivement à des pâtes de blé torsadées, autrement dit, des fusilli.

Le moment angulaire orbital : clé du système

Modeste, le chercheur précise que finalement, les scientifiques n’ont pas inventé grand-chose : « Il ne s’agit pas de techniques difficiles mais uniquement d'une autre façon de réfléchir sur les lois physiques de base. ». Cette technique repose en effet sur un phénomène de physique quantique connu. Les photons, vecteurs des ondes électromagnétiques, peuvent présenter un moment angulaire supplémentaire, appelé moment angulaire orbital, ou OAM, pour Orbital Angular Momentum. Un peu comme si les ondes tournaient sur elles-mêmes. Dans un même faisceau, de fréquence unique, plusieurs photons peuvent présenter des OAM différents. Si on parvient à moduler indépendamment plusieurs ondes présentant des OAM différents, on peut encoder autant de signaux. D'où la possibilité de créer plusieurs canaux sur une même bande de fréquence.

Découvert dans les années 1930 sur le plan théorique, cet OAM est resté longtemps hors de portée des technologies. Depuis quelques années, on commence à savoir le maîtriser et donc à le moduler.

Pour expérimenter cette théorie, les chercheurs ont effectué une démonstration publique devant 2.000 personnes... à Venise, une ville idéale pour présenter une multiplication des canaux. L'endroit a été choisi pour des raisons historiques : c'est là que Guglielmo Marconi a effectué plusieurs expériences de radiotransmission entre Venise et son yacht, l'Elettra.


Franchissant 442 mètres, l'émission transmettait un faisceau d'« ondes fusilli » sur une unique bande de fréquence étroite, à 2,414 GHz mais avec deux canaux. L'une des ondes était « tordue » et l'autre présentait un OAM nul. Entre l'île de San Giorgio et le palais des Doges, l’antenne de réception a pu capter les deux flux d'ondes, l'une transportant l'image de barres colorées, l'autre de la baie. Il suffisait, pour passer de l'une à l'autre, de bouger la petite antenne du récepteur. On peut regarder la vidéo de l'expérience (en anglais) sur le site du New Journal of Physics, où les résultats ont été publiés.

Lorsqu’on l'interroge sur l’avenir de cette découverte, Fabrizio Tamburini dit y croire vraiment. Il indique même qu’un brevet a déjà été déposé et que plusieurs entreprises souhaitent investir dans le développement de ces recherches.
Les neutrinos ne vont pas plus vite que la lumière
16 mars 2012

SCIENCES – Le CERN l'a confirmé, vendredi...


L'excès de vitesse est donc bel et bien oublié. Les neutrinos mesurés cet automne par l'expérience Opera n'allaient pas plus vite que la lumière, selon les calculs effectués par une autre équipe pour tenter d'élucider ce résultat qui remettait en cause la physique d'Einstein, a annoncé vendredi le CERN.
Cette nouvelle mesure indique que les neutrinos n'ont pas dépassé la vitesse de la lumière, écrit dans un communiqué le Centre européen de recherches nucléaires (CERN). «Il commence à y avoir des présomptions selon lesquelles les résultats d'Opera seraient liés à une erreur de mesure», estime le directeur de recherches du CERN Sergio Bertolucci. «Mais il est important d'être rigoureux», ajoute-t-il, soulignant que plusieurs autres équipes du CERN vont réaliser des mesures en mai «afin d'aboutir à un verdict définitif».
Quels que soient les résultats qui seront obtenus, l'équipe d'Opera «s'est comportée avec une parfaite intégrité scientifique en soumettant ses mesures au plus grand nombre et en appelant à faire des mesures indépendantes. C'est ainsi que la science fonctionne», insiste Bertolucci.
L'annonce fin septembre des mesures de l'expérience Opera, en contradiction avec la théorie de relativité d'Einstein, avait secoué les physiciens, toujours nombreux à douter de leur validité.

60 nanosecondes d'écart

Sur une «course de fond» de 730 km entre les installations du Cern à Genève et le laboratoire souterrain de Gran Sasso (Italie), les neutrinos, des particules élémentaires, franchissaient la ligne d'arrivée avec près de 20 mètres (ou 60 nanosecondes) d'avance sur la lumière, selon les mesures effectuées par Opera.
Des résultats si surprenants que, pour tenter d'éliminer une possible source d'erreurs, l'équipe d'Opera avait procédé à des tests complémentaires fin octobre. Elle avait là encore abouti à une vitesse des neutrinos supérieure à celle de la lumière.
Les données récoltées lors de ces tests complémentaires ont été à leur tour analysées par ICARUS, une autre expérience du CERN utilisant une technique de pointe. «Selon les mesures d'ICARUS, la vitesse des neutrinos ne dépasse pas celle de la lumière», résume Carlo Rubbia, porte-parole de l'expérience et prix Nobel de physique.
Fin février, des physiciens avaient émis l'hypothèse que le résultat inattendu d'Opera avait été faussé par une mauvaise connexion entre un GPS et un ordinateur. Il en aurait résulté une mauvaise synchronisation entre les horloges utilisées par Opera, donc un décalage aboutissant à une mesure erronée de la vitesse des neutrinos.
Les nouveaux tests du printemps prochain devraient dire s'il s'agissait d'un simple problème de connexion ou s'il y a lieu de repenser toute la physique actuelle.
© 2012 AFP
Les Anonymous : «Internet est né libre et doit le rester»
26 févr. 2012


C’est une interview d’un genre nouveau.

Vendredi soir, une centaine d’Anonymous a accepté de répondre à nos questions sur un canal IRC (un salon virtuel de discussion sécurisé).

Chaque réponse a été rédigée de façon collective et après débat, seul moyen, selon eux, d'éviter les avis individuels et non représentatifs.

Organisé avec France Info, Le Mouv’, Owni.fr et une société de production audiovisuelle, cet entretien permet d’en savoir plus sur un mouvement en pleine mutation qui agite Internet depuis des mois.

Pourquoi avez-vous opté pour cette forme d’interview ?
Nous sommes Anonymous, il n'y a pas de « Je ». Ici, nous rédigeons des réponses en nous basant sur ce que dit le collectif. Une voix ne vaut pas plus qu'une autre. Tout le monde se concerte et les décisions se prennent avec la masse ! Bien sûr, on ne peut pas prétendre représenter exactement une structure décentralisée (comme les Anonymous, ndlr), mais cela permet d’en avoir une idée générale, une tendance.

Pourquoi tenez-vous tant à l’anonymat?
Par souci de sécurité, aussi bien sur le net que dans la vraie vie. Les Anonymous risquent parfois une lourde sanction pénale, voire pire dans certains pays. Nous protégeons tous nos identités pour continuer à exprimer nos idées. L'anonymat permet aussi d’imposer le principe d'égalité. Il n'y a aucun a priori si on ne connait pas la personne. Tous les arguments sont pris en compte de la même façon. Depuis la fermeture de Megaupload, vous avez enregistré l’arrivée de nouvelles recrues ? Nous avons en effet constaté un afflux important de personnes voulant adhérer à notre idéologie. Nous avons ouvert spécialement un salon IRC pour accueillir les nouveaux arrivants, afin de pouvoir leur expliquer notre fonctionnement. Ils peuvent ainsi s'informer, dialoguer avec nous et participer s'ils le souhaitent. Mais Anonymous ne dispose d'aucune structure hiérarchique : les discussions se font toujours via les différents salons du réseau IRC, les sites ou les forums qui relayent les informations et où se discutent les différentes opérations.

Vers une coupure mondiale d’Internet le 31 mars ?
Il y a quelques jours, le web a découvert l’« Op. GlobalBlackOut ». Des internautes se réclamant du mouvement Anonymous ont annoncé vouloir attaquer les 13 serveurs racines d’Internet (l'infrastructure qui soutient Internet, ndlr) et engendrer ainsi une coupure mondiale le 31 mars. Mais pour nos interlocuteurs, « cette opération n’a aucune crédibilité. Tout simplement parce qu’Anonymous n’a nullement l’intention de rendre indisponible un outil que nous utilisons au quotidien et que nous défendons fermement ». D’autant que « cette opération est techniquement irréalisable et reflète le triste niveau des gens qui l’ont annoncée.

Comment peut-on résumer votre combat ?
Anonymous se bat pour les libertés, la justice et respect de la dignité humaine, le droit à l'anonymat et le respect de la vie privée de chacun, sur Internet comme ailleurs. La liberté est un droit auquel rien ni personne ne peut s'opposer. Anonymous dénonce toutes les censures existantes, HADOPI, ACTA, SOPA, PIPA (des lois ou projets de lois français, européens et américains qui, selon eux, menacent la liberté sur Internet, ndlr) qui nuisent à la liberté de chacun. Internet est né libre et doit le rester. La connaissance et le savoir n'ont de valeur que s'ils sont partagés par tous. Nous mettrons tout en œuvre pour préserver ce droit. Nous ne faisons que défendre des principes fondamentaux. Avec les manifestations dans la rue, le mouvement est-il en train d’évoluer ? Rien n'empêche un individu de prendre part à une manifestation. Elles permettent de créer une passerelle entre le virtuel et le réel. Anonymous est une idée née du monde virtuel pour vivre dans le monde réel... Les manifestations permettent au public d’accéder aux messages des Anonymous de façon directe. Le mouvement gagnant en ampleur, celui-ci veut naturellement gagner en visibilité et se séparer de son image principale de hackers. Nous utiliserons tous les moyens que nous jugerons bons et nécessaires pour défendre nos idées.

Anonymous et les sites pédophiles
Anonymous s'est attaqué à des sites pédophiles, notamment avec l'« Op. DarkNet» en octobre 2011 qui a permis de dévoiler plus de 1200 identités. Mais le mouvement en a tiré une leçon: «Il s'est avéré que ça n'a pas eu que des effets positifs sur l'enquête de police, rendant les preuves accumulées non recevables devant un tribunal. Ainsi nous avons aujourd'hui pour mot d'ordre de ne plus intervenir ce sur genre de terrain, même si nous méprisons les personnes s'adonnant à ce genre de pratique.»

A l’approche de la présidentielle, que pensez-vous de la classe politique en France ?
Les politiques ont un raisonnement et une logique qui ne s'appliquent pas au monde numérique. Il faut repenser tout un système plutôt que de s'accrocher à quelque chose qui s'essouffle. ... Le monde dans lequel nous évoluons va beaucoup plus vite que celui que nous connaissions il y a 10 ou 20 ans. En ce qui concerne nos libertés, qu'elles soient numériques ou non, nous serons présents pour leur rappeler les valeurs démocratiques et les droits du peuple lors de nos actions et des manifestations.

Comment voyez-vous l'avenir de votre mouvement ?
Si les gouvernements et les grandes industries prennent en compte de l'avis des peuples, si dans le futur les dirigeants deviennent transparents, alors Anonymous n'aura plus de raison d'exister. Mais au moindre nuage sur la paix et la sécurité de l'Internet, Anonymous continuera de faire entendre sa voix. Les luttes seront les mêmes qu'aujourd'hui, même si nos moyens de revendication et de communication évoluent. Nous serons toujours là pour garantir ce que l'on appelle la « neutralité du net ».

source : Le parisien
Il y aurait plus de 200 milliards d'exoplanètes dans la Voie lactée !
12 janv. 2012
Six années d’observations patientes à la recherche d’effets de microlentille gravitationnelle ont conduit à un résultat qui n’aurait surpris ni Démocrite ni Giordano Bruno. Chaque étoile de notre galaxie aurait au moins une planète : il y aurait donc des centaines de milliards d’exoplanètes. Et la majorité seraient rocheuses ! Presque toutes les exoplanètes découvertes à ce jour l’ont été par la méthode des vitesses radiales ou celle des transits (c’est le cas de Kepler 22b). Mais parmi les plus de 700 connues, une dizaine ont été révélées grâce à la technique des microlentilles gravitationnelles. Pour comprendre en quoi consiste cette méthode, rappelons que lorsqu’un corps céleste passe devant une source de lumière, son champ gravitationnel courbe les rayons qui en sont issus, à la façon d’une lentille. On savait déjà que la gravitation pouvait dévier des rayons lumineux comme les observations d’Eddington l’avaient montré en 1919, lors de la célèbre éclipse qui servit de test à la relativité générale. Mais il avait fallu plus de quinze années avant que Rudi Mandl ne déduise la conséquence naturelle de cette observation et suggère à Albert Einstein qu'il puisse exister dans l'espace de véritables lentilles gravitationnelles. Ce dernier publia donc une petite note en 1936 avec des calculs simples, en concluant : « Bien sûr, il n'y a aucun espoir d'observer directement ce phénomène ». L’effet est faible mais le génial père de la théorie de la relativité générale avait été trop pessimiste. Depuis des dizaines d'années en effet, ce phénomène est employé par les astronomes pour percer les mystères de la matière noire, analyser le rayonnement fossile et même détecter des corps célestes ordinairement invisibles. Si l'on parle d'effets de lentille gravitationnelle fort et faible, celui utilisé par des astronomes pour découvrir des exoplanètes, dans le cadre des observations fournies par les équipes Planet et Ogle, est dit de microlentille gravitationnelle, comme il est expliqué dans un article aujourd'hui publié dans Nature.
Les schémsa expliquant la découverte d'exoplanètes à l'aide de l'effet de microlentille gravitationnelle (gravitational microlensing en anglais). Des compléments d'explications sont dans le texte ci-dessous. © Nasa, Esa, and A. Feild (STScI) Lorsqu'un corps céleste massif, comme un trou noir, une naine brune ou tout simplement une étoile peu brillante effectue un transit sur la voûte céleste devant une étoile plus brillante, le champ de gravitation du corps céleste se comporte donc comme si on interposait une lentille entre l'étoile brillante et nous. Comme on le voit sur le premier schéma à gauche ci-dessus, la courbe de lumière de l'étoile brillante montre une brusque augmentation temporaire de la luminosité apparente sur quelques dizaines de jours. Si une exoplanète tourne autour de l'étoile la moins brillante, on observera un second pic de luminosité durant quelques heures, surimposé sur le premier, comme l'expose le deuxième schéma en partant de la gauche. Ici, le schéma de droite montre une courbe de luminosité durant 30 jours, pour une naine rouge passant devant une étoile jaune, avec une exoplanète en transit conduisant à un pic secondaire de luminosité durant huit heures. Des milliards de planètes ayant une masse similaire à celle de la Terre Détecter des exoplanètes avec cette méthode n'est pas facile. En revanche, les intervalles de masses et de distances (planète-étoile) auxquels on a ainsi accès sont assez étendus. Même avec peu d’observations, on peut obtenir des renseignements précieux sur la distribution en masse des exoplanètes dans la Voie lactée. Des millions d’étoiles ont ainsi été observées, ce qui a conduit Arnaud Cassan (Institut d’astrophysique de Paris), premier auteur de l’article publié dans Nature, à formuler le bilan de cette étude dans les termes suivants : « Nous avons cherché les preuves de la présence d’exoplanètes par la méthode des microlentilles au cours de six années d’observations. Les données que nous avons obtenues montrent de manière remarquable que les planètes sont plus courantes que les étoiles dans notre galaxie. Nous avons également trouvé que les planètes les moins massives, comme les superterres ou les Neptune peu massifs, doivent être plus courantes que les planètes les plus massives. » Cela conforte de précédentes estimations indiquant qu'il y a probablement des milliards d'exoterres dans notre Voie lactée. Nous avons donc des raisons de plus de partir à la recherche de monolithe noir... Source : http://www.futura-sciences.com/fr/news/t/astronomie/d/il-y-aurait-plus-de-200-milliards-dexoplanetes-dans-la-voie-lactee_35994/#xtor=RSS-8
FREE, FREE, let them FREE !
10 janv. 2012
Après de très lourds investissements, Free Mobile se place sur le marché de la téléphonie mobile et compte rentrer rapidement dans ses frais, tant ce marché est actuellement porteur de croissance. L'objectif est en effet rafler 15 % de parts pour 3 milliards d'euros de chiffre d'affaires. Ce mardi 10 janvier, Free présente les conditions de ses offres Free Mobile, devenant de fait le quatrième opérateur mobile en France, après Orange (ex-Itineris), SFR et Bouygues Telecom. Ce sera 19,99 euros (car il ne faut pas dire 20 euros) par mois, ou 16 euros pour les abonnés Free (pardon, 15,99...), pour un abonnement tout compris avec appels vocaux illimités vers la France métropolitaine, les DOM-TOM et 40 pays, plus les SMS et MMS illimités. Free propose également, pour 2 euros mensuels, un service limité dit « social » (une heure d'appel et 60 SMS). Pour cela, le groupe Iliad, propriétaire de Free, a dû mettre sur la table un fonds important. Il lui a fallu tout d’abord s’acquitter d’une sorte de « ticket d’entrée », c'est-à-dire acheter auprès de l’État une licence d’autorisation d’émettre sur le réseau téléphonique 3G. Ce qui lui a coûté 240 millions d’euros en 2009 et provoqué l’ire de ses concurrents. Il faut dire que eux avaient dû, à l’époque de leur entrée sur ce marché, dépenser 619 millions d’euros chacun. Ensuite, Free a investi dans son réseau afin de remplir son obligation de couvrir plus de 25 % de la population métropolitaine au moment du lancement de son offre. Des frais d’infrastructure essentiellement portés vers les zones rurales, pour environ 1,2 milliard d’euros.
Les inscriptions aux différents forfaits Free Mobile sont ouvertes depuis le mardi 10 janvier à 9 h 30. L’ambition de ce nouvel opérateur est de toucher jusqu’à 15 % du marché. © Free Des accords avec Orange pour étendre la couverture Les frais ne s'arrêtent pas là. Free dépense aussi beaucoup pour fonctionner. Il a en effet passé un accord avec Orange pour utiliser son réseau afin d’atteindre le reste de la population, celle qui n’est pas couverte par ses propres infrastructures. L’obligeant à débourser une somme estimée à 250 millions d’euros par an selon Les Echos. Et ceci au moins jusqu’en 2018 où légalement, Free devra couvrir de lui-même 90 % de la population. Et ce n’est pas fini car Free s’est porté candidat pour l’attribution, avec les autres opérateurs, de licences 4G qui permettront d’échanger des données à très haut débit (jusqu’à 60 Mbits/s) sur un smartphone. Sa candidature a été validée pour la bande de fréquence de 2,6 GHz, qui concerne plus les villes et les zones urbaines, contre un chèque de 271 millions d’euros. Elle a par contre été refusée pour la bande de fréquences de 800 MHz, concernant plus les zones rurales. Il lui faudra là aussi payer un concurrent pour y avoir accès. Mais pour celui qui a été le trublion du Net et qui souhaite devenir aujourd’hui celui du mobile, le jeu en vaut la chandelle. Xavier Niel, P-DG d’Iliad, a estimé dans un article du Nouvel Observateur à 3 milliards d’euros par an le chiffre d’affaires potentiel de Free Mobile si celui-ci rafle 15 % du secteur. Il faut dire que ce marché est aujourd’hui gigantesque : 85 % des Français sont équipés d’un téléphone mobile – dont près de 15 % d’un smartphone –, selon les chiffres de la dernière enquête (juin 2011) de l'Autorité de régulation des communications électroniques et des postes (Arcep) et du Conseil général de l’industrie, de l’énergie et des technologies (CGIET). Ce qui représente tout de même 55 millions d’utilisateurs (chiffres Arcep, novembre 2011), et même 67 millions en comptant les cartes prépayées. Au début de l’année 2000, on comptait 22 millions de clients, puis près de 48 millions au début de l’année 2006. Sur les cinq derniers trimestres, la croissance moyenne est de 1,56 %. Le marché de la téléphonie mobile en France est sans cesse en croissance et compte même un plus grand nombre de « clients » que d’habitants, car certains ont plus d'une ligne ou utilisent des cartes prépayées. © Arcep Free Mobile : de l'illimité limité pour désengorger les réseaux À l’heure actuelle, il s’échange plus de 36 milliards de SMS par trimestre et la navigation sur Internet depuis un mobile a augmenté de 9 points en un an, pour toucher 24 % des utilisateurs (et même 76 % des possesseurs de smartphones). La consultation du courrier électronique concerne 19 % des utilisateurs et le téléchargement d’applications payantes 17 %. Sans compter le développement de la télévision mobile. Ces usages variés rapportent de l’argent aux opérateurs par l’intermédiaire des forfaits souscrits et des achats réalisés mais ils encombrent les réseaux et les obligent à revoir leur stratégie. Certains cherchent même à récupérer une partie de leurs investissements en infrastructures par les éditeurs des contenus qui circulent sur le Web mobile. Mais leur premier levier d’action a été de limiter les débits de connexion 3G (norme HSDPA jusqu’à 14,4 Mbits/s en théorie) au-delà d’un certain volume de données téléchargées dans le mois : 500 Mo, 1 Go ou 2 Go selon les abonnements. À ce niveau, il ne devrait pas y avoir de miracle pour Free Mobile, qui fera comme tout le monde, d’autant qu’il utilisera le réseau d’Orange pour un grand nombre de ses clients. Il essaiera également de tirer profit des Freebox de sorte que les utilisateurs mobiles passant près de chez un abonné Internet puissent utiliser une partie de son accès via le Wi-Fi pour soulager d’autant le réseau 3G. Ceci en attendant la 4G dont la généralisation permettra de s’affranchir de ce problème mais pas avant plusieurs années, voire une décennie.
La "Fin du monde" disparait"
07 oct. 2011
Les prédicateurs de tout poil en sont pour leurs frais. Eux qui annonçaient une série de catastrophes associées à la comète Elenin n'avaient pas prévu que l'astre chevelu s'évaporerait avant son passage au plus près de la Terre... Découvrez les comètes en image Elle n'avait rien d'une grande comète. Elenin (C/2010 X1) devait passer à plus de 30 millions de kilomètres de nous le 17 octobre prochain et son éclat aurait alors péniblement atteint la magnitude 6, la rendant à peine décelable à l'œil nu. Rien de comparable à ce qu'avait pu nous offrir par exemple la superbe comète Hale-Bopp en 1997. Et pourtant Elenin était très vite devenue une vedette. Découverte le 10 décembre 2010 par l'astronome russe Leonid Elenin, cette banale comète avait endossé ces derniers mois la responsabilité de tous nos maux dont l'affublaient certains sites Internet pseudo-scientifiques. Au point que de nombreuses mises au point avaient été nécessaires pour expliquer au grand public qu'Elenin n'annonçait pas la fin du monde. Las, la comète Elenin aura déjoué tous les pronostics : victime d'une éruption solaire fatale le 20 août, le noyau s'est disloqué en plusieurs morceaux trop petits pour être détectables dans le coronographe de Soho fin septembre quand la comète est passée à proximité du Soleil. Habitués à l'étrange et imprévisible comportement des comètes, les
Premières images du radiotélescope Alma : les galaxies des Antennes
04 oct. 2011
La superbe paire de galaxies dite des Antennes est la première scène scientifique dévoilée par Alma, le réseau de 66 radiotélescopes en cours de construction au Chili. Alors qu’il n’est que partiellement opérationnel, il est déjà considéré comme le meilleur instrument du genre, comme en témoigne le nombre d'équipes qui a demandé du temps d'observation. Le consortium scientifique en charge d’Alma (Atacama Large Millimeter/submillimeter Array), le réseau d’antennes en millimétrique et submillimétrique en cours d’installation dans le désert d’Atacama, au Chili, vient de rendre publique la première image acquise par ce radiotélescope. Il s’agit des galaxies des Antennes, décrites par Willliam Herschel en 1785 et bien connues des astronomes amateurs. Voisines l'une de l'autre, ces deux galaxies, très déformées par leurs interactions mutuelles, arborent deux longs filaments évoquant des antennes. La qualité de cette image confirme les énormes potentialités de ce nouveau radiotélescope, qui comprendra 66 antennes paraboliques (de 7 m et de 12 m) fonctionnant ensemble, par interférométrie, dont 25 sont réalisées par Thales Alenia Space. « Nous sommes en train de vivre un moment historique pour la science et plus particulièrement pour l’astronomie, et peut-être aussi pour l’évolution de l’humanité, car nous commençons à utiliser le plus grand observatoire en construction actuellement » a déclaré Thijs de Graauw, directeur d’Alma. Les galaxies des Antennes vues par Alma. Lorsqu'il sera pleinement opérationnel, Alma nous dévoilera un univers encore jamais vu. © Alma (ESO/NAOJ/NRAO) De beaux résultats avec un instrument en modèle réduit Pour comprendre l'enthousiasme de Thijs de Graauw, il faut observer cette vue des galaxies des Antennes, la meilleure jamais réalisée dans les longueurs d’onde submillimétriques. Elle montre un niveau de détail qu’aucun autre télescope, qu’il soit sur Terre ou dans l’espace, serait en mesure d’atteindre. En lumière visible, les observations révèlent les étoiles qu’abritent ces galaxies. Dans le domaine submillimétrique, Alma dévoile les nuages de gaz froid très denses à partir desquels se forment de nouvelles étoiles. Or, cette image des galaxies des Antennes a été réalisée grâce à seulement douze antennes, contre 66 en configuration finale ! Dans sa configuration actuelle, seul un tiers de ces 66 antennes fonctionnent ensemble. Le réseau forme, par interférométrie, l'équivalent d'un instrument bien plus grand. Alma n'est donc encore qu'un modèle réduit de ce qu'il sera une fois terminé, en 2013. Ses images seront alors comparables à celles que l'on obtiendrait avec une antenne de 14 kilomètres de diamètre. Pour celle de ces deux galaxies, les antennes étaient au plus distantes de 125 mètres...
04 oct. 2011

De très faibles concentrations d'ozone dans la stratosphère ont été mesurées à la fin de l'hiver 2010 au-dessus de l'Arctique, correspondant à un trou dans la couche d'ozone grand comme cinq fois l'Allemagne environ. Une première !
Parcourez notre dossier climat et couche d'ozone
Alors que l’on considérait que le problème du trou de la couche d’ozone était essentiellement réservé à l’Antarctique, une nouvelle étude publiée dans Nature vient de mettre en évidence la formation d’un trou au-dessus de l’Arctique, d’une grandeur semblable à celui de l’Antarctique au milieu des années 1980.
La première observation d’un trou dans la couche d’ozone a eu lieu en 1985, au-dessus de l’Antarctique, bien que des scientifiques se soient inquiétés dès les années 1970 de l’impact que pouvait avoir l’industrie sur cette couche protectrice. C’est à cette époque que les premières mesures de l’épaisseur de la couche ont été réalisées et pendant la décennie qui suivit, elle demeura relativement stable.
Le froid comme responsable
Mais sous l’intensification de l’activité humaine, notamment via l’utilisation des chlorofluorocarbures (CFC), l’épaisseur de la couche d’ozone a fortement diminué jusqu’à devenir critique. C’est alors qu'est née l’expression « trou de la couche d’ozone ». Ce phénomène est notamment dû à l’effet du chlore, qui entre en relation avec les molécules d’ozone (O3) pour former de l’oxyde de chlore (ClO). Depuis 1987 et le protocole de Montréal, l’utilisation des CFC a été interdite, mais leur effet néfaste est décalé dans le temps. En outre, la libération de chlore dans la stratosphère s’effectue via d’autres moyens et est en plus favorisée par des températures faibles.

Concentration d'ozone au sein de la stratosphère. Les faibles concentrations au-dessus de l'Arctique témoignent du trou dans la couche d'ozone. © Manney et al. 2011 - Nature
Quand ces processus de destruction ne sont pas compensés par la création d’ozone, on observe une diminution de l’épaisseur de la couche. Cela se produit également pendant les périodes froides puisque c’est le rayonnement solaire, en séparant les atomes d’oxygène (O) des molécules de dioxygène (O2), qui permet la création d’ozone. Ainsi, la concentration d’ozone dans la stratosphère diminue pendant les périodes de froid, mais a tendance à augmenter quand la température est plus élevée.
Un trou grand comme cinq fois l’Allemagne !
C’est pour cela que l’on observe une faible épaisseur de la couche d’ozone au-dessus de l’Antarctique, continent le plus froid de la Terre. Mais cette fois-ci, c’est bien le trou au-dessus de l’Arctique qui fait parler de lui. Après l'hiver 2010, un gigantesque trou a été observé dans la couche d’ozone qui abrite l’Arctique. Sa taille équivaut à environ cinq fois la superficie de l’Allemagne soit à peu près 2 millions de kilomètres carrés. Si des pertes importantes d’ozone avaient été observées en 2005, 2000 et 1997, c’est bien la première fois, en 2011, qu’il est possible de parler de trou dans la couche d’ozone. C’est entre 18 et 20 km au-dessus de la Terre que la couche est la plus touchée avec des pertes d’ozone allant jusqu’à 80 %.
Cependant, les scientifiques ont du mal à comprendre, pour l’instant, les raisons de ce record. Si le froid inhabituellement prolongé en Arctique l’année dernière y est pour beaucoup, ils sont en revanche incapables d’expliquer cette fraîcheur durable. C’est bien sûr cet aspect que les chercheurs vont désormais explorer.
L’accroissement du trou d’ozone est un problème majeur puisque cette couche protectrice empêche la pénétration des rayons ultraviolets au sein de la troposphère. Or ces rayons ont la capacité d’endommager l’ADN présent dans les cellules des êtres vivants.
Les Plus Gros Trous Noirs de l'Univers ("Largest Black Holes in the Univ...
27 août 2010
Découverte du système planétaire le plus "peuplé"
26 août 2010
Jusqu’à sept planètes en orbite autour d’une étoile semblable au Soleil.

Des astronomes, en utilisant l’instrument leader mondial HARPS de l’ESO, ont découvert un système planétaire contenant au moins cinq planètes en orbite autour de l’étoile HD 10180, une étoile semblable au Soleil. Les chercheurs ont également des indices très prometteurs indiquant que deux autres planètes doivent être présentes, dont l’une serait la planète la moins massive découverte jusqu’à présent. Si tel est le cas, ce système serait semblable à notre Système Solaire en termes de nombre de planètes (sept planètes comparées aux huit planètes du Système Solaire). De plus, l’équipe a également trouvé des preuves que les distances séparant les planètes de leur étoile suivent un schéma régulier, comme on peut également le voir dans notre Système Solaire.


Le système planétaire autour de HD 10180 (vue d'artiste).
Crédit: ESO/L. Calçada

"Nous avons trouvé ce qui est très probablement le système avec le plus de planètes découvert jusqu’à présent" déclare Christophe Lovis, le premier auteur de l’article présentant ce résultat. "Cette remarquable découverte met également en évidence le fait que nous entrons maintenant dans une nouvelle ère de la recherche des exoplanètes: l’étude de systèmes planétaires complexes et plus seulement celle de planètes individuelles. L’étude des mouvements planétaires de ce nouveau système révèle des interactions gravitationnelles complexes entre les planètes et nous donne des indications sur l’évolution de ce système sur le long terme."

Cette équipe d’astronomes a utilisé le spectrographe HARPS installé sur le télescope de 3,6 mètres de l’ESO à La Silla au Chili pour étudier pendant six ans l’étoile semblable au Soleil, HD 10180, située à 127 années-lumière de la Terre dans la constellation australe de l’Hydre mâle (le Serpent de Mer). L’instrument HARPS, dont la stabilité des mesures et la grande précision sont inégalées, est le meilleur chasseur de planètes au monde.

Grâce aux 190 mesures individuelles d’HARPS, ces astronomes ont détecté un infime mouvement d’avant en arrière de l’étoile dû à l’attraction gravitationnelle complexe de cinq planètes ou plus. Les cinq signaux les plus forts correspondent à des planètes de masse semblable à Neptune – entre 13 et 25 masses terrestres [1] – en orbite autour de l’étoile avec des périodes allant de 6 à 600 jours. Les distances qui séparent ces planètes de leur étoile vont de 0,06 à 1,4 fois la distance Terre-Soleil.

"Nous avons également de bonnes raisons de penser que deux autres planètes sont présentes," précise Christophe Lovis.

L’une des deux devrait être une planète de type Saturne (avec une masse minimum de 65 masses terrestres) tournant autour de l’étoile en 2200 jours. L’autre devrait être la planète la moins massive jamais découverte avec une masse d’environ 1,4 fois celle de la Terre. Elle est très proche de son étoile, à seulement 2 % de la distance Terre-Soleil. Une année sur cette planète durerait seulement 1,8 jour terrestre.

"Cet objet provoque un vacillement de son étoile de seulement 3 km/heure – plus lent que la vitesse d’une personne qui marche – et ce mouvement est très difficile à mesurer," précise Damien Ségransan, un membre de l’équipe. S’il était confirmé, cet objet serait un autre exemple de planète rocheuse chaude, similaire à Corot-7b.

Ce tout nouveau système planétaire découvert autour de HD 10180 est unique pour plusieurs raisons. Premièrement, avec au moins cinq planètes de type Neptune réparties sur une distance correspondant à l’orbite de mars, La région interne de ce système est plus peuplée que celle de notre Système Solaire et on y trouve beaucoup plus de planètes massives [2]. De plus, ce système n’a probablement pas de planète géante gazeuse de type Jupiter. Et de plus, toutes les planètes semblent avoir une orbite pratiquement circulaire.

Jusqu’à présent, les astronomes connaissaient quinze systèmes avec au moins trois planètes. Le dernier détenteur du record était 55 Cancri qui contenait cinq planètes dont deux étaient des planètes géantes. "Les systèmes de planètes de faible masse comme celles autour de HD 10180 se révèlent être assez courants, mais l’histoire de leur formation reste un puzzle," dit Christophe Lovis.


Le ciel autour de HD 10180.
Crédit: ESO and Digitized Sky Survey 2. Acknowledgment: Davide De Martin


En utilisant cette nouvelle découverte ainsi que des données d’autres systèmes planétaires, les astronomes ont trouvé un équivalent à la loi de Titius-Bode qui existe dans notre Système Solaire: la distance qui sépare les planètes de leur étoile semble suivre un schéma régulier [3]. "Ceci pourrait être une signature du processus de formation de ces systèmes planétaires," précise Michel Mayor, qui fait également partie de cette équipe.

En étudiant ces systèmes, ces astronomes ont découvert un autre résultat important: il y a une relation entre la masse d'un système planétaire et la masse et le contenu chimique de son étoile. Tous les systèmes planétaires très massifs ont été trouvés autour d’étoiles massives et riches en métaux alors que les quatre systèmes ayant les masses les plus petites ont été trouvés autour d’étoiles de plus faible masse et pauvres en métaux [4]. De telles propriétés confirment les modèles théoriques en vigueur.

Cette découverte est annoncée dans le cadre du colloque international Detection and dynamics of transiting exoplanets à l’Observatoire de Haute Provence en France.


Notes:

[1] En utilisant la méthode des vitesses radiales, les astronomes peuvent seulement estimer la masse minimum d’une planète car la masse estimée dépend également de l’inclinaison du plan orbital par rapport à la ligne d’observation qui est inconnue. D’un point de vue statistique, cette masse minimum est cependant souvent proche de la masse réelle de la planète.

[2] En moyenne, les planètes situées dans la partie interne du système HD 10180 ont 20 fois la masse de la Terre, alors que les planètes situées dans notre Système Solaire interne (Mercure, Vénus, la Terre et Mars) ont une masse moyenne d’une demi-fois celle de la Terre.

[3] La loi de Titius-Bode indique que les distances séparant les planètes du Soleil suivent un modèle simple. Pour les planètes extérieures, la place de chaque planète est prédite à environ deux fois la distance qui sépare le Soleil de l’objet précédent. Cette hypothèse avait prédit correctement les orbites de Cérès et d’Uranus, mais n’a pas permis de prédire l’orbite de Neptune.

[4] Selon la définition utilisée en astronomie, les “métaux” sont tous les éléments autres que l’hydrogène et l’hélium. Ces métaux, à l’exception de quelques éléments chimiques légers mineurs, ont tous été créés par les diverses générations d’étoiles. Les planètes rocheuses sont faites de "métaux".