lundi 19 septembre 2022

L'art de la construction

 

Le développement est l'une des compétences les plus anciennes exercées par une personne. Dans cet article, nous vous informons sur la construction, de ses racines aux stratégies contemporaines. Le bâtiment, également appelé construction en développement, serait les techniques et l'industrie impliquées dans la construction et l'érection de structures, principalement celles utilisées pour offrir une protection.

La construction est un exercice très ancien de l'être humain. Elle a commencé par la nécessité purement pratique de disposer d'un environnement contrôlé pour atténuer les effets du climat. Les abris construits ont été l'un des moyens par lesquels l'homme a pu s'adapter à une multitude de régions et être un type international.

Les abris de l'être humain avaient d'abord été assez simples et ne survivaient peut-être que quelques temps ou semaines. Néanmoins, au fil du temps, même les structures temporaires deviennent des formes très élaborées comme l'igloo. Des structures de plus en plus durables ont commencé à apparaître, notamment après l'avènement de l'agriculture, lorsque les gens ont commencé à rester dans un même endroit pendant de longues périodes. Les premiers abris ont été des habitations, mais plus tard, d'autres éléments, notamment le stockage des aliments et la cérémonie de mariage, ont été logés dans des propriétés séparées. Certains éléments ont commencé à avoir une valeur aussi bien symbolique qu'utile, marquant le début de la distinction entre structure et développement.

Une brève histoire de la construction est marquée par un certain nombre de tendances. La première est la robustesse croissante des matériaux utilisés. Au début, les matériaux de développement étaient périssables, comme les feuilles, les membres et les peaux d'animaux. Ensuite, des matériaux organiques plus durables - dont l'argile, la pierre naturelle et le bois - et, enfin, des fournitures artificielles - comme la brique, le béton, les métaux précieux et les matières plastiques - ont été utilisés. Une autre tendance est en fait la recherche de propriétés d'une élévation et d'une période toujours meilleures ; ceci a été rendu possible par la croissance de matériaux plus robustes et aussi par l'expertise dans la façon dont les composants agissent et la manière de les utiliser à meilleur escient. Une troisième grande tendance concerne le degré de gestion élaboré dans l'environnement intérieur des structures : une régulation de plus en plus précise de la température de l'atmosphère, des gammes de lumière et de son, de l'humidité, des odeurs, de la vitesse de circulation de l'air et d'autres aspects qui affectent le confort et l'aisance des personnes reste possible. Un autre engouement est l'amélioration de la vitalité disponible pour la méthode de construction, en commençant par la force de la masse musculaire humaine pour arriver aux puissantes machines employées aujourd'hui.

L'état actuel de la construction est compliqué. Il existe certainement un éventail d'articles et de méthodes de construction qui peuvent être axés principalement sur des groupes de variétés de construction ou des marchés. Le processus de conception des structures est hautement préparé et fait appel à des centres d'études qui examinent les qualités et la satisfaction des matériaux, à des responsables du code informatique qui adoptent et imposent des exigences de sécurité, ainsi qu'à des experts en conception et en style qui déterminent les exigences des consommateurs et conçoivent un développement pour satisfaire ces exigences. Le processus de construction est également très préparé ; il contient les fabricants d'articles et de méthodes de construction, les artisans qui les assemblent autour du site de construction, les entrepreneurs en bâtiment qui emploient et organisent la tâche des artisans, et les consultants qui se spécialisent dans des éléments tels que le contrôle de la construction, le contrôle de la qualité et les assurances.

Aujourd'hui, le bâtiment est vraiment un élément considérable des traditions industrielles, une manifestation de leur diversité et de leur complexité et une mesure de son expertise des causes naturelles, qui peuvent produire un environnement construit très différent pour fournir les divers besoins de la communauté. Ce court article retrace d'abord le passé historique de l'aménagement, puis examine ses progrès à l'époque actuelle.

Les structures, comme tous les produits économiques, contrôlent une variété de prix de système en fonction de leur prix de création et de leur valeur pour l'acheteur. Au total, la valeur annuelle totale des constructions en développement à l'intérieur des différents systèmes financiers nationaux est considérable. En 1987, en Amérique, par exemple, elle représentait environ 10 % du produit résidentiel brut, batiment industriel un pourcentage proche de celui qui convient à l'ensemble de l'économie mondiale. En dépit de ces grands idéaux globaux, le prix du système des structures est très inférieur à celui d'autres articles. Aux États-Unis, en 1987, le coût des nouvelles créations variait entre environ 0,50 $ et 2,50 $ la livre. Les coûts les plus bas concernent les propriétés métalliques préfabriquées faciles, tandis que les coûts les plus élevés concernent les propriétés fonctionnellement complexes avec beaucoup de services mécaniques et électriques, y compris les hôpitaux et les laboratoires.

vendredi 22 juillet 2022

Les marchés d'actifs et la pandémie de coronavirus

 Les blocages mis en place dans le monde entier entraîneront d'importants dommages économiques collatéraux. Cette chronique examine les réactions des marchés boursiers avant et après six grandes crises historiques. Les prix des marchés boursiers, comme l'indice Dow, subissent l'impact négatif d'une augmentation de l'incertitude. Les ramifications commerciales des politiques réglementaires, des subventions, etc. mises en place pour contenir la propagation du COVID-19 constituent la plus grande incertitude de la crise actuelle.
Les dangers d'essayer de tirer des leçons générales sur les guerres au milieu du "brouillard de la guerre" sont bien connus. Le même risque s'étend sûrement à la pandémie mondiale COVID-19. Pourtant, la planification stratégique et la révision des plans à la volée se font nécessairement en temps réel, l'évaluation des actifs se fait en temps réel, et l'on peut dire que certaines parties provisoires de la vue d'ensemble commencent déjà à émerger.
Les différences d'approches entre les pays pourraient être particulièrement instructives, mais elles se transforment souvent en débats idéologiques et politiques. Par exemple, le raccourci est devenu : Sommes-nous sur la trajectoire de l'Italie ou sur celle de Singapour /Corée du Sud/Taiwan/Hong Kong - peut-être aussi du Japon ?". Ce dernier groupe, en particulier Singapour, a été surnommé l'étalon-or.1 Il est vrai que la main visible dans ces pays de l'étalon-or a facilité les réponses à la crise pour lesquelles ils étaient bien préparés avec des tests rapides et la recherche des contacts. Dans le même temps, des pays comme les États-Unis et l'Australie ont tendance à être relativement plus décentralisés en termes de planification et de fourniture de services d'urgence. Ceux-ci sont fournis au niveau des municipalités et des États - les réseaux d'aide mutuelle permettent de se prémunir contre les catastrophes locales ou régionales d'une gravité inattendue, comme les ouragans, les incendies, les tremblements de terre ou les surcharges de grippe. Mais la navette des ressources d'aide mutuelle entre les municipalités ou les États n'est pas une solution lorsqu'un facteur commun provoque des urgences dans pratiquement tous les districts en même temps. L'Asie s'était également préparée à la calamité virale commune via son expérience du SRAS il y a près de deux décennies.
Cependant, les généralisations entre pays sur la planification de la reprise après sinistre sont aussi rarement noires et blanches. D'une part, les États-Unis, apparemment décentralisés, disposent d'une armée dont la planification du réseau de défense est centralisée à l'échelle nationale ; d'autre part, en Chine, pays centralisé, les autorités municipales auraient tenté de contrecarrer les premiers signaux du nouveau virus - bien que ce ne soit qu'avec le recul qu'une autorité ait pu comprendre l'ampleur des implications qui allaient se révéler.2
La planification de crise implique également un problème politique/agence bien connu : il est difficile de voir les coûts des crises peu fréquentes qui sont évitées grâce à une bonne planification, mais il est facile de voir les coûts de planification et de préparation initiaux. De la même manière que les portefeuilles de titres avec une allocation en espèces offrent une protection contre le risque de baisse qui semble coûteuse dans un marché haussier, il en va de même pour les ressources immobilisées dans des lits d'hôpitaux vides, la planification du personnel critique et des entrepôts pleins, afin de couvrir la demande de pointe lorsqu'aucun virus n'attaque. Un leadership fort est nécessaire pour continuer à financer les "primes d'assurance" !
Compte tenu d'un certain niveau initial d'assurance/préparation, la plupart des observateurs affirment que les coûts de la maladie et des soins de santé, d'une part, et les coûts économiques des fermetures/arrêts ("dommages collatéraux"), d'autre part, sont plus faibles lorsque l'épidémie est traitée rapidement par des tests approfondis, la recherche des contacts et l'isolement/la mise en quarantaine (le "modèle de Singapour"). À des stades ultérieurs, les tests ciblés et la recherche des contacts sont pratiquement impossibles à réaliser étant donné que la transmission est alors très répandue. Les mesures d'isolement en place actuellement dans des pays comme l'Australie, les États-Unis, l'Italie, etc., constituent un "aplatissement" brutal de la courbe tant citée des ressources médicales nécessaires - ce coup de massue entraîne des dommages économiques collatéraux importants.
Nous pouvons faire quelques calculs à l'envers. Barro (2006) a étalonné un modèle de tarification ex ante du risque de catastrophes économiques majeures au cours du 20e siècle, définies, pour un pays distinct, comme celles entraînant une baisse à court terme de 15 % ou plus du PIB. (Les détracteurs des lockdowns plaisanteront en disant que l'effet anthropique des lockdowns sur les affaires et la production fera que la crise du coronavirus atteindra facilement le seuil de 15%). La prime d'assurance ex ante pour la détention d'un portefeuille de marché d'actions d'entreprises exposées aux catastrophes fait partie de la prime moyenne des actions. Barro soutient que la prime de marché moyenne du 20e siècle se calibre avec une probabilité annuelle de 1 % d'une catastrophe mondiale qui entraîne une baisse du PIB à court terme d'un tiers à la moitié, ce qui correspond à peu près au bilan du 20e siècle. La figure 1 montre le marché boursier (le Dow Jones Industrial Average ou DJIA) tracé à partir de cinq jours avant six crises historiques importantes jusqu'à 12 mois après.
Notez que le marché américain a fini par se remettre de toutes les crises : nous sommes face à un marché qui a survécu. Cela dit, les krachs et les reprises du marché ont donné un tout nouveau sens aux sports extrêmes à l'expression "acheter sur les creux" (ou "tenir sur les creux") dans les pires jours. Les calibrages de Marsh et Pfleiderer (2013) pour l'allocation d'actifs lors de la crise financière de 2007-2009 suggèrent que des primes d'actions ex ante annualisées de l'ordre de 30 à 35 % ont été intégrées aux actions afin de dégager le marché au cœur des crises. Deux des crises, le 11 septembre et la crise de Long-Term Capital Management (LTCM), ont été caractérisées par des reprises assez rapides, ce qui n'est pas surprenant puisque l'événement du 11 septembre s'est avéré être un événement terroriste unique, tandis que le plongeon du marché de LTCM a reflété l'illiquidité du marché suite au défaut souverain russe.
La trajectoire du Dow Jones dans la crise du coronavirus a davantage ressemblé à celle de la Grande Dépression et de la crise des subprimes de 2007-2009 - au vu des derniers chiffres économiques américains3, cette ressemblance semble refléter une anticipation rationnelle du marché quant aux conséquences commerciales, et non les coûts à long terme du virus lui-même. La chute des cours des actions depuis le 21 février est également beaucoup plus importante que lors des précédents cas de maladies infectieuses, notamment la grippe espagnole de 1918. Là encore, ce n'est pas surprenant puisqu'aucun des cas d'infection précédents n'a impliqué un arrêt virtuel de la production - ce qui est illustré de manière spectaculaire dans la figure 2.
La preuve est que les prix des marchés d'actions comme l'indice Dow sont affectés négativement par les augmentations de l'incertitude - les augmentations de l'incertitude du marché au fil du temps rendent plus probables les grandes variations négatives des prix ! Les sources d'incertitude dans le cas du coronavirus pourraient être réparties comme suit :
(1) les propriétés techniques inconnues du nouveau virus ;
(2) les ramifications commerciales des politiques réglementaires, des subventions, etc. mises en place pour contenir la propagation du virus ; et
(3) les changements "nouvellement normaux" dans les chaînes d'approvisionnement mondiales et autres qui pourraient être provoqués par la crise de grande envergure (nous omettons ici de discuter de (3)).
Il est intéressant de noter que le point (1) est en train d'être résolu grâce à un travail dévoué 24 heures sur 24 et 7 jours sur 7 dans la recherche biomédicale. L'opinion des experts suggère que l'incertitude technique liée au virus sera probablement résolue dans l'horizon d'environ un an qu'il faudra pour qu'un vaccin et un traitement soient développés - de manière significative, cet horizon inclut l'élection présidentielle de 2020 et les saisons d'été et d'hiver de l'hémisphère nord. La résolution de l'incertitude serait une bonne nouvelle pour les marchés des valeurs mobilières, mais il est peu probable que la trajectoire sur l'année soit monotone - contrairement, par exemple, à la résolution de l'incertitude économique associée aux élections nationales américaines, que nous avons documentée dans Chan et Marsh (2017) et qui s'étend sur environ six mois. Considérons la planification de la "deuxième vague" dans un pays comme Singapour : son succès initial en matière d'endiguement ne peut être maintenu qu'en contrôlant la deuxième vague et les vagues suivantes de nouveaux cas "importés". Les retombées économiques du contrôle de cette deuxième vague sont susceptibles de poser des frictions économiques majeures. Imaginez le "problème du contrôle de la deuxième vague de Singapour" à une plus grande échelle - disons, entre les pays de l'UE ou même entre les régions chaudes et les régions froides d'un même pays (visiteurs d'Australie occidentale, veuillez présenter votre carte de test négatif à votre arrivée à l'aéroport de Perth...).
Le point (2) pose sans doute la plus grande incertitude pour l'année prochaine. Comme l'indique la couverture de l'Economist de cette semaine, la Terre est largement fermée aux affaires". L'indice actualisé de l'incertitude des politiques économiques (EPU) de Baker, Bloom et Davis n'a jamais été aussi élevé. En fonction de la complexité de la manière dont les économies "redémarrent", il est également concevable que l'incertitude de la sortie du verrouillage soit accentuée par une cascade de faillites d'entreprises et de consommateurs (étant donné l'encours substantiel de la dette des consommateurs américains) - A ne peut pas payer B tant que C ne paie pas A, précisément comme dans le cas où un choc factoriel mondial commun frappe simultanément des grappes économiques. Notez que A pourrait très bien être un État, une agence gouvernementale ou une municipalité. Au moment où nous écrivons ces lignes, les États-Unis viennent d'annoncer un "plan de relance" de 2 000 milliards de dollars, bien qu'il semble plus probable que ces 2 000 milliards de dollars servent à combler les déficits fiscaux déjà induits plutôt qu'à stimuler l'économie. Le sujet de conversation ici pourrait bientôt passer du virus Corona silencieux à la taxe d'inflation silencieuse.

mercredi 8 juin 2022

Les voiles de St Barth

 Près de 30% des inscriptions pour les Voiles de Saint-Barthélemy Richard Mille en 2019 sont un signe indéniable de la popularité de cette régate, réputée pour offrir un mélange parfait de superbes courses, de paysages magnifiques et de la signature de Saint-Barth atmosphère. «Tout est si agréable dans cette régate», a déclaré pour la première fois le marin néerlandais de Curaçao Marijn Van der Straaten, ici pour la première fois en CSA 5. «J'aime le port ici et la façon dont tous les bateaux et le Race Village sont si rapprochés. La mise en place le rend beaucoup plus personnel. C'est comme ça qu'une régate devrait être. Dans CSA 1, Kuka3 (Cookson 50) est en tête de la flotte de sept véhicules, suivi de Pata Negra en deuxième position et Triple Lindy, le deuxième Cookson 50 de la flotte, en troisième position. Selon Rob Trainor, qui navigue à bord de Triple Lindy, le bateau a été nommé par son propriétaire, Joseph Mele, en hommage au geste emblématique de Rodney Dangerfield tiré du film classique «Back to School». L’équipe représente au moins six pays et a navigué. autour du monde dans des événements tels que Sydney to Hobart et maintenant Les Voiles de Saint-Barthélemy Richard Mille. The Kid, un JP-54 skippé par Jean-Pierre Dick, occupe actuellement la cinquième place. "Le jeu était assez serré, en particulier avec les deux Cookson 50", a-t-il déclaré. «Les manœuvres étaient très importantes. Je pense que nous avons bien réussi dans l’ensemble aujourd’hui, sans aucun incident majeur ni manœuvre propre. Je connais St. Barth depuis longtemps, mais c’est la première fois que je participe à cette régate, et c’est tellement beau de courir le long du magnifique littoral. " Crédit Mutuel - SGS commence l'événement 2019 sous la même forme que l'édition 2018 - occupant la première place dans la division CSA 5. Team Island Water World, le plus petit bateau de la régate, est deuxième, et Maelia Caisse d’Epargne Cepac Antilles, troisième. Actuellement en quatrième position, l'équipe J / 105 Sunbelt Realty Jenk, originaire de Caracou et de Bonaire, est ravie de courir pour la première fois aux Voiles de Saint-Barthélemy Richard Mille. «Nous adorons faire de nouvelles régates chaque année, pour voir de nouvelles choses et apprendre de nouvelles îles », a déclaré Van der Straaten, tacticien à bord. Pour John Vincent, skipper du TP42 Phan de la compagnie CSA 3, c’est sa première participation à Saint-Barthélemy. Originaire de Santa Barbara, Californie, il parle déjà d'une expérience magique: «Toute l'île est incroyable, la population, la nourriture, ainsi que les bateaux qui sont ici ne sont pas dans les charts, c'est tout simplement incroyable. C’est déjà l’expérience de navigation la plus spéciale que je connaisse et je navigue toute ma vie. " Vincent navigue avec ses équipages de longue date avec lesquels il court entre la Californie sur un J / 111 et la Floride sur son Aerodyne 38. «Nous avons atteint une vitesse de 20 nœuds aujourd’hui et c’est une chose amusante à faire. Mes autres bateaux sont un peu plus petits que cela et ce bateau est 30% plus rapide. Nous étions les premiers à finir, donc ça fait toujours du bien, mais il va falloir voir comment les cotes fonctionnent pour nous. Quelques problèmes techniques, mais nous pensons pouvoir gagner plus de temps à la régate continue, mais globalement, pour notre première journée de course, je nous attribue un score B +. Phan occupe actuellement la troisième place et aura du pain sur la planche contre les habitués des Voiles, Les Lazy Dog et Kick ‘Jenny des Melges, 32 ans, en première et deuxième places respectivement; avec Taz, un Reichel Pugh 37, en quatrième position. Chris Brody, skipper / propriétaire d’El Ocaso, un J / 122, qui est également tombé sous le charme de Saint-Barth, sortie en mer trimaran de course à Lorient est lui aussi premier joueur des Voiles de Saint-Barth. «Nous l'aimons déjà ici et venons de nous amuser. Nous sommes venus du Royaume-Uni avec ma famille et certains membres de mon équipe habituelle. Bien que nous n’ayons pas fait aussi bien que nous l’espérions aujourd’hui, nous espérons nous améliorer à mesure que la régate se poursuit », a-t-il déclaré avec un sourire. «Les conditions étaient agréables, nous avions un peu de tout, des légers, des lourds et tout est bon. C’est la première fois que nous montons à bord du bateau depuis presque un an, nous devons donc nous rappeler comment la conduire à nouveau. Ce sont toujours les petites choses et la flotte continue de s’améliorer, alors si vous faites de petites erreurs vous êtes martelé pour cela. " 


 

mardi 8 mars 2022

La Mésopotamie et l'influence du Moyen-Orient

 La Mésopotamie est plus qu'une simple région du monde. Le titre vient d'un mot grec signifiant «entre les rivières», parlant de la propriété entre le Tigre et l'Euphrate, mais la région peut être généralement définie pour incorporer la région qui est maintenant l'est de la Syrie, le sud-est de la Turquie et la majeure partie de l'Irak. La région était le centre de la culture dont l'influence s'étendait dans tout le Centre-Orient et jusqu'à la vallée de l'Indus, l'Égypte, ainsi que la Méditerranée. Au sens étroit, la Mésopotamie est bien la région entre l'Euphrate et le Tigre, au nord ou au nord-ouest du goulet d'étranglement de Bagdad, dans l'Irak contemporain ; c'est vraiment Al-Jazirah (« L'île ») des Arabes. Au sud se trouve Babylone, du nom de la ville de Babylone. Néanmoins, dans la perception plus large, le titre Mésopotamie est devenu utilisé pour votre région délimitée au nord-est par les monts Zagros et au sud-ouest par le côté du plateau arabique et s'étendant du golfe Persique au sud-est vers les contreforts de les montagnes de l'Anti-Taureau au nord-ouest. Ce n'est qu'à partir de votre latitude de Bagdad que l'Euphrate et le Tigre s'avèrent vraiment être des estuaires doubles et des fleuves, le rafidan des Arabes, qui ont constamment modifié leurs cours au cours des millénaires. La plaine de basse altitude de la rivière Karun en Perse a toujours été soigneusement liée à la Mésopotamie, mais elle n'est pas considérée comme faisant partie de la Mésopotamie car elle forme son propre système fluvial. Mésopotamie, au sud d'Al-Ramadi (environ 70 kilomètres, ou 110 kilomètres, à l'ouest de Bagdad) sur l'Euphrate ainsi que le flex du Tigre sous Samarra ? (environ 70 miles au nord-nord-ouest de Bagdad), est une terre alluviale plate. Entre Bagdad et la région de l'embouchure du Sha?? al-?Arab (le confluent du Tigre et de l'Euphrate, dans lequel il se jette dans le golfe Persique), il existe une différence de hauteur d'environ 100 pieds (30 mètres). En raison du débit lent de l'eau potable, il y a d'importants dépôts de limon, ainsi que les lits des rivières sont surélevés. En conséquence, les estuaires et les rivières débordent fréquemment de leurs institutions bancaires (et peuvent également changer de cours) s'ils ne sont pas protégés par de hautes digues. Récemment, plus belles villes du monde ils ont été réglementés précédemment à Bagdad en utilisant des canaux d'évacuation avec des réservoirs de débordement. Le sud sévère est vraiment une zone de marais importants et de marécages de roseaux, hawrs, qui, probablement à cause d'occasions antérieures, ont servi de refuge aux personnes opprimées et déplacées. L'approvisionnement en eau ne sera pas normal ; en raison des températures typiques élevées et des précipitations annuelles très faibles, le sol de la simple latitude 35° N est difficile et asséché et impropre à la culture des herbes pendant environ huit mois environ. En conséquence, l'agriculture sans risque de dysfonctionnement des cultures, qui semble avoir commencé dans les zones à plus forte pluviométrie ainsi que dans les frontières vallonnées de la Mésopotamie au 10ème siècle avant notre ère, a commencé en Mésopotamie seule, le véritable système cardiovasculaire de la société, seulement juste après l'invention de l'irrigation synthétique, amenant l'eau sur de grandes étendues de territoire grâce à un réseau de canaux largement ramifiés. Parce que le sol est extrêmement fertile et, avec l'arrosage et le drainage essentiel, produira en grande quantité, la zone sud de la Mésopotamie était une terre d'abondance qui peut aider une population considérable. La supériorité culturelle du nord de la Mésopotamie, qui aurait pu survivre jusqu'à environ 4000 ans avant notre ère, a finalement été dépassée par le sud une fois que les personnes qui y vivaient ont répondu au défi de leur situation. Les problèmes climatiques actuels sont assez similaires à ceux d'il y a 8 000 ans. Une étude en langue anglaise des colonies en ruines dans la zone de 30 miles autour de la ville historique de Hatra (180 miles au nord-ouest de Bagdad) indique que la zone sud des limites de la zone dans laquelle l'agriculture est possible sans irrigation synthétique est restée inchangée parce que le premier arrangement d'Al-Jazirah.

dimanche 20 février 2022

Entracte Cosmique Pour La sonde Voyager 2

 Août 1989, jeune astrophysicien à peine entrée au Centre national d'études spatiales, je suis envoyé en Californie au Jet Propulsion Laboratory (le «JPL»), haut lieu de l'exploration planétaire, afin de vivre en direct le survol de Neptune par la sonde Voyager 2 envoyée dans l'espace 12 ans auparavant. Nous savons que nous allons vivre un moment rare: le premier survol de Neptune, qu'on n'avait jamais encore observé de près. Les images tombent en direct - sur s'extasie sur la couleur bleu profond de Neptune due à la présence de méthane dans son atmosphère. La découverte de geysers d'azote sur la lune Triton est une énorme surprise qui passionne encore les planétologues
En 1966, Gary Flandro, un thésard du JPL, avait publié un article soulignant une occasion unique de survoler les 4 planètes géantes du système solaire (Jupiter, Saturne, Uranus et Neptune) - une opportunité qui ne se reproduitait pas avant 2152! Le JPL convainc alors la NASA de financer les sondes Voyager pour un montant de 250 millions de dollars de l'époque. Mais la NASA n'autorise que les survivols de Jupiter et Saturne dans la mission nominale - sur verra plus tard pour les 2 autres.
Voyager 1 s'approche de la planète Jupiter en 60 jours jupitériens, soit une image toutes les 10 h (1979). Source: NASA / JPL
Chaque sonde, d'une masse de 825 kg, possède 11 instruments pour observer les planètes et pour mesurer le milieu ambiant - champ magnétique, particules énergétiques et ondes radio - et ces derniers sont devenus essentiels au-delà de Neptune pendant la longue sortie du système solaire. Les Voyager ont été précédés de 5 ans plus tôt par les sondes Pioneer 10 et 11 qui étaient trois fois plus légères et donc clairement moins ambitieuses.
Les découvertes scientifiques des sondes Voyager
Panache volcanique sur Io, photographié en 1997 par la mission Galileo. NASA / JPL / Université d'Arizona
Voyager 1 découvre un anneau très fin autour de Jupiter, ainsi qu'une importante activité volcanique sur sa lune Io, prédite quelques mois auparavant: le champ de gravité de la planète géante est tellement important que, couplé à la présence de 3 autres lunes de Jupiter (Europe, Ganymède et Callisto), il provoque un effet de marée qui déforme Io. Cela provoque une énorme dissipation d'énergie à l'intérieur de la lune qui évacue sous forme d'éruptions volcaniques permanentes. Le même phénomène existe sur l'Europe, ainsi que sur Encélade et Titan autour de Saturne.
En survolant Saturne, les Voyager vont découvrir que ses anneaux numérotés de A à G sont en fait constitués de milliers de sillons, comme un disque vinyle. Tous ces sillons sont le résultat d'interactions complexes gravitationnelles, dites «en résonance», entre les grains des anneaux et les multiples lunes situées dans et à l'extérieur de ces mêmes anneaux. De plus, de mystérieuses irrégularités, dites «rayons», ont été identifiées sans qu'on comprenne l'origine à l'époque. Il s'agirait de poussières en lévitation électrostatique se mouvant au-dessus des anneaux.
Les «rayons» de Saturne, imaginés par la caméra grand angle de la sonde Cassini. Crédit: NASA / JPL / Space Science Institute.
Au niveau de Saturne, une décision cruciale a été prix: la sonde Voyager 1 a été déviée de sa trajectoire pour permettre un survol rapproché de Titan, cette lune massive fournie d'une épaisse brume opaque était jugée extrêmement intéressante. Ce survol avait pour objectif de tenter de percer les mystères de Titan, mais Voyager 1 n'a rien vu de particulier sauf une couche atmosphérique «détachée» dans la haute atmosphère En revanche, cette décision a eu une conséquence grave: Voyager 1 n ' a pas pu visiter Pluton en 1986. Une déception qui a fait naître une opportunité: trente ans plus tard, la sonde New Horizons a survolé Pluton, avec des résultats qui n'auraient pas pu obtenir Voyager 1, par exemple l'analyse de son atmosphère d'observation de petites lunes inconnues à l'époque.
Les survivols d'Uranus en 1986 et de Neptune en 1989 nous avons appris exactement tout ce que nous connaissons de ces géantes glacées: pour Uranus, la découverte d'anneaux, de 11 nouvelles lunes et un champ magnétique orienté à 60 ° de l ' axe de rotation de la planète qui reste mystérieux Pour Neptune, mentionnons la découverte des anneaux, six lunes et la «Grande Tache sombre», qui a disparu depuis pour réapparaître 30 ans plus tard aujourd'hui, la NASA envisage un retour vers une géante glacée… pour les années 2040.
Sortir du système solaire
En août 2012, Voyager 1 a atteint l'héliopause, une des frontières du système solaire, zone de transition où le milieu interstellaire arrête le vent solaire; Voyager 2 atteindra cette région en 2018. Cependant, les sondes ne rentrent effectivement dans le milieu interstellaire non affecté par le Soleil que dans plusieurs années. Voyager 1 s'éloigne de nous à la vitesse de 60 000 km / h et devrait survoler l'étoile proche Gleise 445 dans environ 40 000 ans.
Un réseau de grandes antennes radio, au sol, est nécessaire pour communiquer: Californie, Canberra et Madrid se relaient afin d'avoir en permanence au moins un site en visibilité d'une sonde. Mais lors du survol de Neptune, Voyager 2 s'est retrouvée déviée vers le Sud hors du plan des planètes - seules les antennes de Canberra sont en visibilité de Voyager 2.
Pour recevoir les données en provenance des Voyager, on peut utiliser les antennes de 34 m de diamètre, avec un débit très faible: 160 bits / sec. Envoyer des commandes vers Voyager nécessite une revanche des grandes antennes de 70 m, la puissance du signal reçue par l'antenne de 3,7 m des sondes est extraordinairement faible. Déjà vers la fin des années 80, l'éloignement inexorable des sondes Voyager à la NASA à agrandir les grandes antennes (de 64 à 70 m), gagnant ainsi 20% de surface et autant d'énergie tant en réception qu'en émission . Mais ces grandes antennes sont vieillissantes.
L'antenne de 70 m de Canberra est âgée de 48 ans et elle doit être rénovée massivement, pendant 11 mois, pour assurer les communications avec les futures missions martiennes et lunaires qui vont nécessiter de très grands volumes de données à transmettre.
L'antenne de 70 m qui permet normalement d'envoyer des commandes à Voyager 2. Complexe de communication NASA / Canberra Deep Space
Voyager 2 continue d'envoyer des données sur les 34 m mais ne reçoit plus de commandes: la sonde devra gérer par elle-même les éventuelles anomalies qu'elle pourrait subir, grâce à son «mode sans échec», déclenché automatiquement si le calculateur de bord considère que la situation est anormale. Ce mode consiste à orienter l'antenne vers la Terre, et à orienter les panneaux solaires vers le Soleil s'il est est pourvu (ce n'est pas le cas de Voyager qui sont alimentés par une pile nucléaire) et à attendre les ordres. Le risque majeur pour Voyager 2 serait que l'antenne grand gain ne pointe plus la Terre: à cette distance, il est probable qu'il soit impossible de communiquer sur l'antenne faible gain et la mission serait définitivement perdue. Afin de garantir la transmission avec la Terre, Voyager 2 doit maintenir son positionnement à un demi-degré près. Pour cela, la sonde actionne des petits propulseurs une douzaine de fois par jour afin de corriger son attitude car elle a une attitude fixe dans l'espace. Pour cela, la sonde est équipée de gyroscopes et d'accéléromètres pour mesurer à tout moment l'évolution de son attitude. Tous ces systèmes doivent fonctionner sans faille pendant l'année qui vient afin de maintenir le contact avec la Terre.
Irrémédiablement, la fin du Voyager est programmée: du fait de son éloignement progressif qui nécessite de plus en plus d'énergie pour communiquer et de la baisse de puissance de sa pile nucléaire, le JPL a estimé que la perte naturelle de contact aura lieu lieu vers 2025. Encore quelques belles années pour les sondes Voyager.