vendredi 17 décembre 2021

Le survol de l'Alaska

 Certaines rencontres en hélicoptère sont meilleures que d'autres. La possibilité de survoler certains des panoramas les plus pittoresques est toujours un émerveillement. J'ai récemment eu la chance de survoler le parc national Denali en Alaska, ce qui a été une expérience merveilleuse. Parc national et réserve de Denali, immense région avec une atmosphère naturelle intacte de toundra alpine et de forêts boréales (taïga) dans le sud-principal de l'Alaska, États-Unis. Il se situe à peu près à égale distance de Fairbanks vers le nord-est et d'Anchorage au sud-sud-est et est également à quelque 200 kilomètres (320 km) au sud du cercle polaire arctique, dans la zone climatique subarctique. La zone de loisirs et la protection ont été créées en 1980, englobant l'ancienne zone de loisirs nationale du mont McKinley (1917) ainsi qu'une superficie supplémentaire de 6 405 mètres carrés. kilomètres (16 590 km²). En 1976, il a été désigné par l'UNESCO comme une cale de biosphère. La zone de loisirs a une section de 7 408 m². milles (19 187 km²). La protection offre 2 085 kilomètres carrés (5 400 km carrés) supplémentaires et jouxte la zone de loisirs en 2 modèles, l'un au nord-ouest et l'autre au sud-ouest; en outre, Denali Condition Park borde la zone de loisirs nationale autour du sud-est. Le siège de la zone de loisirs à l'échelle nationale se trouve à l'entrée du parc dans le coin nord-est. Une station de gardes forestiers à Talkeetna, à 160 km au sud de l'entrée, s'occupe des activités d'alpinisme dans la zone de loisirs. Il y a plus d'un siècle, deux hommes remarquables ont passé l'hiver dans une cabane non loin du ruisseau Toklat. Leur rencontre et leur interaction avec le paysage sauvage les ont altérés. Par conséquent, ils ont eu une influence puissante sur la conservation du paysage pour les générations futures. Charles Sheldon, un ancien écologiste et chasseur de gentleman du Vermont, ainsi que Harry Karstens, un légendaire amateur de plein air et musher canin, ont trouvé un concept au cours du long hiver pour faire de cet endroit le premier parc national au monde créé pour conserver la faune. En 1917, juste après presque une décennie de travail acharné, Sheldon ainsi que d'autres persuadèrent le Congrès de produire Install McKinley National Park. Quatre ans plus tard, en 1921, Karstens a été embauché comme son premier surintendant. Les hélicoptères se caractérisent par une excellente présence tout autour, grâce à de nombreuses fenêtres dans le cockpit. Même si vous avez le siège central, vous bénéficierez de vues exceptionnelles. Vous serez en mesure de regarder de face, les bords, la liste en dessous de vous et même au-dessus de votre esprit pour les panoramas pendant que vous voyagez. Donc, voler plus que la zone de loisirs nationale de Denali continue d'être incroyable. La zone de loisirs et la réserve englobent le centre de la rude chaîne de l'Alaska et une grande partie de collines réduites et de plaines d'épandage au nord des sommets des montagnes. Le principal vers la zone de loisirs est Denali, le maximum le plus élevé aux États-Unis. Denali (« L'Excellent » ou « L'Élevé ») est le terme historique indien Athabaskan pour le sommet de la montagne. Le maximum a longtemps été appelé Installer McKinley, pour You.S. Le président William McKinley, mais son nom d'origine a été restauré en 2015. Les autres caractéristiques du parc sont les grands glaciers de la chaîne de l'Alaska, Install Foraker - d'une hauteur de 17 400 pieds (5 304 mètres) - et d'autres sommets de la chaîne qui dépassent les niveaux. de 10 000 pieds (3 050 mètres), la région de la rivière Savage à l'ouest du siège du parc et l'atmosphère parfaite de la région. La hauteur établie de Denali à 20 310 pieds (6 190 mètres) a été reconnue par le United States Geological Survey en septembre 2015 après une remesure prudente de la hauteur de la montagne effectuée plus tôt cette année-là. Il a remplacé le besoin de 20 320 pieds (6 194 mètres) qui était l'élévation de l'État depuis le début des années 1950. Avant 2015, d'autres efforts avaient été conçus pour mesurer l'altitude de la montagne. Une étude particulière, menée en 2010, a fait l'expérience de l'utilisation de technologies radar avancées. La conséquence de cette façon de mesurer, 20 237 pieds (6 168 mètres), a été rendue publique en septembre 2013, mais il a ensuite été déterminé qu'elle était inexacte. Les hivers sont longs et extrêmement froids, durent généralement de septembre à avril. Les températures au cours des semaines les plus froides peuvent rester inférieures à -18 °C (°F) pendant de plus longues périodes et peuvent chuter à -40 °F (-40 °C) ou plus frais la nuit. Les étés sont courts (fin mai à début septembre) et frais, avec des plages de températures plus élevées atteignant en moyenne environ 24 °C (75 °F) autour des jours les plus chauds. Les chutes de neige peuvent tomber presque n'importe quel mois. En hiver, les accumulations de neige sont les plus importantes dans la partie sud de l'Alaska Array. Les plages de températures diminuent avec l'altitude et les plages de températures diurnes peuvent être extrêmes, En Hélicoptère en particulier en hiver. Les hélicoptères surmontent les turbulences grâce à leurs corps élégants et leurs pales polyvalentes, ce qui signifie que les passagers ne sentiront rien ! Si les turbulences sont sérieuses, nous ne voyageons tout simplement pas. C'est censé être un vol panoramique agréable, en fin de compte! Lorsque vous le pouvez, faites ce vol en hélicoptère ou un autre jusqu'à chez vous.

lundi 29 novembre 2021

Aider les pays pauvres

 Confronté à une reprise économique mondiale, à un système de réglementation financière international incomplet et à des lacunes de gouvernance dans les institutions multilatérales, le Groupe des Vingt (G-20) devrait avoir une année 2010 chargée. Compte tenu de cet agenda chargé, la décision du président coréen Lee Myung-bak, l'actuel président du G-20, d'inclure le développement comme partie intégrante »de la mission du G-20 est particulièrement louable.
En affirmant l'appropriation de la politique de développement international, le G-20 usurpe le G7, qui était traditionnellement le fer de lance de ce programme. Comment le G-20 pourrait-il aborder le développement différemment de son prédécesseur?
Avant d'essayer de répondre à cette question, il est utile de remonter cinq ans en arrière au sommet de Gleneagles de 2005, pour mieux comprendre l'approche du G7 en matière de développement. Là, au milieu de beaucoup de faste et d'auto-félicitations, les dirigeants du G7 ont convenu d'un nouveau pacte audacieux: un doublement de l'aide mondiale d'ici 2010, avec la moitié de l'augmentation des fonds allouée à l'Afrique, et l'annulation des dettes dues par les plus lourdement- pays en développement endettés. Par ce communiqué, nous ne faisons pas simplement de l'histoire la pauvreté », a alors concédé le Premier ministre britannique Tony Blair, l'hôte du sommet et le principal moteur de sa focalisation sur le développement de l'Afrique. Mais nous montrons comment cela peut être fait. Et nous signifions la volonté politique de le faire. »
À bien des égards, le sommet de Gleneagles a été l'apothéose de l'approche du G7 en matière de développement mondial, amarrée aux principes de la charité et du pardon. Le style et la substance de l'événement reflétaient une perception des pays en développement (et de l'Afrique en particulier) qui avaient du mal à dépasser le mélange étrange de paternalisme, de pathos et de culpabilité qui avait caractérisé la période de l'après-guerre froide. Cela a abouti au programme de développement mondial que nous avons aujourd'hui: celui où les incitations politiques accordent la priorité à l'annonce des engagements lors des conférences de presse au-dessus de la préoccupation pour ce qui est finalement réalisé pour les pauvres du monde. Il y avait également trop de pression sur l'aide et pas assez de souci pour créer un environnement économique mondial propice avec des règles favorables au développement.
Cinq ans plus tard, le sommet de Gleneagles et le hoopla qui l'entoure semblent à la fois désuets et naïfs. Malgré des augmentations importantes du volume de l'aide, les pays du G7 restent en deçà de leurs objectifs, mais à un certain niveau, cet échec est hors de propos. L'allégement de la dette et l'augmentation des flux d'aide ont été remplacés par de nouvelles priorités de développement telles que les États fragiles et la protection des personnes vulnérables face au changement climatique. En outre, il est de plus en plus reconnu que notre compréhension des causes de la croissance et de la manière dont nous pourrions faire disparaître la pauvreté »reste incomplète. Pendant ce temps, le paysage du développement a évolué de manière incommensurable, certains pays émergents devenant des moteurs clés de l'économie mondiale.
Voilà donc le drame complexe dans lequel le G-20 est maintenant entré. Il est déraisonnable de penser que ses membres feront instantanément du développement une priorité absolue ou surmonteront toutes les difficultés politiques qui ont tourmenté le G7. Mais le G-20 apportera une nouvelle perspective au programme de développement, et sur trois questions clés - comment les membres voient leurs rôles par rapport au monde en développement, ce qu'ils gagnent en agissant en tant que groupe et comment ils se tiennent responsables - nous peut s'attendre à voir des changements qui apporteront des dividendes aux pauvres du monde.

La relation du G7 avec le monde en développement a évolué à travers une histoire longue et compliquée vers sa forme actuelle: celle de gardiens éclairés accordant la faveur aux moins fortunés. Bien que ces dernières années, des efforts aient été déployés pour refondre cette relation, le rapport de force sous-jacent a à peine évolué.
La position du G20 vis-à-vis des pays en développement se caractérise moins facilement, notamment en raison de sa composition plus hétérogène. Étant donné le mélange de pays avancés, nouvellement industrialisés, émergents et en développement présents aux sommets du G-20, chaque membre sera lié aux pays pauvres et au processus de développement à sa manière. De plus, les membres présenteront probablement plusieurs personnalités lorsqu'ils aborderont les problèmes de développement. L'Australie, par exemple, participe en tant que donateur d'aide, voisin inquiet des États défaillants et rival acharné des marchés des produits de base dominés par les pays en développement; L'Inde participe à la fois en tant que champion de la solidarité mondiale Sud, une économie qui promet d'être l'une des plus dynamiques au monde et le foyer de la plus grande population de pauvres du monde. Certains membres peuvent être appelés à représenter des circonscriptions au-delà de leurs propres frontières: dans un récent discours, le ministre sud-africain Trevor Manuel a noté qu'au G-20, son pays avait été appelé à s'exprimer différemment pour lui-même, pour l'Afrique et pour les personnes à faible revenu. pays en général.
Une telle complexité risque de rendre tout débat du G20 sur le développement moins prévisible. Pourtant, le fait que l'adhésion au G-20 soit explicitement basée sur une signification systémique - impliquant une responsabilité envers le monde en développement basée sur des faits sur le terrain, plutôt qu'un sentiment de noblesse oblige - pourrait apporter une ténacité aux débats sur le développement qui faisait souvent défaut au G7.
Le but des discussions du G7 sur le développement était généralement de convaincre chaque membre de contribuer un peu plus qu'il ne le ferait autrement, à la manière d'une collecte de fonds caritative. Les invités des pays en développement étaient parfois invités à tirer sur les cordes sensibles des dirigeants du G7, qui à leur tour se laisseraient emporter par des guerres d'enchères, imitant leurs héros d'entreprise. En tant que telles, les réunions du G7 sur le développement n'étaient pas vraiment des exercices multilatéraux, mais plutôt un effort pour amener chaque membre à accroître son aide bilatérale.
À l'inverse, pour le G20, la motivation du rassemblement n'est pas simplement d'encourager chacun à être plus généreux, mais de relever des défis qui nécessitent coopération et coordination. L'approche du développement dans une optique d'action collective modifiera probablement l'orientation de l'aide multilatérale.
Au cours des 18 derniers mois, nous avons vu que la croissance mondiale et la stabilité financière sont des biens publics mondiaux, car sans eux, les perspectives économiques de tout pays vacillent, tout comme une atmosphère propre et un régime commercial équitable et ouvert. On peut s'attendre à ce que l'approche du développement du G20 mette davantage l'accent sur la sécurisation de ces conditions externes de croissance, qui soutiendront indirectement les économies du monde en développement et sortiront les individus de la pauvreté.
Historiquement, le G7 ne s'est pas doté de mécanismes officiels de responsabilisation pour maintenir les décisions prises par ses membres lors des réunions. Une petite pression des pairs ou le fardeau d'une conscience coupable étaient considérés comme des leviers suffisants, convenant à la petite taille et au style club du G7. Les lacunes de cette approche ont été mises en évidence l'année dernière alors que le manquement flagrant de l'Italie à atteindre ses objectifs à Gleneagles a été balayé par ses co-membres.
En revanche, le G-20 a adopté dès le départ le principe de la surveillance indépendante, reconnaissant la nécessité d'un rôle accru des institutions multilatérales pour superviser la mise en œuvre de ses accords. Il ne s'agit pas simplement de promouvoir l'esprit de multilatéralisme, mais de reconnaître que les grands clubs hétérogènes ont besoin d'arbitres pour permettre une action collective. Un tel changement entraînera potentiellement des améliorations indispensables de la transparence et de la responsabilité des politiques de développement, deux défis que le G7 a toujours eu du mal à relever.
Il est peut-être trop tôt pour évaluer comment le G-20 abordera le développement; après tout, le corps dans sa forme actuelle n'a qu'un peu plus d'un an, et ses priorités et machinations internes n'ont pas encore pleinement émergé. Mais si elle est correctement anticipée, cette nouvelle approche du développement semble très prometteuse. En fin de compte, la mesure dans laquelle le G-20 réussira à promouvoir le développement par rapport à son prédécesseur d'antan dépendra largement de la volonté politique des dirigeants de ses membres; c'est à eux de relever ce défi.

jeudi 23 septembre 2021

A l'origine du vol

 Pendant des centaines d'années, les humains ont imaginé voyager par avion. La croyance traditionnelle grecque antique d'Icare, détruite en cherchant à voyager lorsque la tarte de cire sur ses ailes synthétiques a fondu, a été une des premières manifestations du besoin. Cette idée fausse reflétait également la prise de conscience que le transport aérien humain sera difficile, voire impossible. Mais le rêve a persisté. Les écrivains indépendants qui supposaient l'existence de sociétés potentielles incorporaient souvent le vol aérien contrôlé d'êtres humains à leurs histoires utopiques. Cyrano de Bergerac (1619-1655) a défini les voyages interplanétaires dans nombre de ses récits, lorsque Jonathan Speedy (1667-1745) a conçu une immense île tropicale itinérante au centre de votre 3e voyage dans Gulliver's Trips. Les universitaires médiévaux et de la renaissance Roger Bacon (1220? -1292) et Leonardo da Vinci (1452-1519) ont supposé la possibilité d'un vol aérien individuel. Da Vinci a même conçu un appareil plus lourd que l'air avec un parachute. Mais la fuite des êtres humains est restée inachevée jusqu'en 1783. Au XVIIe siècle, les scientifiques comprenaient que la terre était flanquée de gros pétrole. Ils ont supposé qu'il était possible de naviguer dans les mers de l'atmosphère, de la même manière que les navires naviguaient sur l'eau. De nombreux gadgets ont été développés pour atteindre le voyage, y compris des ailes synthétiques et des produits comptant sur la force des tissus musculaires. Les pannes fréquentes de ces gadgets ont conduit à des enquêtes sur des ballons à flux plus léger que l'air. Cette décision semble maintenant mal diagnostiquée, étant donné que les embarcations à débit plus lourd que l'air sont évidemment meilleures que plus légères dans les navires à écoulement plus léger que l'air en termes de potentiel de transport et de gestion. Cependant, la rareté des informations élégantes et le manque d'un générateur adéquat n'ont offert aux inventeurs du XVIIIe siècle aucune décision sur la question. Quelques innovations au XVIIIe siècle ont rendu possible le voyage individuel. Le premier était une fois que le scientifique de langue anglaise Henry Cavendish (1731-1810) a identifié l'hydrogène en 1766. Il a découvert que le métal placé dans une réponse plus faible de la solution d'acide sulfurique créait une essence quatorze fois plus légère que l'oxygène. Puisqu'il était si combustible, il avait été appelé «oxygène inflammable». Le dilemme de l'emploi de l'hydrogène en termes de vol était que celui-ci s'infiltrait sans effort au moyen de matériaux et ne pouvait donc évidemment pas vraiment être contenu dans des matériaux légers. C'était absolument aussi coûteux à fabriquer avec un massif et c'était vraiment dangereux; une inflammation de l'électricité statique pourrait le mettre en feu. Le deuxième problème du XVIIIe siècle qui a conduit au vol humain n'était pas d'ordre médical, mais plutôt de nature interpersonnelle. Les messieurs de type abdominale ont commencé à avoir une merveilleuse fascination pour la recherche scientifique. En partie, cela est devenu le résultat du développement de la mise en œuvre de la recherche vers les entreprises détenues par les cours intermédiaires. Le désir de recherche a également été le signe d'une position sociale plus élevée. La recherche de tests cliniques, même en tant que dilettante, était la preuve qu'une personne possédait le temps libre et les flux de trésorerie essentiels à de telles activités. Ce n'était absolument pas un accident d'automobile que ces gars-là les plus responsables de la progression initiale du voyage aérien individuel étaient des débutants technologiques de type central. Un dernier élément créant un vol individuel efficace était l'impact de votre éveil, un mouvement mental du XVIIIe siècle dépendant de la croyance quand le but et l'enquête technologique avaient été mis sur les circonstances corporelles et sociales, les directives légales régissant ces circonstances peuvent être découvertes. La poursuite de ces directives juridiques entraînerait des progrès sans fin. Cette croyance religieuse dans l'avancement était très forte en France, notamment juste après la lettre d'information de l'Encyclopédie de Denis Diderot (1713-1784), parapente Auvergne un résumé des développements technologiques et scientifiques du siècle. Cela faisait une idée optimiste que cette énigme de voyage humain pourrait être résolue.


 

dimanche 5 septembre 2021

Une nouvelle source d'avantage concurrentiel

Les entreprises qui développent un modèle reproductible pour des fusions et acquisitions fréquentes et importantes offrent systématiquement des rendements pour les actionnaires plus élevés que leurs concurrents moins doués pour les acquisitions. L'un des ingrédients les plus critiques d'une fusion et acquisition réussie est une capacité différenciée à intégrer efficacement les processus commerciaux et les systèmes associés. D'après nos recherches, 70 % des intégrations de processus et de systèmes échouent au début, pas à la fin. En collaboration avec les acquéreurs les plus performants, nous avons identifié les six domaines clés dans lesquels ces sociétés excellent. Par exemple, une intégration informatique appropriée nécessite des investissements que de nombreuses entreprises ne parviennent pas à faire, ce qui entraîne une complexité et une augmentation des coûts sur toute la ligne. C'est pourquoi les meilleures entreprises réévaluent soigneusement les estimations des coûts d'intégration des systèmes avant la clôture et allouent de manière appropriée les ressources et les budgets nécessaires. Nos recherches approfondies au cours des deux dernières décennies sur les fusions et acquisitions ont révélé une vérité durable : une capacité de fusion et d'acquisition reproductible, développée grâce à une activité de fusion et d'acquisition cohérente sur divers cycles économiques, contribue à des rendements plus élevés pour les actionnaires. Ce résultat se maintient d'année en année, dans toutes les industries. Nous avons suivi plus de 1 700 entreprises sur une période de 10 ans et constaté qu'une entreprise moyenne a obtenu un rendement total annuel pour l'actionnaire (TSR) de 6,9 ​​%. Cependant, les entreprises qui ont acquis fréquemment et développé les capacités pour conclure des transactions plus importantes ont fait considérablement mieux, atteignant un TSR de 9,2 %. Sans aucun doute, le succès et l'échec d'une transaction sont davantage une question d'expérience et de capacité cumulatives à conclure des transactions, et moins une fonction de circonstances de transaction autonomes. L'étude des acquéreurs en série nous a montré comment une capacité de fusion et d'acquisition reproductible résulte généralement d'une capacité différenciée à intégrer efficacement les processus commerciaux et les systèmes associés. C'est un ingrédient clé de la recette gagnante d'AB InBev, par exemple. En effet, une intégration informatique bien faite, avec des investissements appropriés en ressources et en budget, crée une meilleure plate-forme pour la croissance future grâce à des acquisitions reproductibles. Les entreprises peuvent intégrer ces acquisitions, se préparer à la transformation numérique, permettre des synergies et maintenir des coûts permanents inférieurs. À mesure que les transactions deviennent plus complexes, l'intégration informatique ne fait que gagner en importance. Malheureusement, c'est aussi un domaine d'intégration qui, selon nous, manque souvent de ressources et dans lequel les coûts peuvent rapidement monter en flèche, créant ou détruisant la valeur de la transaction, et rendant plus difficile la conclusion de la prochaine transaction. Les moins performants de notre recherche sont chargés de quatre à cinq fois plus d'applications que les plus performantes, et de deux à trois fois plus de coûts informatiques (en pourcentage des revenus). Ils ont également trouvé qu'il était 10 fois plus coûteux de conclure la prochaine transaction ou d'ajouter de nouvelles applications (voir la figure 1). Ces coûts plus élevés peuvent compenser les gains de synergie. Une intégration inadéquate des processus et des systèmes augmente la complexité et les coûts au fil du temps En outre, les dirigeants perdent souvent un temps précieux dans les premières semaines et les premiers mois après la conclusion d'un accord en prenant trop de temps pour décider des problèmes critiques, tels que les plates-formes sur lesquelles la nouvelle organisation fonctionnera et la meilleure approche pour l'intégration informatique. Souvent, ils se concentrent sur les mauvais problèmes, y compris sur des projets moins prioritaires comme la fusion de courriers électroniques, d'intranets ou d'autres systèmes qui pourraient continuer à fonctionner de manière indépendante ou avec des connexions corrigées sans ralentir la nouvelle entreprise. Certaines entreprises parviennent à développer des capacités d'intégration informatique reproductibles qui deviennent un avantage concurrentiel, année après année. En collaboration avec les acquéreurs les plus performants, nous avons identifié les six domaines clés dans lesquels ces sociétés excellent. 1. Aligner la thèse d'intégration informatique pour guider l'effort d'intégration D'après nos recherches, 70 % des intégrations de processus et de systèmes échouent au début, pas à la fin. L'hypothèse et l'exécution inadéquates de l'intégration informatique sont les principales raisons de cet échec. Une hypothèse doit aider une entreprise à déterminer si elle doit choisir un ensemble de systèmes, une combinaison des deux systèmes ou des systèmes complètement séparés. Une réponse typique : une colonne vertébrale des systèmes composée du système de traitement des transactions de base (par exemple, ERP, système bancaire de base, etc.), des processus financiers et des données de base est sélectionnée à partir de l'acquéreur ou de la cible en fonction de l'adéquation future, permettant à une entreprise de migrer aux systèmes de l'autre entreprise. Au-delà, l'acquéreur choisit les meilleurs systèmes de l'une ou l'autre entreprise. Il s'agit généralement de l'approche d'intégration la moins chère et la plus rapide. Par exemple, dans une récente fusion d'assurance, la thèse d'intégration informatique a appelé à adopter la colonne vertébrale des systèmes d'une entreprise pour permettre une migration plus facile des systèmes de base. Pour les capacités numériques et autres capacités de différenciation (par exemple, l'analyse de données et l'automatisation des processus robotiques), cependant, une approche de pointe a été adoptée par l'une ou l'autre entreprise. 2. Intégrez les processus et les systèmes rapidement Nous voyons les meilleurs acquéreurs évoluer rapidement lorsqu'ils s'intègrent à un seul ensemble de systèmes. Ils réduisent la perte de talents et la distraction des périodes d'intégration prolongées et ils capturent les synergies plus tôt. La vitesse compte beaucoup. En effet, selon nos estimations, plus de la moitié des synergies commerciales dépendent souvent de l'intégration de systèmes. Une intégration plus rapide des systèmes permet une réalisation plus rapide de ces synergies de revenus et de coûts et une introduction plus précoce de nouvelles capacités technologiques, ainsi que la possibilité de présenter un seul visage au client plus tôt. Nous voyons les acquéreurs les plus performants achever environ la moitié de l'intégration des systèmes dans la première année suivant la clôture et l'autre moitié dans les deux à trois ans suivant la clôture. Cela prend beaucoup plus de temps pour ceux qui manquent d'une approche disciplinée, systématique et reproductible. 3. Allouer de manière appropriée les ressources et le budget Une intégration informatique appropriée nécessite des investissements que de nombreuses entreprises ne parviennent pas à faire, ce qui entraîne une complexité et une augmentation des coûts sur toute la ligne. Des intégrations plus rapides peuvent exiger des investissements initiaux plus élevés, mais les entreprises doivent également s'assurer que leur investissement est approprié et abordable. Nous avons vu que même lorsque les entreprises font les investissements nécessaires, les énormes estimations des coûts d'intégration de systèmes sont encore dépassées de 20 à 50 %. En effet, les entreprises doivent réévaluer les estimations de coûts d'intégration des systèmes avant la clôture. Par exemple, dans deux acquisitions à grande échelle dans l'industrie des produits de consommation, nous avons constaté qu'il existait des opportunités de réduction des coûts de 40 % à 50 % sur les estimations de coûts d'intégration de systèmes sans aucun impact sur la livraison de valeur. 4. Protéger l'agenda numérique tout en faisant progresser l'intégration La transformation numérique est au cœur de l'agenda informatique de la plupart des entreprises. Les entreprises doivent oublier le vieux mantra « intégrer d'abord/puis optimiser ». La transformation numérique doit faire partie de l'intégration : elle fait la différence entre gagner et perdre la course numérique. L'objectif est de trouver un moyen de faire avancer la transformation sans compromettre l'intégration informatique. D'après notre expérience, les meilleurs acquéreurs font de la protection des ressources une priorité pour les deux. 5. Adopter le meilleur des deux talents informatiques, en tenant compte des besoins de transition Les talents informatiques de qualité sont parmi les plus recherchés et les plus difficiles à trouver. Quelle que soit l'approche d'intégration adoptée, la sélection des talents doit être la meilleure des deux et ne pas dépendre des systèmes choisis. Les entreprises doivent également choisir en fonction des exigences à court et moyen terme pour l'intégration elle-même, en conservant les talents indispensables pour des systèmes spécifiques afin d'assurer une migration en douceur. Il est également important de « charger en avant » les ressources. Supposer que le déploiement sera important est un moyen d'accélérer la livraison. Pendant ce temps, des équipes de pompiers dédiées permettent aux entreprises de résoudre les problèmes « fixe maintenant » inattendus. De plus, la colocation de l'équipe d'intégration est essentielle au succès. 6. Réévaluer l'approche informatique et les coûts au moment de l'intégration Les coûts d'intégration informatique et, plus largement, les coûts d'exploitation informatique sont en constante augmentation, car les entreprises doivent investir dans de nouvelles capacités et faire face à une dette technique croissante. De nombreuses entreprises utilisent des approches traditionnelles de due diligence lorsqu'elles fixent des objectifs de coûts informatiques en les basant sur des références historiques. Parfois, le besoin de mesures correctives imposées par les régulateurs (par exemple, céder des entreprises pour répondre à des problèmes de concurrence) complique souvent et augmente les coûts d'intégration informatique ponctuels. Ceux-ci ne sont généralement pas pris en compte au stade de la diligence raisonnable. Ces coûts ponctuels peuvent être si élevés qu'ils peuvent affecter le compte de résultat pendant des années. Nous pensons que les références historiques ne reflètent pas la réalité actuelle de la hausse structurelle des coûts informatiques résultant des efforts de transformation numérique et d'autres complexités transactionnelles. En tant que telles, les initiatives d'intégration et de transformation ne peuvent pas être vues séparément et nécessitent une feuille de route et une analyse de rentabilisation combinées pour éviter les surprises de coûts sur toute la ligne. L'obtention de la feuille de route complète et des objectifs de coûts signifie un examen plus minutieux au moment de la diligence. Le fait est qu'une fois l'affaire conclue, il est trop tard. Mettre tous ensemble Pour voir ces principes en action, considérons la fusion de la First Gulf Bank et de la National Bank of Abu Dhabi pour former la plus grande banque des Émirats arabes unis et l'une des cinq premières au Moyen-Orient, avec une capitalisation boursière d'environ 30 milliards de dollars au moment de l'annonce de la fusion. Alors que les banques étaient autrefois des concurrents opérant avec des portefeuilles de produits similaires et des positions de marché complémentaires, il y avait des différences significatives dans la façon dont chaque banque fonctionnait. Il s'agissait également d'une intégration impliquant deux grandes banques universelles à service complet, ajoutant une complexité considérable à l'intégration globale, en particulier l'intégration des processus et des systèmes. Aucune des banques n'avait réalisé une fusion de cette envergure ni une intégration de systèmes de cette nature. First Abu Dhabi Bank, ou FAB comme on l'appelle maintenant, a adopté les principes les plus performants, offrant finalement une intégration informatique complète dans un délai de 20 mois par rapport à un délai initial de 24 mois (et le délai minimum de 36 mois qu'il faut pour la plupart des acquéreurs dans bancaire). Cela a donné à la banque des avantages significatifs. Il a repris ses activités comme d'habitude bien plus tôt qu'il n'aurait été possible autrement. Dans l'une des unités commerciales, l'intégration des systèmes a été achevée en neuf mois, permettant un retour encore plus rapide aux opérations commerciales régulières. Regardons quelques-unes des façons dont cela a été rendu possible. Une empreinte commerciale intégrée clairement définie et une base de faits informatiques en l'état pour les deux organisations ont éclairé les options et les choix potentiels pour la thèse d'intégration informatique pour l'entité combinée. Cela comprenait l'évaluation des options pour adopter les systèmes de l'une ou l'autre entreprise, tirer le meilleur parti des deux ou adopter de nouvelles solutions pour les composants informatiques clés. La décision a été prise de migrer vers les systèmes de l'une des banques et d'ajouter des systèmes de l'autre banque uniquement là où il y avait des lacunes. Au lieu d'une approche ascendante fastidieuse, les responsables de l'intégration ont investi du temps dès le départ pour aligner la haute direction sur la thèse et les principes directeurs de l'intégration informatique. Cette décision était essentielle pour prendre une longueur d'avance et éviter les barrages routiers plus tard. Les principes directeurs initiaux expliquaient la nécessité d'une intégration rapide pour permettre un seul visage au client et les opérations comme une seule banque, avec une intégration complète dans les 24 mois. Un certain nombre d'autres décisions ont soutenu cet objectif : la décision de migrer d'abord, d'ajouter des fonctionnalités plus tard ; fixer les dates de mise en service à l'avance ; minimiser les projets en vol supplémentaires et les demandes de capacités supplémentaires ; et allouer adéquatement les ressources à l'effort d'intégration. La haute direction s'est alignée sur la thèse d'intégration informatique dans les six semaines suivant le lancement de l'intégration, avec une large adhésion. En trois mois, ils ont confirmé la thèse et mis en évidence les lacunes dans la compréhension avant de passer à la planification détaillée. Une planification détaillée de l'intégration avant le premier jour a permis aux équipes d'intégration d'être prêtes à démarrer la mise en œuvre peu de temps après la clôture et de terminer l'effort d'intégration complet en un temps record. Les tendances récentes en matière de fusions et acquisitions sont susceptibles d'accroître la complexité et les choix des acquéreurs Notre étude des 250 meilleures transactions de 2018 dans le monde a révélé que pour la toute première fois, le nombre de transactions de portée dépasse désormais celui des transactions à grande échelle. Au lieu de rechercher des synergies d'échelle du type recherché par First Abu Dhabi Bank, de plus en plus d'entreprises se tournent vers les fusions et acquisitions pour trouver de nouveaux marchés, de nouvelles zones géographiques et de nouvelles capacités numériques pour les aider à se développer dans un contexte de perturbation croissante du secteur. À première vue, les accords de portée peuvent nécessiter moins d'intégration de processus et de systèmes, avec moins de synergies impactées et moins de processus qui se chevauchent. Cependant, étant donné le lien requis avec le modèle d'exploitation, ces accords offrent en réalité beaucoup plus d'options. Déterminer le bon processus et la bonne solution système signifie répondre à de nombreuses questions. Par exemple, l'entreprise acquise restera-t-elle distincte ou entièrement intégrée ? Quelles fonctions seront partagées entre les deux entreprises ? Quels systèmes ou technologies de distinction dans une entreprise peuvent être appliqués à l'autre ? Pour aider à répondre à ces questions, les entreprises doivent faire la distinction entre l'approche d'intégration des systèmes spécifiques à l'entreprise et ceux destinés aux clients. Certains systèmes de soutien aux entreprises peuvent être partagés. Même si vous n'intégrez aucun des systèmes, vous pourrez peut-être utiliser les capacités d'une entreprise dans l'autre, accélérant ainsi le déploiement de ces capacités dans les deux entreprises. Vous pourriez passer à une infrastructure partagée, à des capacités de réseau et d'utilisateur final. De plus en plus d'entreprises utilisent les fusions et acquisitions pour acquérir de telles capacités numériques, de l'analyse avancée au cloud computing en passant par la sécurité et le développement agile. En fait, la part des fusions-acquisitions axées sur les capacités dans les transactions stratégiques est passée de 2 % en 2015 à 15 % en 2018. Pour ces entreprises, la grande question est de savoir à quelle vitesse pouvez-vous adopter la capacité d'une entreprise à l'autre ? Les acquéreurs les plus performants seront ceux qui réaliseront que vous pouvez obtenir plus de valeur lorsque vous vous intégrez plus rapidement.

mardi 27 juillet 2021

De l'usage des huiles en cuisine

 

De nos jours, en entrant dans un supermarché, on est confronté à une multitude de choix pour chaque produit alimentaire, mais rien de plus que la gamme d'huiles de cuisson actuellement disponibles. Au cours des 50 dernières années environ, de nombreuses nouvelles huiles de cuisson extraites de graines végétales et de noix, telles que l'huile de colza, l'huile de son de riz, l'huile végétale et l'huile de pépins de raisin, ont fait leur apparition sur le marché. Cela a été rendu possible par l'introduction d'équipements de raffinage qui utilisent une chaleur élevée, une pression élevée et/ou des produits chimiques qui blanchissent, désodorisent et neutralisent les huiles pour les rendre propres à la consommation humaine.

Les chercheurs du laboratoire Modern Olives de Victoria ont mené deux expériences différentes en utilisant les principales huiles de cuisson des supermarchés australiens afin de déterminer quelles huiles sont les plus sûres et les plus stables pour cuisiner.

La première expérience a chauffé toutes les huiles à 240 C (pendant environ 20 minutes) et la seconde les a exposées à une température de 180 C pendant six heures. Les deux tests ont été réalisés à des températures supérieures à celles de la cuisine domestique normale, afin que les résultats puissent être appliqués à un environnement de cuisine domestique. Les huiles testées étaient l'huile d'olive extra vierge (EVOO), l'huile d'olive, l'huile de canola, l'huile de pépins de raisin, l'huile de noix de coco, l'huile de son de riz, l'huile d'avocat, l'huile de tournesol et l'huile d'arachide.

Pour évaluer la stabilité et les propriétés sanitaires des huiles, des tests communs ont été effectués sur chaque huile au début, pendant et à la fin de chaque essai. Les deux tests qui ont fourni les résultats les plus importants sont l'évaluation du point de fumée (température à laquelle une huile produit un mince filet continu de fumée bleutée) et un test visant à évaluer le niveau de formation des composés polaires. Les composés polaires sont le principal produit de dégradation formé lorsqu'une huile est chauffée et ont été associés à certains effets négatifs sur la santé, tels que les maladies d'Alzheimer et de Parkinson.

Dans les cuisines industrielles, le pourcentage de composés polaires restant dans les huiles de cuisson (après un usage répété) est le test le plus couramment utilisé pour déterminer quand une huile n'est plus propre à la consommation humaine. Les législations du monde entier visant à faire respecter cette mesure de sécurité recommandent de ne pas dépasser en moyenne 25 % de composés polaires dans une huile avant de devoir la jeter. De toutes les huiles testées, l'huile d'olive vierge extra s'est avérée être la plus stable et a donné des niveaux plus faibles de composés polaires par rapport aux autres huiles.

De plus, cette recherche a réaffirmé que le point de fumée n'est pas le meilleur indicateur de la stabilité d'une huile lorsqu'elle est chauffée. La corrélation entre le point de fumée des huiles et la formation de composés polaires et d'autres produits de dégradation était très faible.

Les résultats des expériences ont montré que l'huile de colza, l'huile de pépins de raisin et l'huile de son de riz étaient les huiles les moins stables lorsqu'elles étaient chauffées, produisant les niveaux les plus élevés de composés polaires.

Cette découverte est d'une grande importance, car ces huiles sont souvent commercialisées comme convenant à la cuisson à haute température en raison de leur point de fumée plus élevé.

Les équipements de raffinage ont permis la production d'une "huile d'olive" à partir d'olives, qui est différente de l'EVOO, car l'"huile d'olive" a subi un traitement supplémentaire et n'est pas d'une qualité suffisante pour être classée comme EVOO. Ce processus entraîne également l'élimination des importants composés végétaux actifs et des antioxydants présents dans l'EVOO, qui jouent un rôle important dans son aptitude à la cuisson et ses bienfaits pour la santé.

La cuisine avec l'EVOO est la pierre angulaire du régime méditerranéen depuis des milliers d'années.

Un mythe courant veut que l'huile EVOO ne soit pas une huile adaptée à la cuisson à haute température. Ce mythe est souvent lié au fait que l'huile a un point de fumée bas - cependant, il n'y a aucune preuve scientifique pour soutenir cela. Au contraire, il existe de nombreuses preuves démontrant que l'huile d'olive vierge extra est non seulement très stable pour la cuisson (par exemple, poêle, friture, sauté, cuisson au four), mais qu'il est également souhaitable et sain de le faire.

Les recherches menées par Modern Olives ont confirmé que l'huile d'olive vierge extra est non seulement sûre pour la cuisson, mais qu'elle est aussi l'huile la plus adaptée à la cuisson à haute température. L'EVOO reste stable lorsqu'elle est chauffée en raison d'une variété de facteurs :

- Elle est riche en antioxydants naturels, qui empêchent l'huile de se décomposer lorsqu'elle est chauffée. En revanche, les huiles raffinées sont dépourvues d'antioxydants naturels et connaissent donc des niveaux de dégradation plus élevés lorsqu'elles sont chauffées. Il est également prouvé que, lorsqu'elle est chauffée, l'huile EVOO conserve la plupart de ses antioxydants et, par conséquent, la plupart de ses propriétés nutritionnelles.

- L'EVOO est pauvre en graisses polyinsaturées, un type de graisses qui a plus tendance à se dégrader lorsqu'il est chauffé (en raison de sa structure chimique).

- Les deux facteurs ci-dessus sont essentiels à la "stabilité oxydative" d'une huile, c'est-à-dire à sa résistance à la réaction avec l'oxygène, à la décomposition et à la production potentielle de composés nocifs lorsqu'elle est exposée à une chaleur continue.

- Il est permis de réintroduire une quantité limitée d'antioxydants dans les huiles de graines raffinées, mais ces antioxydants artificiels ne protègent pas aussi bien l'huile lorsqu'elle est chauffée, ou dans le corps en tant que piégeur de radicaux libres.

- L'EVOO est produite naturellement par des moyens mécaniques et n'a pas subi de raffinage. Le processus de raffinage peut entraîner la production de sous-produits de dégradation de l'huile et prépare ces huiles à se dégrader plus facilement lorsqu'elles sont chauffées pendant la cuisson.

Autres avantages pour la santé de la cuisine à l'EVOO

De nombreuses recherches démontrent aujourd'hui les nombreux bienfaits de l'huile d'olive vierge extra pour la santé, qui sont principalement associés aux niveaux élevés d'antioxydants naturels contenus dans cette huile.

Lorsque l'on cuisine avec une huile, il y a un échange entre les aliments et l'huile. Par exemple, la plupart des aliments cuits dans de l'EVOO contiendront une proportion plus élevée de graisses mono-insaturées saines que l'aliment original.

Une recherche publiée en 2015 a montré des preuves convaincantes que la cuisson des légumes dans l'EVOO entraînait des niveaux plus élevés de polyphénols par rapport aux légumes crus. Cette étude a évalué l'impact de diverses méthodes de cuisson (friture, sauté, ébullition) sur la teneur en polyphénols de la pomme de terre, de la tomate, de l'aubergine et du potiron. Les résultats ont montré que la friture et le sautage de ces légumes dans de l'EVOO ont entraîné une augmentation de la teneur en matières grasses et de la teneur totale en phénols par rapport à l'aliment cru seul.

Les légumes du genre Brassica, comme le brocoli, les choux de Bruxelles, le chou-fleur et le chou frisé, contiennent une famille de phytonutriments connus sous le nom de glucosinolates, dont il a été démontré qu'ils protègent contre le cancer. Les glucosinolates étant solubles dans l'eau, ce nutriment sera perdu si les légumes sont bouillis, blanchis ou cuits à la vapeur avec de l'eau. Lorsque les légumes de la famille des brassicacées sont cuits dans de l'EVOO, cours de cuisine les phytonutriments glucoslinolates sont conservés.

vendredi 11 juin 2021

Incentive en temps de récession

 Ce que les entreprises, en particulier les petites entreprises, veulent éviter, c'est de réduire le coût de leurs produits ou services au point de nuire au résultat final.
Toutefois, si vos primes sont conçues pour attirer des clients dans votre entreprise parce qu'ils veulent ce que vous avez à offrir, le prix sera moins important que la valeur.
Par exemple, bon nombre des principaux fabricants américains de voitures et de fourgonnettes de grande taille ont offert des rabais et des incitations en plus de rabais toujours plus généreux. Pourtant, les petites voitures économes en carburant, assorties de moins d'incitations, se vendent plus, car de plus en plus de consommateurs les considèrent comme une meilleure valeur compte tenu de la flambée des prix de l'essence.
En période de récession, trois facteurs pratiques et psychologiques sont en jeu. Ils vous indiqueront comment vous souhaitez utiliser les incitations.
Des centaines d'études soulignent: - La question pratique des consommateurs ayant un revenu disponible moindre,
- La question pratique de notre société surchargée de ressources, qui manque de temps, et
- La question psychologique des inquiétudes générales sur l'avenir en raison des incertitudes créées par une économie faible.
Alors, posez-vous d'abord la question: Quelles mesures d'incitation puis-je fournir pour remédier aux problèmes d'argent, de temps et d'intérêt général des consommateurs?
- Pouvez-vous proposer des valeurs "économiques" par rapport aux réductions de prix?
- Est-il temps de se concentrer sur la manière dont vos services ou produits peuvent faire gagner du temps?
- Comment pouvez-vous résoudre un problème? Pouvez-vous promouvoir vos produits ou services en tant que réponse à une ou plusieurs préoccupations des consommateurs, y compris des préoccupations économiques générales? Pouvez-vous positionner votre entreprise comme un choix fiable?
Voici des stratégies d'incitation pratiques pour les entreprises de toutes tailles:
- Regroupez-vous pour créer des valeurs permettant d'économiser de l'argent. Les entreprises de téléphonie mobile et de câblodistribution ont largement profité de la combinaison de leurs services. Revenez sur vos produits ou services et posez les questions suivantes: Comment puis-je en emballer deux ou plus et promouvoir ce nouveau forfait en tant que "nouvelle valeur économique" qui fera gagner du temps aux consommateurs?
- Utilisez le langage "valeur". L'accent devrait être mis sur les mots "valeur", "économie d'argent" et "gain de temps" par rapport aux mots "bon marché", "remise" et "aubaine". Si vous êtes plus rapide, plus fiable et plus complet que vos concurrents, vous économiserez de l'argent. Pourquoi? Parce que le temps, séminaire entreprise c'est de l'argent et que vous économisez du temps aux clients.
- Offrez un cadeau. Qui n'aime pas les cadeaux? Les cartes-cadeaux ont été l'un des secteurs les plus dynamiques dans la catégorie des incitations. Un "cadeau" ne doit pas nécessairement se présenter sous la forme d'une carte-cadeau. Une entreprise peut offrir un livre blanc spécial ou un article utile au client, ou une heure gratuite de vos services pour un "x" nombre d'heures facturées.
- Concentrez-vous sur la gratuité gratuitement. "Free" est une carte de visite puissante. Au lieu de réduire les prix que vous ne pouvez pas vous permettre de réduire, concentrez-vous sur ce que vous pouvez "ajouter" et qui est gratuit. Offrir des abonnements gratuits à des newsletters électroniques en ligne offrant des informations pratiques et précieuses. En cette ère de l'information, l'information c'est de l'argent, alors offrez l'information gratuitement.
- Récompensez vos vrais clients bleus. Lorsque l'argent est serré, les consommateurs vont faire des achats de comparaison. Les entreprises qui ne prêtent pas attention à leurs véritables clients peuvent devenir vulnérables si elles les prennent pour acquis. Les détaillants haut de gamme offrent à leurs clients très dépensiers des valeurs spéciales telles que des événements sur invitation uniquement ou des chèques-cadeaux. Quelles informations ou quels événements sur invitation seulement pouvez-vous fournir à vos clients véritablement bleus?
- Récompensez vos nouveaux clients. Vous souhaitez également que vos nouveaux clients deviennent vos futurs clients véritablement bleus. Offrir des incitatifs destinés aux nouveaux clients.
- Partenaire pour offrir des avantages. Un autre moyen d'offrir des incitatifs sans réduire vos frais ou encourir des coûts supplémentaires est de vous associer. C'est également un moyen intelligent d'élargir votre base de clients. Un cabinet de services financiers peut s'associer à un cabinet d'avocats pour proposer un séminaire en ligne ou sur site gratuit sur le droit et l'argent. Les hôtels travaillent en partenariat avec des grossistes pour proposer des dégustations de vin ou de fromage. Choisissez un partenaire avec une clientèle compatible.
- N'oublie pas tes employés. En période de récession, n'oubliez pas que vos employés sont également des consommateurs inquiets, à court d'argent, sans ressources et inquiets. Offrir des incitations internes, par exemple, mettre de côté un avantage offert aux clients car l'incitation des employés fonctionne bien. Offrez une journée de congé qui améliore vos résultats en permettant aux employés de se détendre et de se ressourcer. Ensuite, eux aussi, peut survivre à la récession.

dimanche 16 mai 2021

Privatiser la sécurité sociale

 Au cours des dernières semaines, les partisans de la privatisation de la sécurité sociale, y compris les membres de la commission présidentielle sur la réforme de la sécurité sociale, ont introduit un nouvel argument en faveur d'une restructuration spectaculaire du système. Ils affirment que les actifs contenus dans le fonds fiduciaire de la sécurité sociale ne sont pas réels »mais simplement des reconnaissances de dette du gouvernement. Cette affirmation est fausse - et ce serait évidemment le cas si la Sécurité sociale était en mesure d'acquérir des actions et des obligations de sociétés de la même manière que les fonds de pension privés, les fonds de pension des employés publics et le Régime de pensions du Canada (l'équivalent canadien de la sécurité sociale).
La détention d'actifs du secteur privé produirait des rendements plus élevés pour les fonds fiduciaires de la sécurité sociale. Il faciliterait également la transition de la sécurité sociale d'un véhicule qui finance la dette publique à une entité qui reçoit un paiement du gouvernement.
Ceux du lobby de la privatisation s'opposent à l'élargissement des options d'investissement pour la sécurité sociale. Ils affirment que ces fonds seraient soumis à des ingérences politiques et qu'ils seraient suffisamment importants pour perturber les marchés de capitaux privés. Mais peu de preuves soutiennent la première préoccupation, et ce dernier problème »peut facilement être évité.
Les fonds des régimes de retraite d'État et locaux, le Federal Thrift Savings Plan pour les employés fédéraux et le Régime de pensions du Canada ont tous obtenu d'excellents rendements financiers tout en maintenant les coûts bas et en évitant l'ingérence politique dans les décisions d'investissement.

Comment? Premièrement, ils ont des mandats organisationnels explicites pour maximiser le retour sur investissement des contributeurs. Deuxièmement, ils ont des conseils d'administration indépendants, dont les membres servent généralement de longues périodes. Troisièmement, ils sous-traitent la gestion de portefeuille sur une base concurrentielle. Enfin, ils mettent l'accent sur l'investissement dans de larges placements indexés.
Ce n'est pas sorcier financier. Avec des dizaines de millions de bénéficiaires actuels et futurs de la sécurité sociale, le Congrès maintiendrait certainement une politique de non-intervention. Une fois les préoccupations concernant l'ingérence politique résolues, les inquiétudes concernant la taille des fonds d'investissement publics peuvent être résolues de plusieurs manières.
Une réponse consiste à limiter la taille d'un fonds, en créant de nouveaux fonds qui sont gérés séparément (et en privé) une fois que le fonds public atteint une certaine taille. Cette pratique est déjà utilisée en Suède, qui dispose de six fonds pour gérer les excédents accumulés dans son système de retraite public partiellement financé. Le gouvernement a imposé des limites à la proportion d'une seule entreprise - et du marché total - qui peut être détenue par des fonds individuels et collectivement par tous les fonds.
Mais quelle taille est trop grande? Une norme consisterait à limiter la taille d'un fonds d'investissement de la sécurité sociale à environ la taille de la plus grande entreprise d'investissement privé. En 1999, Fidelity était la plus importante, avec 3,3% des actions nationales, suivie de Barclay's Global Investors avec 2,1% et State Street Global Advisors avec 1,6%. Une fois qu'un fonds d'investissement de la sécurité sociale aurait atteint, disons, 3% du marché, il ne recevrait plus de nouveaux fonds d'investissement provenant des excédents de la sécurité sociale. Au lieu de cela, le gouvernement établirait un nouveau fonds d'investissement, encore une fois géré de manière privée, pour recevoir de nouveaux fonds. Un mécanisme un peu plus compliqué pour limiter la taille impliquerait de répartir les fonds de la sécurité sociale entre les gestionnaires de fonds au prorata des cotisations 401 (k).
Bien que la logistique et les coûts de mise en place et d'administration d'un système pour les investissements de la sécurité sociale ne soient pas négligeables, ils sont minimes par rapport aux coûts de création d'environ 100 millions de comptes individuels, dont beaucoup recevraient des contributions modestes et irrégulières de bas salaires. Un système d'investissement des réserves du fonds fiduciaire en actions paierait beaucoup moins de frais qu'un système de compte individuel - c'est pourquoi la plupart des gestionnaires de fonds privilégient ce dernier.
Constituer des réserves de sécurité sociale et les investir dans des titres du secteur privé offre les avantages des comptes individuels sans les risques et les coûts. Il a le potentiel d'augmenter l'épargne nationale et offre aux participants des rendements plus élevés et plus risqués associés aux investissements en actions.
En regroupant les investissements et en réduisant au minimum les coûts de transaction et de déclaration, l'investissement collectif produirait des rendements nets plus élevés que les comptes d'épargne personnels. Mais contrairement aux comptes d'épargne personnels, un programme de sécurité sociale partiellement financé avec des investissements en actions garantit des revenus de retraite prévisibles en maintenant une structure à prestations définies qui permet au système de répartir les risques entre la population et les générations.

mercredi 17 mars 2021

L'impasse sur le climat

 Les principaux pays développés ont clairement indiqué qu'ils n'accepteraient aucun régime excluant les économies émergentes telles que la Chine et le Brésil, et les États-Unis et d'autres pays `` parapluies '' ne demandent que des engagements volontaires ascendants. Pourtant, les principaux pays en développement ont fait de l'équité la condition sine qua non de tout type d'accord: ils n'accepteront pas d'objectifs de réduction des émissions obligatoires avec des implications perçues pour leur croissance économique et leur développement social, à moins que les pays les plus riches ne s'engagent à réduire les émissions en profondeur et agissent en premier. . Ces positions enracinées entre les différents blocs ont conduit à l'impasse actuelle, mais comme l'a souligné l'économiste et philosophe lauréate du prix Nobel, Amaryta Sen, l'accord parfait qui ne se produit jamais est plus injuste qu'un accord imparfait qui peut être obtenu.
Quelle est la manière juste et faisable de sortir de l'impasse, étant donné que tous les efforts sont en train de faiblir? La tâche la plus difficile consiste à déterminer la part équitable d'un pays des réductions d'émissions requises d'une manière politiquement réalisable. Après 20 ans de négociations et d'impasse, il est clair que de nombreux principes conflictuels d'équité sont mis sur la table, donc une solution devra être basée sur une sorte de «justice négociée» ou un «compromis équitable» qui ne être préféré par un seul groupe de pays. Quelques exigences de base doivent être remplies. Un accord climatique réalisable, équitable et efficace doit impliquer les plus grands émetteurs des pays développés et en développement. Un tel accord doit trouver un moyen d'engager ces derniers sans trop les pénaliser ni les anciens pays. Pour garantir le progrès, il doit avant tout être acceptable pour les deux superpuissances mondiales et les principaux émetteurs de carbone, la Chine et les États-Unis. avec ce leadership, en fait, d'autres émetteurs suivront probablement. Cet accord pourrait être forgé dans un cadre «plurilatéral» où un nombre limité de pays se réuniraient d'abord, puis seraient intégrés aux négociations officielles des Nations Unies comme base d'un futur accord, peut-être d'ici à 2015.

mercredi 10 mars 2021

Des émotions pour la finance

 Face aux événements extrêmes comme les krachs boursiers, les réactions émotionnelles influencent le prix de décision financière. Qui est Danny / Shutterstock
Les événements extrêmes sur les marchés financiers sont rares, mais leur impact s'est produit parfois massif, comme l'a récemment montré l'effondrement des marchés boursiers mondiaux en mars 2020 dans le contexte de la pandémie de Covid-19. Inattendus, les événements extrêmes de type krach boursier provoquent un effet de surprise, et sont susceptibles de déclencher une forte réaction émotionnelle.
Pourtant, la finance traditionnelle est conçue pour s'appliquer en «temps normal», c'est-à-dire quand les rendements des actifs se situent dans une fourchette de valeurs standard.
Les événements extrêmes font peu l'objet d'étude en économie. Récemment, de nombreux travaux ont cependant montré que la demande d'un fort retour sur investissement par les actionnaires par rapport aux rendements des obligations pouvait s'expliquer par une prime de risque associée aux phénomènes extrêmes comme les krachs boursiers.
Cependant, ces travaux l'élargissement de côté de l'étude des réactions émotionnelles des investisseurs face à ces événements extrêmes. Ou, nos travaux expérimentaux nous ont permis de conclure que les émotions négatives jouent un rôle prépondérant et complexe sur le prix de décision des investisseurs.
Analyseur de commentaires l'impact des émotions?
Selon les théories traditionnelles de la prise de décision telles que la théorie de l'utilité espérée ou la théorie des perspectives (Théorie des perspectives), les émotions n'ont pas de conséquence sur la prise de décisions. Elles sont uniquement décrites comme des effets secondaires. L'investisseur est supposé être guidé par une évaluation objective et purement statistique de la rentabilité des actifs.
A contrario, selon les partisans de l'hypothèse du «risque comme sentiment» ou de «l'heuristique de l'affect» (affect heuristique), les émotions ressenties au moment de prendre une décision affectant bien la manière d'exercer un actif.
C'est la raison pour laquelle il demeure essentiel pour les chercheurs de prendre en compte les émotions dans leurs études économiques et financières des choix risqués.
Outre le rôle des émotions, un autre défi dans l'étude des événements extrêmes réside dans la rareté des données concernant et leur caractère idiosyncrasique (chaque évènement avantageux de manière originale, selon les événements qui sont propres). En effet, dans le domaine de la finance, les événements extrêmes de type krachs boursiers possèdent tous des caractéristiques spécifiques.
Pour répondre à ces défis, nous avons mis au point un nouveau protocole expérimental pour étudier les réactions physiologiques des investisseurs à ces événements extrêmes. La mise en place d'un environnement de laboratoire contrôlé a permis de produire de manière crédible et cohérente des événements improbables et d'étudier le rôle des émotions.
Celles-ci ont été captées au moyen de la réactance électrodermale (activité électrique biologique enregistrée à la surface de la peau), fortement liée à la sudation, en situation d'évaluation des perspectives d'investissement.
86 participants à cette expérience ont ainsi eu pour tâche de placer 300 enchères successives pour acquérir un actif financier qui offrait une petite récompense positive (soit 10, 20, 30, 40 ou 50 centimes) dans plus de 99% des cas et une grosse perte relatif (1000 centimes) autrement. La perte était à la fois très improbable (0,67%) et suffisamment importante pour réduire à néant les gains accumulés par les participants et leur faire faire faillite.
Le rôle complexe des émotions négatives
L'étude a mis en évidence que les investisseurs qui observent un événement extrême sans subir de perte ont tendance à diminuer leurs enchères. Cet effet est particulièrement prononcé lorsque les participants présentent:
un «biais de récence», c'est-à-dire qu'ils s'appuient sur de petits échantillons pour actualiser les réponses d'évènements rares;
ou un «biais de disponibilité», c'est-à-dire qu'ils estiment la réponse d'occurrence d'un événement en fonction de la facilité avec laquelle des cas pertinents leur reviennent en mémoire.
En revanche, les investisseurs qui subissent des pertes extrêmes ont tendance à augmenter leurs enchères. Cette réaction est particulièrement prononcée chez les investisseurs qui réagissent de façon émotionnelle aux pertes et expriment de la colère.
Cependant, la peur conduit les investisseurs averses aux pertes à diminuer leurs offres après avoir vu les événements extrêmes sans subir de perte. Pour eux, le sentiment de peur prend finalement le pas sur celui de la colère.
Ainsi, un événement négatif peut avoir des effets complètement différents sur le comportement des investisseurs selon l'émotion (peur ou colère) qu'il a engendré. Ce phénomène a d'ailleurs été également étudié dans un contexte non financier donnant naissance à la théorie de l'appréciation des émotions.
Enfin, les investisseurs qualifiés d'émotionnels - pour ceux qui ont les émotions mesurées par l'activité électrodermale en début d'expérience étaient fortes - ont proposé des enchères plus basses et étaient moins susceptibles de subir des pertes et de faire faillite que les investisseurs moins émotionnels. Ces investisseurs ont également réalisé des bénéfices plus élevés lorsque les événements extrêmes étaient fréquents.
Ce résultat contraste avec l'opinion commune selon lequel les investisseurs devaient contrôler leurs émotions à tout moment. Un certain niveau d'anxiété pourrait donc nous protéger d'évènements extrêmes qui autrement amèneraient notre ruine.
D'après la théorie de l'évolution des émotions, celles-ci ont une fonction ancestrale qui consiste à augmenter nos chances de survie. Pour l'investisseur, elles pourraient être une protection efficace contre le boursier krach et la faillite.

Tempest: un avion de chasse utilisant la technologie électrique

 Au cours des cinq dernières années, Moves-Royce a été le pionnier des technologies planétaires qui contribueront au système Tempest de prochaine technologie du Royaume-Uni. Dans un effort pour être plus électrique, plus intelligent et pour acheminer plus de puissance, Rolls-Royce a reconnu que tout avion de chasse à long terme peut avoir des degrés inégalés de besoin de force électrique et de remplissage d'énergie; tous doivent être maintenus dans le contexte de l'avion furtif. Avant la sortie du système Tempest, Rolls-Royce avait déjà commencé à répondre aux besoins de l'avenir. En 2014, la société avait relevé le défi de concevoir un générateur électrique pour débutants qui avait été entièrement intégré dans la clé du générateur à turbine à essence, désormais appelé générateur de démarrage électrique inséré ou système de démonstration E2SG. Conrad Banks, ingénieur principal pour les programmes futurs de Rolls-Royce, a déclaré: «Le générateur-débutant inséré à moteur électrique permettra d'économiser de la surface et offrira la quantité substantielle de force électrique nécessaire aux futurs combattants. Les moteurs d'avion existants créent de l'énergie au moyen d'une boîte de vitesses sous le générateur, aviation qui pousse un générateur. En plus d'incorporer les composants de déplacement et la complexité, l'espace nécessaire loin du générateur pour cette boîte de vitesses et ce générateur aide à agrandir la cellule, ce qui est défavorable au sein d'une plate-forme furtive. »La deuxième étape de ce programme a maintenant été mise en œuvre dans le cadre de Moves- Contribution de Royce au système Tempest. Dans le cadre de cette quête, l'entreprise n'a cessé de renforcer ses capacités sur le marché de l'aérospatiale, de la technologie des turbines à essence aux systèmes intégrés de force et de propulsion. L'objectif étant de fournir non seulement la poussée qui propulse un avion vers le ciel, mais également la puissance électrique nécessaire à toutes les méthodes à bord ainsi que le contrôle de toutes les charges thermiques résultantes. Rolls-Royce s'adapte à la réalité selon laquelle la plupart des futures voitures, que ce soit sur la propriété, dans l'atmosphère ou en mer, auront des quantités d'électrification considérablement plus importantes pour les capteurs d'énergie, les techniques de communication, les armements, les méthodes d'actionnement et les modules complémentaires, ainsi que l'habituel. sélection de l'avionique. Le lancement de la scène parmi le système E2SG a révélé des dépenses substantielles dans la création d'un service électrique incorporé - une maison de contrôle unique exactement où les moteurs à turbine à essence pourraient être réellement connectés à un système électrique à courant continu.