La théorie du réfrigérateur des archéologues suisses obtient un résultat sympa

La théorie du réfrigérateur des archéologues suisses obtient un résultat sympa

Les archéologues suisses semblent avoir résolu un mystère sur un célèbre site romain. Ils sont arrivés à la conclusion que certains puits mystérieux du site archéologique étaient utilisés comme méthode de réfrigération. L'équipe pense que c'est ainsi que les Romains conservaient leur nourriture dans la ville antique. Bien que controversée, la théorie pourrait aider les experts à comprendre les fosses énigmatiques qui ont longtemps déconcerté les enquêteurs.

La colonie romaine sur le Rhin

L'équipe a travaillé sur le site archéologique et le musée en plein air d'Augusta Raurica, à environ 20 kilomètres (14 miles) de Bâle. Le site était à l'origine une colonie romaine - la plus ancienne colonie connue sur le Rhin. Elle est devenue un grand centre urbain et finalement la capitale de la province locale. Il a été dévasté lors d'une invasion de tribus germaniques au cours du 3 rd crise du siècle et la population s'est réinstallée ailleurs.

Le site est riche en vestiges archéologiques, notamment une basilique, un forum, un théâtre et un aqueduc. Il y a aussi un ensemble de puits qui s'enfoncent à environ 4 mètres (12 pieds) de profondeur dans la terre. La raison de la construction des puits a longtemps laissé les experts perplexes. Diverses théories avaient été avancées, dont une selon laquelle les puits étaient utilisés comme lieux de réfrigération des fournitures. Selon SWI, les « Romains sont connus pour avoir utilisé de tels trous pour stocker des fruits, des légumes, des huîtres, du fromage et d'autres produits qui s'envolent ».

  • Ancienne technologie de pointe : des Yakhchals de 2 400 ans ont conservé de la glace dans le désert
  • Comment les statues de l'île de Pâques ont reçu leurs chapeaux : rapport final
  • Un navire de 7 200 ans raconte la montée des élites

Le théâtre romain d'Augusta Raurica. ( CC BY-SA 3.0 )

Tester la théorie

Une équipe dirigée par le professeur Peter-Andrew Schwarz de l'Université de Bâle a décidé de mener un test pour déterminer si les puits auraient pu être utilisés pour réfrigérer des aliments et des boissons. Ils ont développé une expérience simple, ils ont placé une bouteille de bière et d'autres articles dans un puits en avril 2018. Ils ont ensuite, selon le site Web de The Local, " emballé dans de la neige neigeuse compactée et recouverts de paille " dans le puits et ses murs doublés avec de la paille pour voir si la bière et les autres produits pouvaient être réfrigérés. Cette technique était basée sur celle qui est encore pratiquée sur l'île espagnole de Majorque. La semaine dernière, quatre mois après avoir placé les articles dans le puits, l'équipe d'experts a découvert à leur grand plaisir que les articles étaient encore froids.

Ce test ne prouve pas de manière concluante que les mystérieux puits ont été utilisés pour réfrigérer des aliments et des boissons. Cela montre qu'il est possible que ce soit le cas. La section locale rapporte que c'est la « troisième et la plus réussie fois que l'équipe tente de recréer la glacière des Romains ». Les tentatives précédentes n'avaient pas été couronnées de succès, même si de la glace et de la neige avaient été utilisées. Lorsque les membres de l'équipe de l'Université de Bâle ont découvert que la bière était encore fraîche, ils l'ont célébrée en la buvant.

  • Des graines vieilles de 2 800 ans récupérées dans un ancien château en Turquie pour être ramenées à la vie
  • Les futuristes enthousiasmés par ces innovations qui changent le monde
  • La plus ancienne huile d'olive d'Italie découverte dans un pot particulier

Sol en mosaïque avec des esclaves servant à un banquet, trouvé à Dougga (IIIe siècle après J.-C.). (CC BY-SA 2.0)

Un réfrigérateur, en théorie et maintenant en pratique

L'équipe suisse pense maintenant que les puits d'Augusta Raurica étaient utilisés pour garder les aliments et les magasins au frais pendant les étés chauds. Les puits, comme dans leur expérience, étaient remplis de neige et de glace pendant l'hiver et au début du printemps. Cela a aidé à garder les puits au frais, tout comme le fait qu'ils étaient souterrains. Cela signifierait que la population locale pourrait garder les approvisionnements frais pendant les mois d'été. La capacité de conserver les aliments signifierait que les habitants d'Augusta Raurica avaient accès à des denrées périssables pendant une plus grande partie de l'année, contribuant peut-être à la croissance et au développement de la colonie.

Conclusions froides

Le site d'Augusta Raurica a fourni de nombreuses informations importantes sur la vie dans les provinces romaines. L'expérience menée par l'équipe suisse pourrait montrer que les Romains avaient développé une manière sophistiquée de conserver leur nourriture. Il convient de noter que, bien que le test indique que les puits pouvaient conserver des magasins, l'équipe a reconnu que les puits ne semblaient pas avoir été en mesure de garder les produits au frais pendant une période prolongée.

Il semble probable que certains n'accepteront pas la théorie selon laquelle les puits ont été utilisés pour la réfrigération, mais ce test a prouvé qu'il s'agissait d'une fonction possible.


    Comment fonctionne un réfrigérateur ?

    La plupart des gens ne sauraient pas quoi faire sans réfrigérateur, car il y a peu de choses qui peuvent apaiser leur gorge desséchée autant qu'un verre d'eau fraîche.

    Bien qu'il y ait eu des techniques que les gens utilisaient dans les temps anciens pour s'approvisionner en eau froide, ce n'était certainement pas aussi facile que d'ouvrir une porte à la maison et de prendre une bouteille d'eau glacée. Même s'ils pouvaient avoir de l'eau froide à boire, ils n'avaient certainement rien pour garder leur nourriture au frais pendant des jours, voire des semaines.

    Heureusement, nous avons un petit truc qui fait toutes ces choses pour nous &ndash un frigo !

    Dans cet article, nous examinerons la science d'un réfrigérateur, en particulier les différentes parties d'un réfrigérateur et comment elles fonctionnent réellement ensemble pour conserver nos aliments plus longtemps.


    Réfrigération

    Nos rédacteurs examineront ce que vous avez soumis et détermineront s'il faut réviser l'article.

    Réfrigération, le processus d'élimination de la chaleur d'un espace clos ou d'une substance dans le but d'abaisser la température.

    Dans les pays industrialisés et les régions riches du monde en développement, la réfrigération est principalement utilisée pour stocker les aliments à basse température, inhibant ainsi l'action destructrice des bactéries, des levures et des moisissures. De nombreux produits périssables peuvent être congelés, ce qui leur permet d'être conservés pendant des mois, voire des années, avec peu de perte de valeur nutritive ou de saveur ou de changement d'apparence. La climatisation, l'utilisation de la réfrigération pour le refroidissement de confort, s'est également répandue dans les pays plus développés.

    Avant l'introduction des systèmes de réfrigération mécanique, les peuples anciens, y compris les Grecs et les Romains, refroidissaient leurs aliments avec de la glace transportée des montagnes. Les familles aisées utilisaient des caves à neige, des fosses creusées dans le sol et isolées avec du bois et de la paille, pour stocker la glace. De cette manière, la neige tassée et la glace pouvaient être conservées pendant des mois. La glace stockée était le principal moyen de réfrigération jusqu'au début du 20e siècle, et elle est encore utilisée dans certaines régions.

    En Inde et en Egypte, le refroidissement par évaporation a été utilisé. Si un liquide se vaporise rapidement, il se dilate rapidement. Les molécules de vapeur montantes augmentent brusquement leur énergie cinétique. Une grande partie de cette augmentation est puisée dans l'environnement immédiat de la vapeur, qui est donc refroidi. Ainsi, si l'eau est placée dans des plateaux peu profonds pendant les nuits tropicales fraîches, son évaporation rapide peut provoquer la formation de glace dans les plateaux, même si l'air ne descend pas en dessous des températures de congélation. En contrôlant les conditions d'évaporation, il est possible de former de cette manière même de gros blocs de glace.

    Le refroidissement causé par l'expansion rapide des gaz est aujourd'hui le principal moyen de réfrigération. La technique du refroidissement par évaporation, telle que décrite jusqu'ici, est connue depuis des siècles, mais les méthodes fondamentales de la réfrigération mécanique n'ont été découvertes qu'au milieu du 19ème siècle. La première réfrigération artificielle connue a été démontrée par William Cullen à l'Université de Glasgow en 1748. Cullen a laissé l'éther éthylique bouillir dans un vide partiel, mais il n'a cependant pas utilisé le résultat à des fins pratiques. En 1805, un inventeur américain, Oliver Evans, a conçu la première machine de réfrigération utilisant de la vapeur au lieu du liquide. Evans n'a jamais construit sa machine, mais une machine similaire a été construite par un médecin américain, John Gorrie, en 1844.

    On pense que la réfrigération commerciale a été lancée par un homme d'affaires américain, Alexander C. Twinning, en 1856. Peu de temps après, un Australien, James Harrison, a examiné les réfrigérateurs utilisés par Gorrie et Twinning et a introduit la réfrigération à compression de vapeur dans le brassage et la viande. industries d'emballage. Un système un peu plus complexe a été développé par Ferdinand Carré de France en 1859. Contrairement aux machines à compression de vapeur antérieures, qui utilisaient de l'air comme liquide de refroidissement, l'équipement de Carré contenait de l'ammoniac à expansion rapide. (L'ammoniac se liquéfie à une température beaucoup plus basse que l'eau et est donc capable d'absorber plus de chaleur.) Les réfrigérateurs de Carré étaient largement utilisés, et la réfrigération par compression de vapeur est devenue, et est toujours, la méthode de refroidissement la plus largement utilisée.

    Malgré l'utilisation réussie de l'ammoniac, cette substance présentait un grave inconvénient : si elle fuyait, elle était à la fois désagréable et toxique. Les ingénieurs frigoristes ont cherché des substituts acceptables jusqu'aux années 1920, lorsqu'un certain nombre de réfrigérants synthétiques ont été développés. La plus connue de ces substances a été brevetée sous la marque Fréon. Chimiquement, le fréon a été créé par la substitution de deux atomes de chlore et de deux atomes de fluor pour les quatre atomes d'hydrogène dans le méthane (CH4) le résultat, le dichlorofluorométhane (CCl2F2), est inodore et n'est toxique qu'à des doses extrêmement importantes.

    Les composants de base d'un système de réfrigération à compression de vapeur moderne sont un compresseur, un condenseur et un dispositif de détente, qui peut être une vanne, un tube capillaire, un moteur ou une turbine et un évaporateur. Le liquide de refroidissement gazeux est d'abord comprimé, généralement par un piston, puis poussé à travers un tube dans le condenseur. Dans le condenseur, le tube d'enroulement contenant la vapeur traverse soit de l'air en circulation, soit un bain d'eau, ce qui élimine une partie de l'énergie thermique du gaz comprimé. La vapeur refroidie passe à travers un détendeur vers une zone de pression beaucoup plus basse à mesure que la vapeur se dilate, elle tire l'énergie de sa détente de son environnement ou du milieu en contact avec elle. Les évaporateurs peuvent refroidir directement un espace en laissant la vapeur entrer en contact avec la zone à refroidir, ou ils peuvent agir indirectement, c'est-à-dire en refroidissant un milieu secondaire tel que l'eau. Dans la plupart des réfrigérateurs domestiques, le serpentin contenant l'évaporateur entre directement en contact avec l'air dans le compartiment alimentaire. A la fin du processus, le gaz chaud est aspiré vers le compresseur.

    Dans les années 1960, certaines caractéristiques des semi-conducteurs ont commencé à être utilisées pour la réfrigération commerciale. Le principal d'entre eux était l'effet Peltier, du nom du chimiste français Jean Peltier, qui a observé en 1834 que les courants électriques traversant la jonction de deux métaux différents faisaient parfois refroidir la jonction. Lorsque la jonction est réalisée à partir de semi-conducteurs tels que le tellurure de bismuth, l'effet Peltier est d'une amplitude suffisante pour permettre son utilisation commerciale.

    Les rédacteurs de l'Encyclopaedia Britannica Cet article a été récemment révisé et mis à jour par Adam Augustyn, rédacteur en chef, Reference Content.


    Combien de temps le fromage peut-il rester non réfrigéré ?

    En règle générale, les fromages à pâte molle, y compris le fromage cottage, ne doivent pas être conservés au réfrigérateur pendant plus de quelques heures. Certains fromages à pâte dure peuvent être laissés hors du réfrigérateur presque indéfiniment, à condition que la pièce dans laquelle ils sont conservés soit maintenue à une température ne dépassant pas environ 80 degrés Fahrenheit et que le fromage soit conservé de manière appropriée.

    Les fromages de toutes sortes doivent être réfrigérés entre 35 et 40 degrés Fahrenheit afin de préserver la fraîcheur et d'éviter les moisissures. Cependant, comme les fromages à pâte dure tels que le parmesan et le romano ont moins d'humidité, ils restent souvent frais même sans réfrigération. Les fromages plus mous, comme le brie et la ricotta, ont plus d'humidité et doivent donc absolument être réfrigérés pour éviter la détérioration.


    Le processus d'adaptation

    Jean Piaget (1952 voir aussi Wadsworth, 2004) considérait la croissance intellectuelle comme un processus de adaptation (ajustement) au monde. Cela se produit par l'assimilation, l'accommodation et l'équilibration.

    Assimilation

    Piaget a défini l'assimilation comme le processus cognitif consistant à intégrer de nouvelles informations dans les schémas cognitifs, les perceptions et la compréhension existants. Les croyances générales et la compréhension du monde ne changent pas en raison des nouvelles informations.

    Cela signifie que lorsque vous êtes confronté à de nouvelles informations, vous donnez un sens à ces informations en vous référant aux informations que vous possédez déjà (informations traitées et apprises précédemment) et essayez d'intégrer les nouvelles informations dans les informations que vous possédez déjà.

    Par exemple, un enfant de 2 ans voit un homme chauve sur le dessus de la tête et qui a de longs cheveux crépus sur les côtés. Au grand dam de son père, le bambin crie « Clown, clown » (Siegler et al., 2003).

    Hébergement

    Le psychologue Jean Piaget a défini l'accommodation comme le processus cognitif de révision des schémas cognitifs existants, des perceptions et de la compréhension afin que de nouvelles informations puissent être incorporées. Cela se produit lorsque le schéma existant (connaissance) ne fonctionne pas et doit être modifié pour traiter un nouvel objet ou une nouvelle situation.

    Afin de donner un sens à certaines nouvelles informations, vous ajustez les informations que vous avez déjà (schémas que vous avez déjà, etc.) pour faire de la place à ces nouvelles informations.

    Par exemple, un enfant peut avoir un schéma pour les oiseaux (plumes, voler, etc.) et puis il voit un avion, qui vole aussi, mais ne correspondrait pas à son schéma d'oiseau.

    Dans l'incident du "clown", le père du garçon a expliqué à son fils que l'homme n'était pas un clown et que même si ses cheveux ressemblaient à ceux d'un clown, il ne portait pas de costume amusant et ne faisait pas de bêtises pour rendre les gens rire.

    Avec ces nouvelles connaissances, le garçon a pu changer son schéma de « clown » et adapter cette idée à un concept standard de « clown ».

    Équilibrage

    Piaget croyait que toute pensée humaine cherche l'ordre et est mal à l'aise avec les contradictions et les incohérences dans les structures de la connaissance. En d'autres termes, nous recherchons un « équilibre » dans nos structures cognitives.

    L'équilibre se produit lorsque les schémas d'un enfant peuvent traiter la plupart des nouvelles informations par assimilation. Cependant, un état de déséquilibre désagréable se produit lorsque de nouvelles informations ne peuvent pas être insérées dans les schémas existants (assimilation).

    Piaget croyait que le développement cognitif ne progressait pas à un rythme régulier, mais plutôt à pas de géant. L'équilibration est la force qui anime le processus d'apprentissage car nous n'aimons pas être frustrés et chercherons à rétablir l'équilibre en maîtrisant le nouveau défi (l'accommodation).


    Les récents rapports de théorie scientifique renversée sont prématurés

    L'équipement du Fermilab Muon g-2 est utilisé pour mesurer les propriétés magnétiques des muons.

    Le 7 avril 2021, la communauté scientifique mondiale a regardé avec une grande attention les scientifiques basés au Fermi National Accelerator Laboratory présenter un résultat de recherche que les médias scientifiques ont largement rapporté. Une nouvelle mesure était en désaccord de manière très significative avec les prédictions. Ce désaccord aurait pu être une preuve solide que les scientifiques devraient repenser leur théorie. C'est une perspective passionnante, si c'est vrai. Cependant, un article théorique a été publié le même jour que le résultat expérimental qui met toute la situation dans la tourmente.

    La nouvelle mesure expérimentale impliquait les propriétés magnétiques de particules subatomiques appelées muons. Les muons sont essentiellement des cousins ​​lourds de l'électron. Comme l'électron, le muon a à la fois une charge électrique et il tourne. Et toute charge électrique en rotation crée un aimant. C'est la force de l'aimant que les chercheurs ont mesurée.

    Il est possible pour les scientifiques de calculer la relation entre la force de l'aimant et la quantité décrivant la quantité de spin. En ignorant certaines constantes, le rapport entre la force magnétique et la quantité de spin est appelé "g". En utilisant la théorie quantique des années 1930, il est facile de montrer que pour les électrons (et les muons) que g est exactement égal à deux (g = 2).

    Des mesures en 1947 ont révélé que cette prédiction n'était pas tout à fait juste. La valeur mesurée de g était plus proche de 2,00238, soit environ 0,1% de plus. Cet écart aurait pu être simplement une erreur de mesure, mais il s'est avéré que la différence était réelle. Peu de temps après la mesure, un physicien du nom de Julian Schwinger a utilisé une forme plus avancée de mécanique quantique et a découvert que la prédiction précédente était incomplète et que la valeur correcte pour g était en effet 2,00238. Schwinger a partagé le prix Nobel de physique 1965 avec Richard Feynman et Sin-Itiro Tomonaga, pour avoir développé cette forme plus avancée de mécanique quantique.

    Cette forme plus avancée de la mécanique quantique considérait l'effet d'une particule chargée sur l'espace qui l'entoure. Au fur et à mesure que l'on s'approche d'une particule chargée, le champ électrique devient de plus en plus fort. Ce champ renforcé s'accompagne d'énergie. Selon la théorie de la relativité d'Einstein, l'énergie et la masse sont équivalentes, donc ce qui se passe, c'est que l'énergie du champ électrique peut temporairement se convertir en une paire de particules, une matière et une antimatière. Ces deux particules se reconvertissent rapidement en énergie et le processus se répète. En fait, il y a tellement d'énergie impliquée dans le champ électrique à proximité, par exemple, d'un électron, qu'à tout moment il y a plusieurs paires de particules de matière et d'antimatière en même temps.

    3 Tempêtes potentielles - Quel système de début de saison des ouragans aura un impact sur les États-Unis ?

    Avons-nous simplement trouvé la plus grande «chose» rotative de l'univers?

    Une nouvelle découverte astronomique remet en question le « principe copernicien » vieux de 500 ans

    Un principe appelé le principe d'incertitude de Heisenberg s'applique ici. Ce principe quantique dit que des paires de particules de matière et d'antimatière peuvent apparaître, mais seulement pendant une courte période. De plus, plus les particules sont massives, plus elles ont du mal à apparaître et elles vivent moins longtemps.

    Parce que l'électron est la plus légère des particules subatomiques chargées, elles apparaissent le plus souvent (avec leur contrepartie antimatière, appelée positon). Ainsi, autour de chaque électron se trouve un nuage d'énergie provenant du champ électrique, et un deuxième nuage d'électrons et de positons vacillant dans et hors de l'existence.

    Ces nuages ​​sont la raison pour laquelle le facteur g des électrons ou des muons n'est pas exactement de 2. L'électron ou le muon interagit avec le nuage, ce qui améliore les propriétés magnétiques de la particule.

    C'est donc la grande idée. Au cours des décennies suivantes, les scientifiques ont tenté de mesurer avec plus de précision les propriétés magnétiques des électrons et des muons. Certains chercheurs se sont concentrés sur la mesure des propriétés magnétiques des muons. La première expérience tentant de le faire a été réalisée en 1959 au laboratoire du CERN en Europe. Parce que les chercheurs étaient plus intéressés par les nouvelles corrections quantiques qu'ils ne l'étaient avec la prédiction des années 1930, ils ont soustrait le « 2 » des années 1930 et n'ont examiné que l'excès. C'est pourquoi cette forme d'expérience est maintenant appelée l'expérience « g-2 ».

    Les premières expériences mesurant les propriétés magnétiques du muon n'étaient pas très précises, mais la situation s'est améliorée au fil des ans. En 2006, des chercheurs du Brookhaven National Laboratory à Long Island, New York, ont mesuré une valeur extrêmement précise des propriétés magnétiques du muon. Ils ont mesuré exactement 2,0023318418, avec une incertitude de 0,0000000012. C'est une mesure impressionnante par toutes les normes. (Les numéros de mesure se trouvent à cette URL (page 715).)

    Le calcul théorique des propriétés magnétiques du muon est tout aussi impressionnant. Une valeur communément acceptée pour le calcul est 2,00233183620, avec une incertitude de 0,00000000086. Les données et la prédiction concordent, chiffre pour chiffre pour neuf endroits.

    Deux mesures (rouge et bleu) des propriétés magnétiques du muon peuvent être statistiquement combinées . [+] dans une mesure expérimentale (rose). Cela peut être comparé à une prédiction théorique (vert), et la prédiction et la mesure ne concordent pas.

    Implications

    Un si bon accord doit être applaudi, mais la caractéristique intéressante réside dans un léger désaccord persistant. Les scientifiques enlèvent tous les chiffres qui s'accordent et refont la comparaison. Dans ce cas, le nombre théorique est de 362,0 ± 8,6 et le nombre expérimental est de 418 ± 12. Les deux sont en désaccord de 56 avec une incertitude de 14,8.

    Lorsque l'on compare deux nombres générés indépendamment, on s'attend à un désaccord, mais l'accord doit être à peu près de la même taille que l'incertitude. Ici, le désaccord est 3,8 fois l'incertitude. C'est étrange et cela pourrait signifier qu'une découverte a été faite. Ou cela pourrait signifier que l'une des deux mesures est tout simplement fausse. Lequel est-ce?

    Pour tester le résultat expérimental, une autre mesure a été effectuée. En avril 2021, des chercheurs du Fermilab, le laboratoire phare de physique des particules aux États-Unis, ont répété la mesure de Brookhaven. Ils ont rapporté un nombre qui concordait avec la mesure de Brookhaven. Lorsqu'ils combinent leurs données et les données de Brookhaven, ils trouvent un résultat de 2,00233184122 ± 0,00000000082. Dépouillé des chiffres qui concordent entre les données et la théorie, l'état de l'art actuel est le suivant :

    Prédiction théorique : 362,0 ± 8,6

    Mesure expérimentale : 412,2 ± 8,2

    Ce désaccord est substantiel, et beaucoup ont signalé qu'il s'agit d'une bonne preuve que la théorie actuelle devra être révisée pour tenir compte de la mesure.

    Cependant, cette conclusion pourrait être prématurée. Le même jour que le résultat expérimental a été publié, une autre estimation théorique a été publiée qui est en désaccord avec la précédente. De plus, la nouvelle estimation théorique est en accord avec la prédiction expérimentale.

    Deux calculs théoriques sont comparés à une mesure (rose). L'ancien calcul n'est pas d'accord. [+] avec la mesure, mais le nouveau calcul QCD sur réseau concorde plutôt bien. La différence entre les deux prédictions signifie que toute réclamation pour une découverte est prématurée.

    Adapté de Science Magazine.

    Comment la théorie est faite

    Les calculs théoriques de physique des particules sont difficiles à faire. En fait, les scientifiques ne disposent pas des outils mathématiques nécessaires pour résoudre exactement de nombreux problèmes. Au lieu de cela, ils remplacent le problème réel par une approximation et résolvent l'approximation.

    La façon dont cela est fait pour les propriétés magnétiques du muon est de regarder le nuage de particules entourant le muon et de demander laquelle d'entre elles est responsable de l'effet le plus important. Ils calculent la contribution de ces particules. Ensuite, ils passent aux contributeurs les plus importants suivants et répètent le processus. Certaines des contributions sont relativement faciles, mais d'autres ne le sont pas.

    Alors que les particules entourant le muon sont souvent des électrons et leurs électrons d'antimatière, certaines des particules dans le nuage sont des quarks, qui sont des particules normalement présentes à l'intérieur des protons et des neutrons. Les quarks sont plus lourds que les électrons et interagissent également avec la forte charge nucléaire. Cette interaction forte signifie que les quarks interagissent non seulement avec le muon, mais aussi avec d'autres quarks dans le nuage. Cela rend difficile le calcul de leur effet sur les propriétés magnétiques du muon.

    Donc, historiquement, les scientifiques ont utilisé d'autres mesures de données pour obtenir une estimation de la contribution des quarks au magnétisme du muon. Avec cette technique, ils ont trouvé l'écart entre la prédiction et la mesure.

    Cependant, une nouvelle technique a été employée qui prédit la contribution causée par les quarks. Cette nouvelle technique est appelée « QCD sur réseau », où QCD est la théorie conventionnelle des interactions de force nucléaire forte. Lattice QCD est une technique intéressante, où les scientifiques mettent en place une grille tridimensionnelle et calculent l'effet de la force forte sur cette grille. Lattice QCD est une méthode de force brute et elle a été couronnée de succès dans le passé. Mais c'est la première tentative complète d'employer la technique pour les propriétés magnétiques des muons.

    Ce nouveau calcul QCD sur réseau diffère de la prédiction théorique précédente. En effet, il est beaucoup plus proche du résultat expérimental.

    Alors, où cela nous laisse-t-il ? Lorsque les résultats du Fermilab ont été publiés, il est apparu que la mesure et la prédiction étaient en désaccord substantiellement, suggérant que nous devions peut-être modifier notre théorie pour la mettre en accord avec les données. Cependant, nous avons maintenant la situation troublante que la théorie n'était peut-être pas juste. Peut-être que le nouveau calcul QCD sur réseau est correct. Dans ce cas, il n'y a pas d'écart entre les données et la prédiction.

    Je pense que l'essentiel est que toute la situation est incertaine et qu'il est trop tôt pour tirer une conclusion. Le calcul QCD sur réseau est certes intéressant, mais il est nouveau et tous les calculs QCD sur réseau ne concordent pas non plus. Et la version Fermilab de l'expérience mesurant les propriétés magnétiques du muon ne fait que commencer. Ils n'ont rapporté que 6 % du total des données qu'ils s'attendent à enregistrer et analyser à terme.

    Les mesures de précision des propriétés magnétiques des muons ont le potentiel de réécrire la physique. Mais ce n'est vrai que si la mesure et les prédictions sont à la fois exactes et précises, et nous ne sommes pas vraiment prêts à conclure que l'une ou l'autre sont complètes. Il semble que la mesure expérimentale soit assez solide, bien que les chercheurs soient constamment à la recherche de défauts négligés. Et le côté théorie est encore un peu obscur, avec beaucoup de travail nécessaire pour comprendre les détails du calcul QCD sur réseau.

    Je pense qu'il est sûr de dire que nous sommes encore de nombreuses années avant de résoudre cette question. C'est sans aucun doute un état de fait insatisfaisant, mais c'est pour vous la science à la frontière de la connaissance. Nous avons attendu près de deux décennies pour obtenir une mesure améliorée des propriétés magnétiques des muons. Nous pouvons attendre encore quelques années pendant que les scientifiques travaillent dur pour tout comprendre.


    Les choses semblent mauvaises, mais c'est en fait la période la plus paisible de l'histoire de l'humanité

    Publié le 12 septembre 2019 02:53:07

    “De tous les conflits en cours, aucun n'est une guerre active entre pays.”C'est le cœur de l'argument de Kurzgesagt – En bref, la guerre est finie.

    Oui, il y a des guerres civiles, et oui, il y a des conflits locaux - voire des conflits internationaux (par exemple, les États-Unis continuent de combattre des organisations terroristes à travers le monde), mais leur impact est bien moindre qu'une guerre entre nations.

    « Lorsque deux nations s'engagent dans la guerre, elles peuvent mobiliser des forces beaucoup plus importantes, avoir accès à toutes les ressources et à la logistique de l'État et à la quasi-totalité de la population », raconte l'hôte de La guerre est-elle finie ? - Un paradoxe expliqué. Cette vidéo de 2014 (voir ci-dessous) tient toujours et explore l'idée que les humains apprennent en fait du passé - et peut-être même éliminent progressivement la guerre.

    Le monde se remet encore de la guerre froide et du colonialisme, mais même ainsi, de nombreuses tendances positives sont observées. Selon la vidéo, la victoire d'un côté d'une guerre civile était très courante jusqu'en 1989, mais aujourd'hui, fins négociées ont augmenté.

    Il y a également moins d'attaques entre États-nations, ce que la vidéo attribue aux quatre raisons suivantes :

    La Russie cause beaucoup de problèmes, cependant…

    1. Démocratisation

    Les démocraties ne se combattent presque jamais. L'exemple le plus récent est la guerre russo-géorgienne de 2008, un conflit d'une semaine qui s'est terminé par un accord de cessez-le-feu.

    Imaginez à quoi ressembleraient les chiffres du box-office sans la Chine & #8230

    2. Mondialisation

    La guerre n'est pas un moyen efficace d'atteindre des objectifs économiques. Pensez aux intérêts mutuels, disons, des États-Unis et de la Chine – même si nos idéologies politiques diffèrent, nous comptons fortement les uns sur les autres pour le progrès financier.

    L'ONU est une organisation internationale fondée en 1945. Elle est actuellement composée de 193 États membres.

    (Photo ONU de Joao Araujo Pinto)

    3. “La guerre, c'est tellement le 20e siècle”

    Il existe maintenant des entités internationales qui régissent les lois de la guerre. La Convention de Genève et la Convention de La Haye en sont deux exemples principaux, ainsi que les Nations Unies.

    Le Haut-Karabakh est un territoire contesté au sein de l'Azerbaïdjan, qui reste vulnérable aux escarmouches frontalières et aux attaques militaires, malgré les pourparlers de paix et les efforts pour maintenir un cessez-le-feu.

    4. Les frontières sont pour la plupart fixées maintenant

    "Après la Seconde Guerre mondiale, les guerres territoriales se sont généralement arrêtées lorsque la plupart des pays se sont engagés à accepter les frontières internationales".

    La vidéo trace la route vers la paix éternelle - ou du moins le marqueur de celle-ci. Découvrez-le ci-dessous :

    En savoir plus sur Nous sommes les puissants

    Plus de liens que nous aimons

    HISTOIRE PUISSANTE

    Ethique de la fabrication du chocolat

    Selon Slave Free Chocolate, 2,3 millions d'enfants travaillent dans la production de chocolat au Ghana et en Côte d'Ivoire, où ils sont vulnérables à la traite, à l'esclavage et à d'autres pratiques de travail violentes. Le Forum international des droits du travail rapporte que ces enfants sont souvent exposés à des produits chimiques, travaillent de longues heures et se voient refuser l'éducation. Selon Épicure et Culture, de nombreux enfants sont vendus en esclavage et ne reverront jamais leur famille. D'autres sont kidnappés.

    Bien que le protocole Harkin-Engel de 2001 ait été conçu pour mettre fin au travail des enfants dans l'industrie du chocolat, selon le CNN Freedom Project, peu de choses ont changé. Les délais d'action ont été repoussés à plusieurs reprises.

    Les consommateurs qui veulent du chocolat éthique doivent rechercher des certifications désignant le commerce équitable, Rain Forest Alliance, UTZ et Fair for Life, selon le guide Slave Free Chocolate&rsquos destiné aux entreprises de chocolat.

    La production de chocolat peut également nuire à l'environnement. Les agriculteurs défrichent souvent les forêts pour faire place aux plantations de cacao. Selon le World Wildlife Fund, environ 70 pour cent de la déforestation illégale de la Côte d'Ivoire est liée à la culture du cacao. Un des dangers de la déforestation est l'érosion des sols, qui peut rendre les terres moins fertiles pour les plants de cacao, créant un cercle vicieux, selon Confectionary News.


    Pourquoi une ère glaciaire se produit tous les 100 000 ans : les effets climatiques et de rétroaction expliqués

    La science a eu du mal à expliquer pleinement pourquoi une ère glaciaire se produit tous les 100 000 ans. Comme les chercheurs le démontrent maintenant sur la base d'une simulation informatique, non seulement les variations d'insolation jouent un rôle clé, mais aussi l'influence mutuelle des continents glaciaires et du climat.

    Les périodes glaciaires et les périodes chaudes ont alterné assez régulièrement dans l'histoire de la Terre : le climat de la Terre se refroidit environ tous les 100 000 ans, de vastes régions d'Amérique du Nord, d'Europe et d'Asie étant ensevelies sous d'épaisses calottes glaciaires. Finalement, le pendule revient : il se réchauffe et les masses de glace fondent. Alors que les géologues et les physiciens du climat ont trouvé des preuves solides de ce cycle de 100 000 ans dans les moraines glaciaires, les sédiments marins et la glace arctique, jusqu'à présent, ils étaient incapables de trouver une explication plausible pour cela.

    À l'aide de simulations informatiques, une équipe japonaise, suisse et américaine comprenant Heinz Blatter, professeur émérite de climatologie physique à l'ETH Zurich, a maintenant réussi à démontrer que l'échange période glaciaire/période chaude dépend fortement de l'influence alternée des calottes glaciaires continentales. et le climat.

    "If an entire continent is covered in a layer of ice that is 2,000 to 3,000 metres thick, the topography is completely different," says Blatter, explaining this feedback effect. "This and the different albedo of glacial ice compared to ice-free earth lead to considerable changes in the surface temperature and the air circulation in the atmosphere." Moreover, large-scale glaciation also alters the sea level and therefore the ocean currents, which also affects the climate.

    Weak effect with a strong impact

    As the scientists from Tokyo University, ETH Zurich and Columbia University demonstrated in their paper published in the journal Nature, these feedback effects between Earth and the climate occur on top of other known mechanisms. It has long been clear that the climate is greatly influenced by insolation on long-term time scales. Because Earth's rotation and its orbit around the sun periodically change slightly, the insolation also varies. If you examine this variation in detail, different overlapping cycles of around 20,000, 40,000 and 100,000 years are recognisable.

    Given the fact that the 100,000-year insolation cycle is comparatively weak, scientists could not easily explain the prominent 100,000-year-cycle of the ice ages with this information alone. With the aid of the feedback effects, however, this is now possible.

    Simulating the ice and climate

    The researchers obtained their results from a comprehensive computer model, where they combined an ice-sheet simulation with an existing climate model, which enabled them to calculate the glaciation of the northern hemisphere for the last 400,000 years. The model not only takes the astronomical parameter values, ground topography and the physical flow properties of glacial ice into account but also especially the climate and feedback effects. "It's the first time that the glaciation of the entire northern hemisphere has been simulated with a climate model that includes all the major aspects," says Blatter.

    Using the model, the researchers were also able to explain why ice ages always begin slowly and end relatively quickly. The ice-age ice masses accumulate over tens of thousands of years and recede within the space of a few thousand years. Now we know why: it is not only the surface temperature and precipitation that determine whether an ice sheet grows or shrinks. Due to the aforementioned feedback effects, its fate also depends on its size. "The larger the ice sheet, the colder the climate has to be to preserve it," says Blatter. In the case of smaller continental ice sheets that are still forming, periods with a warmer climate are less likely to melt them. It is a different story with a large ice sheet that stretches into lower geographic latitudes: a comparatively brief warm spell of a few thousand years can be enough to cause an ice sheet to melt and herald the end of an ice age.

    The Milankovitch cycles

    The explanation for the cyclical alternation of ice and warm periods stems from Serbian mathematician Milutin Milankovitch (1879-1958), who calculated the changes in Earth's orbit and the resulting insolation on Earth, thus becoming the first to describe that the cyclical changes in insolation are the result of an overlapping of a whole series of cycles: the tilt of Earth's axis fluctuates by around two degrees in a 41,000-year cycle. Moreover, Earth's axis gyrates in a cycle of 26,000 years, much like a spinning top. Finally, Earth's elliptical orbit around the sun changes in a cycle of around 100,000 years in two respects: on the one hand, it changes from a weaker elliptical (circular) form into a stronger one. On the other hand, the axis of this ellipsis turns in the plane of Earth's orbit. The spinning of Earth's axis and the elliptical rotation of the axes cause the day on which Earth is closest to the sun (perihelion) to migrate through the calendar year in a cycle of around 20,000 years: currently, it is at the beginning of January in around 10,000 years, however, it will be at the beginning of July.

    Based on his calculations, in 1941 Milankovitch postulated that insolation in the summer characterises the ice and warm periods at sixty-five degrees north, a theory that was rejected by the science community during his lifetime. From the 1970s, however, it gradually became clearer that it essentially coincides with the climate archives in marine sediments and ice cores. Nowadays, Milankovitch's theory is widely accepted. "Milankovitch's idea that insolation determines the ice ages was right in principle," says Blatter. "However, science soon recognised that additional feedback effects in the climate system were necessary to explain ice ages. We are now able to name and identify these effects accurately."


    Myths of the American Revolution

    We think we know the Revolutionary War. After all, the American Revolution and the war that accompanied it not only determined the nation we would become but also continue to define who we are. The Declaration of Independence, the Midnight Ride, Valley Forge—the whole glorious chronicle of the colonists’ rebellion against tyranny is in the American DNA. Often it is the Revolution that is a child’s first encounter with history.

    Contenu connexe

    Yet much of what we know is not entirely true. Perhaps more than any defining moment in American history, the War of Independence is swathed in beliefs not borne out by the facts. Here, in order to form a more perfect understanding, the most significant myths of the Revolutionary War are reassessed.

    I. Great Britain Did Not Know What It Was Getting Into

    In the course of England’s long and unsuccessful attempt to crush the American Revolution, the myth arose that its government, under Prime Minister Frederick, Lord North, had acted in haste. Accusations circulating at the time—later to become conventional wisdom—held that the nation’s political leaders had failed to comprehend the gravity of the challenge.

    Actually, the British cabinet, made up of nearly a score of ministers, first considered resorting to military might as early as January 1774, when word of the Boston Tea Party reached London. (Recall that on December 16, 1773, protesters had boarded British vessels in Boston Harbor and destroyed cargoes of tea, rather than pay a tax imposed by Parliament.) Contrary to popular belief both then and now, Lord North’s government did not respond impulsively to the news. Throughout early 1774, the prime minister and his cabinet engaged in lengthy debate on whether coercive actions would lead to war. A second question was considered as well: Could Britain win such a war?

    By March 1774, North’s government had opted for punitive measures that fell short of declaring war. Parliament enacted the Coercive Acts—or Intolerable Acts, as Americans called them—and applied the legislation to Massachusetts alone, to punish the colony for its provocative act. Britain’s principal action was to close Boston Harbor until the tea had been paid for. England also installed Gen. Thomas Gage, commander of the British Army in America, as governor of the colony. Politicians in London chose to heed the counsel of Gage, who opined that the colonists would “be lyons whilst we are lambs but if we take the resolute part they will be very meek.”

    Britain, of course, miscalculated hugely. In September 1774, colonists convened the First Continental Congress in Philadelphia the members voted to embargo British commerce until all British taxes and the Coercive Acts were repealed. News of that vote reached London in December. A second round of deliberations within North’s ministry ensued for nearly six weeks.

    Throughout its deliberations, North’s government agreed on one point: the Americans would pose little challenge in the event of war. The Americans had neither a standing army nor a navy few among them were experienced officers. Britain possessed a professional army and the world’s greatest navy. Furthermore, the colonists had virtually no history of cooperating with one another, even in the face of danger. In addition, many in the cabinet were swayed by disparaging assessments of American soldiers leveled by British officers in earlier wars. For instance, during the French and Indian War (1754-63), Brig. Gen. James Wolfe had described America’s soldiers as “cowardly dogs.” Henry Ellis, the royal governor of Georgia, nearly simultaneously asserted that the colonists were a “poor species of fighting men” given to “a want of bravery.”

    Still, as debate continued, skeptics—especially within Britain’s army and navy—raised troubling questions. Could the Royal Navy blockade the 1,000-mile-long American coast? Couldn’t two million free colonists muster a force of 100,000 or so citizen-soldiers, nearly four times the size of Britain’s army in 1775? Might not an American army of this size replace its losses more easily than Britain? Was it possible to supply an army operating 3,000 miles from home? Could Britain subdue a rebellion across 13 colonies in an area some six times the size of England? Could the British Army operate deep in America’s interior, far from coastal supply bases? Would a protracted war bankrupt Britain? Would France and Spain, England’s age-old enemies, aid American rebels? Was Britain risking starting a broader war?

    After the Continental Congress convened, King George III told his ministers that “blows must decide” whether the Americans “submit or triumph.”

    North’s government agreed. To back down, the ministers believed, would be to lose the colonies. Confident of Britain’s overwhelming military superiority and hopeful that colonial resistance would collapse after one or two humiliating defeats, they chose war. The Earl of Dartmouth, who was the American Secretary, ordered General Gage to use “a vigorous Exertion of. Force” to crush the rebellion in Massachusetts. Resistance from the Bay Colony, Dartmouth added, “cannot be very formidable.”

    II. Americans Of All Stripes Took Up Arms Out Of Patriotism

    The term “spirit of 󈦬” refers to the colonists’ patriotic zeal and has always seemed synonymous with the idea that every able-bodied male colonist resolutely served, and suffered, throughout the eight-year war.

    To be sure, the initial rally to arms was impressive. When the British Army marched out of Boston on April 19, 1775, messengers on horseback, including Boston silversmith Paul Revere, fanned out across New England to raise the alarm. Summoned by the feverish pealing of church bells, militiamen from countless hamlets hurried toward Concord, Massachusetts, where the British regulars planned to destroy a rebel arsenal. Thousands of militiamen arrived in time to fight 89 men from 23 towns in Massachusetts were killed or wounded on that first day of war, April 19, 1775. By the next morning, Massachusetts had 12 regiments in the field. Connecticut soon mobilized a force of 6,000, one-quarter of its military-age men. Within a week, 16,000 men from the four New England colonies formed a siege army outside British-occupied Boston. In June, the Continental Congress took over the New England army, creating a national force, the Continental Army. Thereafter, men throughout America took up arms. It seemed to the British regulars that every able-bodied American male had become a soldier.

    But as the colonists discovered how difficult and dangerous military service could be, enthusiasm waned. Many men preferred to remain home, in the safety of what Gen. George Washington described as their “Chimney Corner.” Early in the war, Washington wrote that he despaired of “compleating the army by Voluntary Inlistments.” Mindful that volunteers had rushed to enlist when hostilities began, Washington predicted that “after the first emotions are over,” those who were willing to serve from a belief in the “goodness of the cause” would amount to little more than “a drop in the Ocean.” He was correct. As 1776 progressed, many colonies were compelled to entice soldiers with offers of cash bounties, clothing, blankets and extended furloughs or enlistments shorter than the one-year term of service established by Congress.

    The following year, when Congress mandated that men who enlisted must sign on for three years or the duration of the conflict, whichever came first, offers of cash and land bounties became an absolute necessity. The states and the army also turned to slick-tongued recruiters to round up volunteers. General Washington had urged conscription, stating that “the Government must have recourse to coercive measures.” In April 1777, Congress recommended a draft to the states. By the end of 1778, most states were conscripting men when Congress’ voluntary enlistment quotas were not met.

    Moreover, beginning in 1778, the New England states, and eventually all Northern states, enlisted African-Americans, a practice that Congress had initially forbidden. Ultimately, some 5,000 blacks bore arms for the United States, approximately 5 percent of the total number of men who served in the Continental Army. The African-American soldiers made an important contribution to America’s ultimate victory. In 1781, Baron Ludwig von Closen, a veteran officer in the French Army, remarked that the “best [regiment] under arms” in the Continental Army was one in which 75 percent of the soldiers were African-Americans.

    Longer enlistments radically changed the composition of the Army. Washington’s troops in 1775-76 had represented a cross section of the free male population. But few who owned farms were willing to serve for the duration, fearing loss of their property if years passed without producing revenue from which to pay taxes. After 1777, the average Continental soldier was young, single, propertyless, poor and in many cases an outright pauper. In some states, such as Pennsylvania, up to one in four soldiers was an impoverished recent immigrant. Patriotism aside, cash and land bounties offered an unprecedented chance for economic mobility for these men. Joseph Plumb Martin of Milford, Connecticut, ac­knowledged that he had enlisted for the money. Later, he would recollect the calculation he had made at the time: “As I must go, I might as well endeavor to get as much for my skin as I could.” For three-quarters of the war, few middle-class Americans bore arms in the Continental Army, although thousands did serve in militias.

    III. Continental Soldiers Were Always Ragged And Hungry

    Accounts of shoeless continental army soldiers leaving bloody footprints in the snow or going hungry in a land of abundance are all too accurate. Take, for example, the experience of Connecticut’s Private Martin. While serving with the Eighth Connecticut Continental Regiment in the autumn of 1776, Martin went for days with little more to eat than a handful of chestnuts and, at one point, a portion of roast sheep’s head, remnants of a meal prepared for those he sarcastically referred to as his “gentleman officers.” Ebenezer Wild, a Massachusetts soldier who served at Valley Forge in the terrible winter of 1777-78, would recall that he subsisted for days on “a leg of nothing.” One of his comrades, Dr. Albigence Waldo, a Continental Army surgeon, later reported that many men survived largely on what were known as fire cakes (flour and water baked over coals). One soldier, Waldo wrote, complained that his “glutted Gutts are turned to Pasteboard.” The Army’s supply system, imperfect at best, at times broke down altogether the result was misery and want.

    But that was not always the case. So much heavy clothing arrived from France at the beginning of the winter in 1779 that Washington was compelled to locate storage facilities for his surplus.

    In a long war during which American soldiers were posted from upper New York to lower Georgia, conditions faced by the troops varied widely. For instance, at the same time that Washington’s siege army at Boston in 1776 was well supplied, many American soldiers, engaged in the failed invasion of Quebec staged from Fort Ticonderoga in New York, endured near starvation. While one soldier in seven was dying from hunger and disease at Valley Forge, young Private Martin, stationed only a few miles away in Downingtown, Pennsylvania, was assigned to patrols that foraged daily for army provisions. “We had very good provisions all winter,” he would write, adding that he had lived in “a snug room.” In the spring after Valley Forge, he encountered one of his former officers. “Where have you been this winter?” inquired the officer. “Why you are as fat as a pig.”

    IV. The Militia Was Useless

    The nation’s first settlers adopted the British militia system, which required all able-bodied men between 16 and 60 to bear arms. Some 100,000 men served in the Continental Army during the Revolutionary War. Probably twice that number soldiered as militiamen, for the most part defending the home front, functioning as a police force and occasionally engaging in enemy surveillance. If a militia company was summoned to active duty and sent to the front lines to augment the Continentals, it usually remained mobilized for no more than 90 days.

    Some Americans emerged from the war convinced that the militia had been largely ineffective. No one did more to sully its reputation than General Washington, who insisted that a decision to “place any dependence on Militia is assuredly resting on a broken staff.”

    Militiamen were older, on average, than the Continental soldiers and received only perfunctory training few had experienced combat. Washington complained that militiamen had failed to exhibit “a brave & manly opposition” in the battles of 1776 on Long Island and in Manhattan. At Camden, South Carolina, in August 1780, militiamen panicked in the face of advancing redcoats. Throwing down their weapons and running for safety, they were responsible for one of the worst defeats of the war.

    Yet in 1775, militiamen had fought with surpassing bravery along the Concord Road and at Bunker Hill. Nearly 40 percent of soldiers serving under Washington in his crucial Christmas night victory at Trenton in 1776 were militiamen. In New York state, half the American force in the vital Saratoga campaign of 1777 consisted of militiamen. They also contributed substantially to American victories at Kings Mountain, South Carolina, in 1780 and Cowpens, South Carolina, the following year. In March 1781, Gen. Nathanael Greene adroitly deployed his militiamen in the Battle of Guilford Courthouse (fought near present-day Greensboro, North Carolina). In that engagement, he inflicted such devastating losses on the British that they gave up the fight for North Carolina.

    The militia had its shortcomings, to be sure, but America could not have won the war without it. As a British general, Earl Cornwallis, wryly put it in a letter in 1781, “I will not say much in praise of the militia, but the list of British officers and soldiers killed and wounded by them. proves but too fatally they are not wholly contemptible.”

    V. Saratoga Was The War’s Turning Point

    On October 17, 1777, British Gen. John Burgoyne surrendered 5,895 men to American forces outside Saratoga, New York. Those losses, combined with the 1,300 men killed, wounded and captured during the preceding five months of Burgoyne’s campaign to reach Albany in upstate New York, amounted to nearly one-quarter of those serving under the British flag in America in 1777.

    The defeat persuaded France to form a military alliance with the United States. Previously, the French, even though they believed that London would be fatally weakened by the loss of its American colonies, had not wished to take a chance on backing the new American nation. General Washington, who rarely made optimistic pronouncements, exulted that France’s entry into the war in February 1778 had introduced “a most happy tone to all our affairs,” as it “must put the Independency of America out of all manner of dispute.”

    But Saratoga was not the turning point of the war. Protracted conflicts—the Revolutionary War was America’s longest military engagement until Vietnam nearly 200 years later—are seldom defined by a single decisive event. In addition to Saratoga, four other key moments can be identified. The first was the combined effect of victories in the fighting along the Concord Road on April 19, 1775, and at Bunker Hill near Boston two months later, on June 17. Many colonists had shared Lord North’s belief that American citizen-soldiers could not stand up to British regulars. But in those two engagements, fought in the first 60 days of the war, American soldiers—all militiamen—inflicted huge casualties. The British lost nearly 1,500 men in those encounters, three times the American toll. Without the psychological benefits of those battles, it is debatable whether a viable Continental Army could have been raised in that first year of war or whether public morale would have withstood the terrible defeats of 1776.

    Between August and November of 1776, Washington’s army was driven from Long Island, New York City proper and the rest of Manhattan Island, with some 5,000 men killed, wounded and captured. But at Trenton in late December 1776, Washington achieved a great victory, destroying a Hessian force of nearly 1,000 men a week later, on January 3, he defeated a British force at Princeton, New Jersey. Washington’s stunning triumphs, which revived hopes of victory and permitted recruitment in 1777, were a second turning point.

    A third turning point occurred when Congress abandoned one-year enlistments and transformed the Continental Army into a standing army, made up of regulars who volunteered—or were conscripted—for long-term service. A standing army was contrary to American tradition and was viewed as unacceptable by citizens who understood that history was filled with instances of generals who had used their armies to gain dictatorial powers. Among the critics was Massachusetts’ John Adams, then a delegate to the Second Continental Congress. In 1775, he wrote that he feared a standing army would become an “armed monster” composed of the “meanest, idlest, most intemperate and worthless” men. By autumn, 1776, Adams had changed his view, remarking that unless the length of enlistment was extended, “our inevitable destruction will be the Consequence.” At last, Washington would get the army he had wanted from the outset its soldiers would be better trained, better disciplined and more experienced than the men who had served in 1775-76.

    The campaign that unfolded in the South during 1780 and 1781 was the final turning point of the conflict. After failing to crush the rebellion in New England and the mid-Atlantic states, the British turned their attention in 1778 to the South, hoping to retake Georgia, South Carolina, North Carolina and Virginia. At first the Southern Strategy, as the British termed the initiative, achieved spectacular results. Within 20 months, the redcoats had wiped out three American armies, retaken Savannah and Charleston, occupied a substantial portion of the South Carolina backcountry, and killed, wounded or captured 7,000 American soldiers, nearly equaling the British losses at Saratoga. Lord George Germain, Britain’s American Secretary after 1775, declared that the Southern victories augured a “speedy and happy termination of the American war.”

    But the colonists were not broken. In mid-1780, organized partisan bands, composed largely of guerrilla fighters, struck from within South Carolina’s swamps and tangled forests to ambush redcoat supply trains and patrols. By summer’s end, the British high command acknowledged that South Carolina, a colony they had recently declared pacified, was “in an absolute state of rebellion.” Worse was yet to come. In October 1780, rebel militia and backcountry volunteers destroyed an army of more than 1,000 Loyalists at Kings Mountain in South Carolina. After that rout, Cornwallis found it nearly impossible to persuade Loyalists to join the cause.

    In January 1781, Cornwallis marched an army of more than 4,000 men to North Carolina, hoping to cut supply routes that sustained partisans farther south. In battles at Cowpens and Guilford Courthouse and in an exhausting pursuit of the Army under Gen. Nathanael Greene, Cornwallis lost some 1,700 men, nearly 40 percent of the troops under his command at the outset of the North Carolina campaign. In April 1781, despairing of crushing the insurgency in the Carolinas, he took his army into Virginia, where he hoped to sever supply routes linking the upper and lower South. It was a fateful decision, as it put Cornwallis on a course that would lead that autumn to disaster at Yorktown, where he was trapped and compelled to surrender more than 8,000 men on October 19, 1781. The next day, General Washington informed the Continental Army that “the glorious event” would send “general Joy [to] every breast” in America. Across the sea, Lord North reacted to the news as if he had “taken a ball in the breast,” reported the messenger who delivered the bad tidings. “O God,” the prime minister exclaimed, “it is all over.”

    VI. General Washington Was A Brilliant Tactician And Strategist

    Among the hundreds of eulogies delivered after the death of George Washington in 1799, Timothy Dwight, president of Yale College, averred that the general’s military greatness consisted principally in his “formation of extensive and masterly plans” and a “watchful seizure of every advantage.” It was the prevailing view and one that has been embraced by many historians.

    In fact, Washington’s missteps revealed failings as a strategist. No one understood his limitations better than Washington himself who, on the eve of the New York campaign in 1776, confessed to Congress his “want of experience to move on a large scale” and his “limited and contracted knowledge . . . in Military Matters.”

    In August 1776, the Continental Army was routed in its first test on Long Island in part because Washington failed to properly reconnoiter and he attempted to defend too large an area for the size of his army. To some extent, Washington’s nearly fatal inability to make rapid decisions resulted in the November losses of Fort Washington on Manhattan Island and Fort Lee in New Jersey, defeats that cost the colonists more than one-quarter of the army’s soldiers and precious weaponry and military stores. Washington did not take the blame for what had gone wrong. Instead, he advised Congress of his “want of confidence in the Generality of the Troops.”

    In the fall of 1777, when Gen. William Howe invaded Pennsylvania, Washington committed his entire army in an attempt to prevent the loss of Philadelphia. During the Battle of Brandywine, in September, he once again froze with indecision. For nearly two hours information poured into headquarters that the British were attempting a flanking maneuver—a move that would, if successful, entrap much of the Continental Army—and Washington failed to respond. At day’s end, a British sergeant accurately perceived that Washington had “escaped a total overthrow, that must have been the consequence of an hours more daylight.”

    Later, Washington was painfully slow to grasp the significance of the war in the Southern states. For the most part, he committed troops to that theater only when Congress ordered him to do so. By then, it was too late to prevent the surrender of Charleston in May 1780 and the subsequent losses among American troops in the South. Washington also failed to see the potential of a campaign against the British in Virginia in 1780 and 1781, prompting Comte de Rochambeau, commander of the French Army in America, to write despairingly that the American general “did not conceive the affair of the south to be such urgency.” Indeed, Rochambeau, who took action without Washington’s knowledge, conceived the Virginia campaign that resulted in the war’s decisive encounter, the siege of Yorktown in the autumn of 1781.

    Much of the war’s decision-making was hidden from the public. Not even Congress was aware that the French, not Washington, had formulated the strategy that led to America’s triumph. During Washington’s presidency, the American pamphleteer Thomas Paine, then living in France, revealed much of what had occurred. In 1796 Paine published a “Letter to George Washington,” in which he claimed that most of General Washington’s supposed achievements were “fraudulent.” “You slept away your time in the field” after 1778, Paine charged, arguing that Gens. Horatio Gates and Greene were more responsible for America’s victory than Washington.

    There was some truth to Paine’s acid comments, but his indictment failed to recognize that one can be a great military leader without being a gifted tactician or strategist. Washington’s character, judgment, industry and meticulous habits, as well as his political and diplomatic skills, set him apart from others. In the final analysis, he was the proper choice to serve as commander of the Continental Army.

    VII. Great Britain Could Never Have Won The War

    Once the revolutionary war was lost, some in Britain argued that it had been unwinnable. For generals and admirals who were defending their reputations, and for patriots who found it painful to acknowledge defeat, the concept of foreordained failure was alluring. Nothing could have been done, or so the argument went, to have altered the outcome. Lord North was condemned, not for having lost the war, but for having led his country into a conflict in which victory was impossible.

    In reality, Britain might well have won the war. The battle for New York in 1776 gave England an excellent opportunity for a decisive victory. France had not yet allied with the Americans. Washington and most of his lieutenants were rank amateurs. Continental Army soldiers could not have been more untried. On Long Island, in New York City and in upper Manhattan, on Harlem Heights, Gen. William Howe trapped much of the American Army and might have administered a fatal blow. Cornered in the hills of Harlem, even Washington admitted that if Howe attacked, the Continental Army would be “cut off” and faced with the choice of fighting its way out “under every disadvantage” or being starved into submission. But the excessively cautious Howe was slow to act, ultimately allowing Washington to slip away.

    Britain still might have prevailed in 1777. London had formulated a sound strategy that called for Howe, with his large force, which included a naval arm, to advance up the Hudson River and rendezvous at Albany with General Burgoyne, who was to invade New York from Canada. Britain’s objective was to cut New England off from the other nine states by taking the Hudson. When the rebels did engage—the thinking went—they would face a giant British pincer maneuver that would doom them to catastrophic losses. Though the operation offered the prospect of decisive victory, Howe scuttled it. Believing that Burgoyne needed no assistance and obsessed by a desire to capture Philadelphia—home of the Continental Congress—Howe opted to move against Pennsylvania instead. He took Philadelphia, but he accomplished little by his action. Meanwhile, Burgoyne suffered total defeat at Saratoga.

    Most historians have maintained that Britain had no hope of victory after 1777, but that assumption constitutes another myth of this war. Twenty-four months into its Southern Strategy, Britain was close to reclaiming substantial territory within its once-vast American empire. Royal authority had been restored in Georgia, and much of South Carolina was occupied by the British.

    As 1781 dawned, Washington warned that his army was “exhausted” and the citizenry “discontented.” John Adams believed that France, faced with mounting debts and having failed to win a single victory in the American theater, would not remain in the war beyond 1781. “We are in the Moment of Crisis,” he wrote. Rochambeau feared that 1781 would see the “last struggle of an expiring patriotism.” Both Washington and Adams assumed that unless the United States and France scored a decisive victory in 1781, the outcome of the war would be determined at a conference of Europe’s great powers.

    Stalemated wars often conclude with belligerents retaining what they possessed at the moment an armistice is reached. Had the outcome been determined by a European peace conference, Britain would likely have retained Canada, the trans-Appalachian West, part of present-day Maine, New York City and Long Island, Georgia and much of South Carolina, Florida (acquired from Spain in a previous war) and several Caribbean islands. To keep this great empire, which would have encircled the tiny United States, Britain had only to avoid decisive losses in 1781.Yet Cornwallis’ stunning defeat at Yorktown in October cost Britain everything but Canada.

    The Treaty of Paris, signed on September 3, 1783, ratified the American victory and recognized the existence of the new United States. General Washington, addressing a gathering of soldiers at West Point, told the men that they had secured America’s “independence and sovereignty.” The new nation, he said, faced “enlarged prospects of happiness,” adding that all free Americans could enjoy “personal independence.” The passage of time would demonstrate that Washington, far from creating yet another myth surrounding the outcome of the war, had voiced the real promise of the new nation.

    Historien John Ferling’s most recent book is The Ascent of George Washington: The Hidden Political Genius of an American Icon. Illustrateur Joe Ciardiello lives in Milford, New Jersey.

    CORRECTION: An earlier version of this story placed Kings Mountain in North Carolina instead of South Carolina. We regret the error.


    Voir la vidéo: Les Pires Écoles Au Monde!