Mis en avant

Communication interpersonnelle – améliorez vos talents de communicant

La compréhension est la clé d’une bonne communication
Autism and communication
La lecture contribue à l’amélioration de notre vision
https://chimiephysiquescience.wordpress.com/2020/04/17/lire-ecrire-et-parler/

Pour comprendre le rôle de la communication dans la construction de la personnalité lisez l’article du lien ci-dessous

https://www.manager-go.com/efficacite-professionnelle/communication-interpersonnelle.htm

https://chimiephysiquescience.wordpress.com/2021/10/19/la-performance-de-lenseignant-et-la-relation-daffectivite-et-dapprentissage-du-point-de-vue-de-piaget-et-wallon-revista-cientifica/
La communication interpersonnelle
La communication interpersonnelle
Soft Skills la communication interpersonnelle

Communication interpersonnelle : communiquez efficacement avec autrui !

 Maj le 19/08/2021 par  Raphaële GRANGER

Toute relation, quelle qu’elle soit, est basée sur la communication. Qu’est-ce que la communication interpersonnelle ? Quels en sont les principes ? Quels sont les différents types de communication ? Comment communiquer efficacement ?NOUVEAU

Les clés pour mieux communiquer avec autruiVoir la fiche pratique

Navigation rapide

Communiquer efficacement requiert ainsi une certaine connaissance du fonctionnement des relations interpersonnelles, ainsi que méthodes et entrainement.

https://chimiephysiquescience.wordpress.com/2021/11/20/lenseignement-des-habiletes-et-capacites-adaptation-conceptualisations-categorisation-et-classification-analyse-et-capacite-de-faire-des-hypotheses-table-sequentielle-des-capacite-intellectu/

Nous communiquons dès lors que nous entrons en relation avec autrui : saluer, échanger sur un sujet particulier, poser une question , présenter un projet, etc.

En entreprise, la communication interpersonnelle a toute son importance, qu’il s’agisse pour un manager de faire passer ses messages, diriger ses troupes, les motiver ou bien simplement pour les individus d’une même entité de travailler ensemble en toute sérénité. Toutes les conversations, même les plus anodines, participent à ce bien-être et ce bien-vivre ensemble .

Contrairement à de nombreuses idées reçues, communiquer n’est pas si naturel qu’il n’y paraît. Si tout le monde est plus ou moins capable d’échanger avec ses pairs, la communication ainsi amorcée n’est pas pour autant toujours efficace. Elle peut même parfois s’avérer véritablement défavorable si l’un des protagonistes ne fait que projeter son message selon ses propres valeurs, sa personnalité, son mode de fonctionnement, sans se préoccuper de savoir si la personne en face est réceptive ou capable d’entendre réellement son message, ni même se soucier de l’impact de ce dernier sur son interlocuteur.

Qu’est-ce que la communication interpersonnelle ?

L’absence de communication, prix à payer

La communication interpersonnelle est la base de toute relation humaine, essentielle à la vie – la survie parfois – en société. Il s’agit de l’ interaction entre au moins 2 individus entrant en relation pour échanger des informations, des émotions, etc. Transmettre, partager, dire, reformuler, expliquer, se mettre au niveau de son interlocuteur, s’assurer qu’il a bien entendu et bien compris, voilà l’essence même de la communication interpersonnelle.

La communication peut être verbale ou  non-verbale , orale ou écrite.

Communiquer efficacement a de nombreux avantages et permet, entre autres, de :

Les 5 principes de l’Ecole de Palo-Alto

Les 7 habitudes de la réussite

Dans une approche systémique et interactionniste, Paul Watzlawick, théoricien et membre fondateur de l’Ecole de Palo-Alto en Californie , a étudié et modelé avec ses camarades la communication interpersonnelle pour en faire ressortir 5 postulats .

On ne peut pas ne pas communiquer

https://chimiephysiquescience.wordpress.com/2021/10/28/comment-parler-en-public-resume-et-avis-dale-carnegie/

Communiquer ne se fait pas qu’au travers des mots. Loin de là. La communication non-verbale – nos comportements, gestes, postures, attitudes, regards, etc. – ainsi que para-verbale – l’intonation de notre voix, notre débit, etc. – parlent autant que nos mots – et même bien plus. Un individu, quel qu’il soit, ne peut pas ne pas avoir de comportement.

Il a ainsi été établi qu’ il est tout-à-fait impossible pour un être vivant – qui plus est pour un individu – de ne pas communiquer, que ce soit consciemment ou non.

Toute communication revêt 2 aspects : le contenu et la relation

Selon le courant de pensée de Palo Alto, le message – l’information – transmis par l’émetteur est le contenu La façon dont ce message est reçu – compris et entendu – est la relation . C’est cette dernière – ou tout du moins la manière dont le récepteur s’implique dans celle-ci – qui fait que le message passe convenablement ou bien, à l’inverse, est parasité et reçu de façon biaisée. 

Chacun interprète les informations qu’il reçoit en fonction de ses propres références. Dans le cadre d’une relation saine et de confiance, les protagonistes se concentrent sur l’information qui sera convenablement transmise. A l’inverse, celle-ci sera déformée, rejetée ou bien ignorée si la relation n’est pas sereine.

Ainsi, la relation – nos comportements, les divers éléments du para et non-verbal – est une méta-communication, représentant tout ce que l’on transmet en communiquant.

La nature de la relation dépend de la ponctuation des séquences de communication 

Le mode de communication de l’émetteur influe sur le récepteur et vice versa. La relation est donc en partie basée sur le para-verbal et le non-verbal, bien plus que sur les mots en tant que tels.

Chacun interprète les messages transmis et reçus selon ses propres références : sa personnalité, son vécu, ses expériences passées, etc. ainsi que selon le lien de pouvoir – hiérarchique ou non – ressenti face à autrui et les réactions – comportements – de ce dernier.

Pour qu’une communication soit fluide et efficace, il est ainsi primordial de méta-communiquer afin d’émettre, recevoir, entendre et comprendre pleinement les messages et non se contenter de les interpréter.

communication interpersonnelle

La communication est simultanément digitale et analogique

Les échanges entre plusieurs individus sont basés sur deux modes : 

  •  le mode digital : c’est la communication verbale. Chaque mot a un sens bien précis, les phrases sont structurées. Il s’agit en quelque sorte d’un code accessible à tout individu en possédant la clé (pour comprendre verbalement ce que dit une personne de langue étrangère, il est nécessaire de maîtriser les codes linguistiques de cette dernière). C’est le mode des conversations informelles.
  •  le mode analogique : c’est la communication para et non-verbale . Les gestes, attitudes, regards, etc. – comportements primitifs universels – sont perçus et interprétés de manière intuitive par les protagonistes. Utilisé seul, ce mode peut toutefois induire des interprétations biaisées, faussant par là la communication interpersonnelle.

L’être humain utilise constamment ces deux modes pour communiquer. Ainsi, pour que la communication entre 2 personnes soit fluide, il est essentiel que ces 2 modes soient utilisés simultanément et de manière cohérente.

Tout échange de communication est symétrique ou complémentaire selon qu’il repose sur l’égalité ou la différence

التلفزيون وآليات التلاعب بالعقول، بيير بورديو

Lors d’un échange entre deux personnes, chacun des protagonistes se positionne dans la relation : d’égal à égal – communication symétrique, les différences sont atténuées – ou de manière complémentaire – en position haute ou basse, les différences sont exacerbées.

La différence de positionnement peut être de différentes natures : statut social, position hiérarchique, degré d’éducation, âge, niveau de compétences, etc. ; explicite ou implicite. 

Pour qu’une communication soit positive, chacun des protagonistes doit comprendre et accepter ce positionnement. Si tel n’est pas le cas, la communication a toutes les chances d’être de mauvaise qualité.

Symétrie et complémentarité sont, par ailleurs, les concepts de base de l’Analyse Transactionnelle.

Contrairement aux idées reçues, la position de dominant n’est pas la plus facile à tenir…

Les différents types de communication

Méthodes de communication écrite et orale

Il existe de nombreuses façons de communiquer, plus ou moins consciemment : par les mots, les gestes, les attitudes, les regards… Dans tous les cas, il s’agit d’un échange entre au moins 2 individus. Qui dit échange, dit compréhension. Toute communication doit ainsi être soigneusement préparée afin d’être efficace, notamment dans le cadre du management où les échanges entre collaborateurs se doivent d’être fluides pour une efficacité accrue.

Communication écrite

E-mails, notes de service, propositions commerciales, campagnes publicitaires, lettres officielles, etc. la communication écrite est essentielle en entreprise. Si les mots ont ici leur importance, le « décor » est également essentiel et doit être travaillé avec soin. Couleurs, type et taille de police, visuels illustratifs ou encore longueur des phrases sont le premier contact avec le lecteur et doivent refléter le sens de l’écrit tout en étant lisibles et attractifs.

Communication orale

Les mots ont, bien entendu, ici aussi leur importance. Il est essentiel de bien les choisir en fonction de son/ses interlocuteur.s et d’adapter son vocabulaire.

Cependant, tout orateur le sait : pour faire passer un message de manière efficace lors d’une prise de parole et se faire entendre de son auditoire, les mots ne suffisent pas à eux seuls. Le langage corporel – ou langage para et non verbal – transmet à lui seul environ 95% de l’information. Il est donc crucial de le connaitre, savoir le décrypter et l’utiliser pour en faire un allié de taille pour sa communication.

Communication para-verbale

Il s’agit de tout ce qui habille les mots et les rend plus vivants : l’intonation de notre voix, notre timbre, le débit auquel nous parlons, le volume sonore que nous employons, etc.

Communication non verbale 

Elle représente ces gestes, mimiques, mouvements, postures et autres qui transmettent nos émotions de manière totalement inconsciente et trahissent parfois nos paroles.

communication interpersonnelle2

Comment communiquer efficacement ?

Comment oser dire que l’on ne comprend pas son interlocuteur ? Comment dire non ? Comment savoir si la personne qui vous fait face vous manipule ou si elle est sincère ? Comment mieux se comprendre ? Comment communiquer de façon constructive ?

Les techniques de communication sont nombreuses. Toutes ont leurs particularités et leurs atouts. Elles sont à privilégier selon le contexte, l’objectif, le/les interlocuteur.s en face, etc. Dans le cadre de sa mission, le manager doit les connaitre et être capable de les utiliser à bon escient. La communication managériale étant un pilier de la réussite et de l’ efficacité collective .

Ecoute active

La capacité d’écoute est une compétence essentielle à une bonne communication. Reformulation, empathie, bienveillance, disponibilité, etc. sont autant d’éléments clés de l’ écoute active  permettant d’instaurer un climat de confiance , et induire ainsi une communication sereine et positive.

Cohérence entre communication verbale, para-verbale et non-verbale

L’essentiel de notre communication passant par le para et non verbal, il est essentiel que ces deux aspects soient totalement en phase avec notre verbal, sans quoi le message envoyé à nos interlocuteurs sonnera faux.

Confiance en soi et assertivité

Communiquer avec autrui induit une exposition plus ou moins consciente de notre personnalité et de notre représentation de celle d’autrui . C’est ce qui qualifie la relation. Il est ainsi important d’avoir une excellente connaissance de soi ainsi qu’ une bonne estime de soi afin de communiquer intelligemment et positivement. 

Par ailleurs, savoir et oser prendre sa place et oser dire non lorsque la situation le demande permet également de se positionner adéquatement dans la relation.

Mis en avant

estérification , hydrolyse et réaction de saponification (hydrolyse basique)

Position du problème : estérification et hydrolyse

Question : qu’est-ce que vous pensez gagner de l’étude de l’esterification et de l’hdrolyse !? Question bizarre, mais c’est le point de départ !!!

Deux leçons de terminale science, concernant l’application des lois de la chimie appliquées jusqu’à présent sur des corps d’origine minérale à des corps d’origine organique

Estérification

L’estérification est une réaction de chimie organique au cours de laquelle un groupe fonctionnel ester R1-COO-R2 est obtenu par condensation d’un groupe acide carboxylique R1-COOH et d’un groupe alcool R2-OH ainsi que formation d’eau H2O.

Réaction chimique d’esterification est une Réaction lente, il peut être accélérer en la faisant chauffer et en ajoutant un catalyseur comme l’acide sulfurique, en plus de la pierre ponce qui permet par son agitation d’homogenieser la température dans le mélange réactionnel. Puisque les produits sont volatiles, on utilise un chauffage à reflux et à pression atmosphérique pour que l’appareil ne s’explose pas.

La réaction de base est la condensation d’un alcool sur un acide carboxylique avec élimination d’une molécule d’eau, auquel cas la réaction est réversible (rétro-estérification) et renversable (saponification, quand l’hydrolyse de l’ester se réalise dans des conditions basiques, l’H2O est remplacée par l’ion hydroxyde HO¯1), mais elle peut s’effectuer à partir d’autres réactifs, en particulier à la place de l’acide carboxylique un de ses dérivés, chlorure d’acyle ou anhydride d’acide, changeant le type de réaction et son rendement. Il existe un certain nombre d’autres voies de synthèses impliquant des amides, des nitriles, des éthers, des aldéhydes, des cétones ou d’autres esters

Hydrolyse

Une hydrolyse (du grec hydro : eau et lysis : briser) est une réaction chimique et enzymatique dans laquelle une liaison covalente est rompue par action d’une molécule d’eau.

Par exemple,

Saponification

La saponification est, dans le cadre général, une réaction chimique transformant un ester en ions carboxylate et un alcool. Il s’agit en fait de l’hydrolyse d’un ester en milieu basique. Cette réaction permet la synthèse du savon.

Figues, fruits estivale, riches en espèces chimiques naturelles
acides carboxyliques
Roses une source d’huile essentielle
https://chimiephysiquescience.wordpress.com/2020/06/20/la-chimie-des-couleurs-%f0%9f%a7%aa-buki-france-2-papa-maman-co/
Vin , fermentation alcoolique
Abricot fruit aromatique, contenant de l’eau et des esters naturelles

Objectifs : nomenclature des composés organique : alcools, aides carboxyliques, esters, anhydrides d’acides, définitions de la réaction d’esterification et d’hydrolyse et de saponification (hydrolyse basique) , rendement de la réaction d’esterification, calcul de la vitesse volumique, la constante d’équilibre, les facteurs cinétiques (température, concentration, catalyseur).

Cours et exercices estérification et hydrolyse terminale science

https://chimiephysiquescience.wordpress.com/2021/04/03/cinetique-chimique-evolution-temporel-facteurs-cinetiques-calcul-de-la-vitesse/
https://chimiephysiquescience.wordpress.com/2020/08/22/fabriquer-son-savon-maison/
https://chimiephysiquescience.wordpress.com/2020/06/24/diy-ma-lessive-maison-ecologique-au-lierre-des-ptits-bonheurs-de-filles/
https://chimiephysiquescience.wordpress.com/2021/02/20/les-incontournables-plantes-aromatiques-dossier/
https://chimiephysiquescience.wordpress.com/2021/05/14/fitness-et-sante/

Vidéos estérification et hydrolyse

https://chimiephysiquescience.wordpress.com/2020/08/24/les-grandes-classes-de-reactions-chimiques/
https://chimiephysiquescience.wordpress.com/2020/05/05/apprendre-comprendreproduire-et-publier/
Mis en avant

matieresscientifiques.fr

Question : quel critère qui nous permet de qualifier une discipline de scientifique !?

Position du problème

Les matières scientifiques se distingue des sciences humaines par la rigueur et la méthode, ils ont pour habitude la justification des résultats élaboré à la fin de chaque étude. Si, les matières scientifiques enrichissent les connaissances des gens et les aides à comprendre et prendre des décisions pour résoudre un ensemble de problèmes qu’ils rencontrent dans leur vie, si, cela est compréhensible pour les gens normaux, pour les gens qui ont choisi de faire des études scientifiques, alors les matières scientifiques doivent être une occasion pour acquérir une démarche bâti sur la raison, qui peut être appliquée en classe comme dans la vie courante

Définition les matières scientifiques

Les disciplines scientifiques (aussi appelées « sciences » ou « domaines scientifiques ») sont des parties de la science et sont communément divisées en deux groupes majeurs, distincts de par la nature de leur objet, de leurs méthodes, et de leur finalité : les sciences fondamentales et les sciences appliquées.

Les sciences fondamentales constituent l’ensemble des connaissances rationnelles sur le fonctionnement et l’histoire du monde, indépendamment des considérations pratiques pouvant en résulter. Elles s’opposent aux sciences appliquées qui sont elles-aussi un ensemble de connaissances rationnelles, mais qui visent en ce qui les concerne la réalisation d’objectifs pratiques : cette volonté pratique assimile ainsi souvent les sciences appliquées à la technique.

La science fondamentale et les sciences fondamentales complètent la science appliquée et les sciences appliquées, qui précisément concernent leurs applications. Le corpus de connaissances fondamentales s’amplifie principalement grâce à la recherche fondamentale, mais aussi à la recherche appliquée par sérendipité, de même que la science appliquée bénéficie de la recherche appliquée mais régulièrement aussi de la recherche fondamentale.

https://chimiephysiquescience.wordpress.com/2021/11/15/leducation-aux-valeurs-dans-le-systeme-deducation/

La catégorisation précise des différentes branches de la science est un exercice délicat en raison de l’interdisciplinarité de certaines et aux mutations continues de ces domaines. Ainsi la typologie des sciences proposée est forcément non exhaustive et peut ne pas saisir certaines interdisciplinarités.

Sciences fondamentales

17 معادلة غيرت العالم

La science fondamentale (ou science pure) est l’ensemble des connaissances rationnelles sur le fonctionnement et l’histoire du monde physiquebiologique et humain, indépendamment des considérations pratiques pouvant en résulter. Le corpus de connaissances fondamentales s’amplifie principalement grâce à la recherche fondamentale, mais aussi à la recherche appliquée par sérendipité. On distingue au sein des sciences fondamentales deux grandes familles :

https://chimiephysiquescience.wordpress.com/2021/04/06/terminale-science-cours-et-exercices-de-maths/
  • Les sciences formelles (aussi appelées sciences exactes, en anglais Formal sciences) qui se concentrent sur l’observation de systèmes formels arbitrairement définis pour étudier leurs propriétés. À l’inverse des autres sciences (dites empiriques), les sciences formelles ne se basent pas sur des observations du monde réel pour en déduire des théories. Les « mondes » observés sont fabriqués (abstraits) et les règles qui les régissent sont choisies comme point de départ « admis » (appelés axiomes). Les systèmes étudiés peuvent donc décrire le réel ou aller jusqu’à être des univers parfaitement hypothétiques n’ayant aucune application concrète encore connue.
  • Les sciences empiriques (en anglais Empirical sciences) qui décrivent le monde réel en utilisant la méthodologie de la recherche empirique. Elles consistent plus concrètement en la réalisation d’expériences ou d’observations sur la réalité afin de produire des modèles, des lois, qui expliqueraient le fonctionnement du monde réel tel qu’il est observé durant lesdites expérimentations et observations. La méthodologie empirique passe également par l’évaluation par les pairs : les travaux des chercheurs sont confrontés aux autres chercheurs, à leur critique, de manière in fine à ne retenir que des modèles solides. Les sciences empiriques peuvent être divisées en deux famille en fonction de leur objet d’étude : les sciences naturelles qui étudient le monde naturel ; et les sciences sociales qui a contrario étudient le monde social. Wikipédia
Théorie de l’évolution , c’est pas sorcier
Icons, un pseudocode de la physique

Pour plus d’informations, je vous invite à suivre le lien ci-dessous . . .

https://franceonline.fr/domaine/5dc06e86ee18d15969223f7a

site physagreg , cours de physique chimie cycle qualifiant
https://www.physagreg.fr/terminale.php
Ce n’est pas une coincidence
Faire du sport c’est physique et chimique , c’est pas sorcier
Muscles et souplesse , c’est pas sorcier
lumière et illusion , c’est pas sorcier
Mystères de l’univers , c’est pas sorcier
Comprendre la physique quantique
L’origine de la matière , c’est pas sorcier
Les référentiels à connaitre
Remettons les pendules à l’heure , c’est pas sorcier
Formules de certains produits chimiques usuels
Le nombre d’électrons de la couche externe de certains éléments chimiques

Mis en avant

Rotation d’un solide indéformable autour d’un axe fixe

Allez y, un peu d’effort et tout sera facile après

Position du problème : solide en rotation autour d’un axe fixe

Problème : quelle différence entre mouvement de rotation et mouvement circulaire, y-a-t-il une relation ??

Question : que signifie mouvement d’ensemble ? En mécanique

Mouvement de rotation d’un corps solide autour d’un axe fixe, est une leçon qui commence en première science et se termine en deuxième science, elle pour spécificité de montrer la différence entre translation circulaire et rotation. Si , la translation se caractérise par la vitesse linéaire, alors la rotation se caractérise par la vitesse angulaire. De même pour ètudier un corps en rotation on utilise plutôt le moment de la force que la force elle-même.

Objectifs : solide en rotation autour d’un axe fixe

Objectifs: définir un corps en relation autour d’un axe fixe, ainsi que le mouvement de rotation uniforme, repérage d’un point d’un corps en rotation par son abscisse angulaire ou son abscisse curviligne, vitesse angulaire, relation entre vitesse linéaire et vitesse angulaire, èquation horaire du mouvement, rotation uniforme, période et fréquence, unité Hertz.

Moment d’une force, théorème des moments, la relation fondamentale de la dynamique. Repère de Freinet, Repère cartésien, accélération normale et l’accélération tangentielle. Étude d’un système en rotation et en translation.

Pour plus d’informations voir le lien et les documents ci-dessous

https://www.alloschool.com/section/4213

cours et exercices : un solide en rotation autour d’un axe fixe , terminale science

axe fixe. Pendant une durée At tous les points du solide tourne avec le même angle de rotation donc ils ont la même vitesse « angulaire » mais pas la même vitesse linéaire, car celle-ci varie d’un point à un autre selon la distance qui sépare le point de l’axe de rotation.

Mise en pratique de l’effet de la force d’inertie centrifuge qui apparaît lorsqu’un corps tourne autour d’un axe dans un repere non-galillèn, qui permet aux corps de se coller aux murs à partir d’un certain vitesse, en fonction du rayon de courbure. C’est elle, aussi qui permet aux planètes de tourner autour du soleil

https://chimiephysiquescience.wordpress.com/2021/03/19/les-systemes-mecaniques-oscillants/

Vidéos corps en rotation autour d’un axe fixe terminale science

Créativité au cœur du Maroc profond
Mis en avant

Les Satellites et les Planètes

Position du problème : satellites et les planètes

10 utilisation des satellites artificielle

Problème : la lune et les satellites tournent autour de la terre sous l’effet de la force de gravitation universelle exercée par la terre sur ces satellites, pourquoi ils ne tombent pas sur terre ? Ou bien ils sont vraiment entrain de tomber sur la terre !?

Une fille qui s’occupe de son petit frère, Maroc profond
https://chimiephysiquescience.wordpress.com/2020/11/17/les-trous-noirs-supermassifs-fabriquent-des-spaghettis-et-des-crepes-stellaires/
Passe temps, Maroc profond

Mouvement d’un satellite leçon de Terminale science . D’après la loi de gravitation universelle de Newton, le satellite et l’objet qu’il contient sont soumis à la même accélération radiale qui ne dépend que de leur distance au centre de la terre. Comme leur distance au centre de la Terre est égale, ils ont exactement le même mouvement, l’objet semble flotter dans le satellite. Cette leçon est une opportunité pour montrer que les lois de la mécanique s’applique aux petits objets comme pour les grands objets, comme les planètes .

Objectifs ; satellites et les planètes

Objectifs : connaître et définir les repères galiléens : repere heliocentrique (repere de Copernic) , repere géocentrique, repères terrestres, la loi de gravitation universelle, champs de gravitation et de pesanteur, vitesse de satellisation, les lois de Kepler, orbite géostationaire

Simulation permettant de monter le mouvement d’un satellite géostationaire autour de la terre. On dit qu’un satellite est géostationaire lorsqu’il tourne avec la même vitesse angulaire que la terre. Généralement, ce type de satellites sont utilisés dans la transmission d’informations radio et de télévision.

https://chimiephysiquescience.wordpress.com/2021/07/22/tous-sur-orbite/
القوانين الثلاثة لكبلر
Décollage d’un fusil et répartissant de carburant sur des étages qui sont largués à leurs tours

Pour plus d’informations, voir les documents et le lien ci-dessous

https://www.superprof.fr/ressources/scolaire/physique-chimie/cours-ps-1/terminale-s-ps-1/formules-astronomiques-espace.html

Cours et exercices les satellites et les planètes

https://chimiephysiquescience.wordpress.com/2021/04/04/pourquoi-ne-sent-on-pas-que-la-terre-tourne-2/
https://chimiephysiquescience.wordpress.com/2020/08/31/les-planetes-du-systeme-solaire/
cours et exercices sur les satellites
https://lewebpedagogique.com/physique/revisions-bac-kepler-mouvements-satellites/
https://chimiephysiquescience.wordpress.com/2020/06/24/emilie-du-chatelet-physicienne-traductrice-de-newton-et-femmes-de-lettres-du-siecle-des-lumieres-making-of-de-roman/

Vidéos les satellites et les planètes

https://labolycee.org/suivi-du-niveau-de-la-mer-par-le-satellite-saral

Système solaire
https://chimiephysiquescience.wordpress.com/2020/11/17/linfini-mysteres-et-limites-de-lunivers-dossier/

Solar system

Système solaire , c’est pas sorcier

solar system, assemblage consisting of the Sun—an average star in the Milky Way Galaxy—and those bodies orbiting around it: 8 (formerly 9) planets with about 210 known planetary satellites (moons); countless asteroids, some with their own satellites; comets and other icy bodies; and vast reaches of highly tenuous gas and dust known as the interplanetary medium.

solar system to scale
solar system to scaleThe eight planets of the solar system and Pluto, in a montage of images scaled to show the approximate sizes of the bodies relative to one another. Outward from the Sun, which is represented to scale by the yellow segment at the extreme left, are the four rocky terrestrial planets (Mercury, Venus, Earth, and Mars), the four hydrogen-rich giant planets (Jupiter, Saturn, Uranus, and Neptune), and icy, comparatively tiny Pluto.NASA/Lunar and Planetary Laboratory

The Sun, Moon, and brightest planets were visible to the naked eyes of ancient astronomers, and their observations and calculations of the movements of these bodies gave rise to the science of astronomy. Today the amount of information on the motions, properties, and compositions of the planets and smaller bodies has grown to immense proportions, and the range of observational instruments has extended far beyond the solar system to other galaxies and the edge of the known universe. Yet the solar system and its immediate outer boundary still represent the limit of our physical reach, and they remain the core of our theoretical understanding of the cosmos as well. Earth-launched space probes and landers have gathered data on planets, moons, asteroids, and other bodies, and this data has been added to the measurements collected with telescopes and other instruments from below and above Earth’s atmosphere and to the information extracted from meteorites and from Moon rocks returned by astronauts. All this information is scrutinized in attempts to understand in detail the origin and evolution of the solar system—a goal toward which astronomers continue to make great strides.

Composition of the solar system

Located at the centre of the solar system and influencing the motion of all the other bodies through its gravitational force is the Sun, which in itself contains more than 99 percent of the mass of the system. The planets, in order of their distance outward from the Sun, are MercuryVenusEarthMarsJupiterSaturnUranus, and Neptune. Four planets—Jupiter through Neptune—have ring systems, and all but Mercury and Venus have one or more moons. Pluto had been officially listed among the planets since it was discovered in 1930 orbiting beyond Neptune, but in 1992 an icy object was discovered still farther from the Sun than Pluto. Many other such discoveries followed, including an object named Eris that appears to be at least as large as Pluto. It became apparent that Pluto was simply one of the larger members of this new group of objects, collectively known as the Kuiper belt. Accordingly, in August 2006 the International Astronomical Union (IAU), the organization charged by the scientific community with classifying astronomical objects, voted to revoke Pluto’s planetary status and place it under a new classification called dwarf planet. For a discussion of that action and of the definition of planet approved by the IAU, see planet.

orbits
orbitsThe orbits of the planets and other bodies of the solar system.Encyclopædia Britannica, Inc.
Understand the relative size of the sun, moon, and the other solar system objects
Understand the relative size of the sun, moon, and the other solar system objectsLearn about the comparative size of various solar system objects.© MinutePhysics (A Britannica Publishing Partner)See all videos for this article

Any natural solar system object other than the Sun, a planet, a dwarf planet, or a moon is called a small body; these include asteroids, meteoroids, and comets. Most of the several hundred thousand asteroids, or minor planets, orbit between Mars and Jupiter in a nearly flat ring called the asteroid belt. The myriad fragments of asteroids and other small pieces of solid matter (smaller than a few tens of metres across) that populate interplanetary space are often termed meteoroids to distinguish them from the larger asteroidal bodies.Get a Britannica Premium subscription and gain access to exclusive content.Subscribe Now

The solar system’s several billion comets are found mainly in two distinct reservoirs. The more-distant one, called the Oort cloud, is a spherical shell surrounding the solar system at a distance of approximately 50,000 astronomical units (AU)—more than 1,000 times the distance of Pluto’s orbit. The other reservoir, the Kuiper belt, is a thick disk-shaped zone whose main concentration extends 30–50 AU from the Sun, beyond the orbit of Neptune but including a portion of the orbit of Pluto. (One astronomical unit is the average distance from Earth to the Sun—about 150 million km [93 million miles].) Just as asteroids can be regarded as rocky debris left over from the formation of the inner planets, Pluto, its moon Charon, Eris, and the myriad other Kuiper belt objects can be seen as surviving representatives of the icy bodies that accreted to form the cores of Neptune and Uranus. As such, Pluto and Charon may also be considered to be very large comet nuclei. The Centaur objects, a population of comet nuclei having diameters as large as 200 km (125 miles), orbit the Sun between Jupiter and Neptune, probably having been gravitationally perturbed inward from the Kuiper belt. The interplanetary medium—an exceedingly tenuous plasma (ionized gas) laced with concentrations of dust particles—extends outward from the Sun to about 123 AU.

Orbits

All the planets and dwarf planets, the rocky asteroids, and the icy bodies in the Kuiper belt move around the Sun in elliptical orbits in the same direction that the Sun rotates. This motion is termed prograde, or direct, motion. Looking down on the system from a vantage point above Earth’s North Pole, an observer would find that all these orbital motions are in a counterclockwise direction. In striking contrast, the comet nuclei in the Oort cloud are in orbits having random directions, corresponding to their spherical distribution around the plane of the planets.

The shape of an object’s orbit is defined in terms of its eccentricity. For a perfectly circular orbit, the eccentricity is 0; with increasing elongation of the orbit’s shape, the eccentricity increases toward a value of 1, the eccentricity of a parabola. Of the eight major planets, Venus and Neptune have the most circular orbits around the Sun, with eccentricities of 0.007 and 0.009, respectively. Mercury, the closest planet, has the highest eccentricity, with 0.21; the dwarf planet Pluto, with 0.25, is even more eccentric. Another defining attribute of an object’s orbit around the Sun is its inclination, which is the angle that it makes with the plane of Earth’s orbit—the ecliptic plane. Again, of the planets, Mercury’s has the greatest inclination, its orbit lying at 7° to the ecliptic; Pluto’s orbit, by comparison, is much more steeply inclined, at 17.1°. The orbits of the small bodies generally have both higher eccentricities and higher inclinations than those of the planets. Some comets from the Oort cloud have inclinations greater than 90°; their motion around the Sun is thus opposite that of the Sun’s rotation, or retrograde.

Planets and their moons

The eight planets can be divided into two distinct categories on the basis of their densities (mass per unit volume). The four inner, or terrestrial, planets—Mercury, Venus, Earth, and Mars—have rocky compositions and densities greater than 3 grams per cubic cm. (Water has a density of 1 gram per cubic cm.) In contrast, the four outer planets, also called the Jovian, or giant, planets—Jupiter, SaturnUranus, and Neptune—are large objects with densities less than 2 grams per cubic cm; they are composed primarily of hydrogen and helium (Jupiter and Saturn) or of ice, rock, hydrogen, and helium (Uranus and Neptune). The dwarf planet Pluto is unique—an icy, low-density body smaller than Earth’s Moon, more similar to comets or to the large icy moons of the outer planets than to any of the planets themselves. Its acceptance as a member of the Kuiper belt explains these anomalies.

The relatively small inner planets have solid surfaces, lack ring systems, and have few or no moons. The atmospheres of Venus, Earth, and Mars are composed of a significant percentage of oxidized compounds such as carbon dioxide. Among the inner planets, only Earth has a strong magnetic field, which shields it from the interplanetary medium. The magnetic field traps some of the electrically charged particles of the interplanetary medium inside a region around Earth known as the magnetosphere. Heavy concentrations of these high-energy particles occur in the Van Allen belts in the inner part of the magnetosphere.

The four giant outer planets are much more massive than the terrestrial planets and have immense atmospheres composed mainly of hydrogen and helium. They have no solid surfaces, however, and their densities are so low that one of them, Saturn, would actually float in water. Each of the outer planets has a magnetic field, a ring system, and many known moons, with more likely to be discovered. Pluto has no known rings and only five known moons. Several other Kuiper belt objects and some asteroids also have moons of their own.

Jovian planets
Jovian planetsThe Jovian—or gaseous, Jupiter-like—planets.Lunar and Planetary Institute

Most of the known moons move around their respective planets in the same direction that the planets orbit the Sun. They are extremely diverse, representing a wide range of environmentsJupiter is orbited by Io, a body wracked by intense volcanism, while Saturn’s largest moon, Titan—a body larger than the terrestrial planet Mercury—exhibits a primitive atmosphere denser than that of Earth. Triton moves in a retrograde orbit around Neptune—that is, opposite to the direction of the planet’s orbit around the Sun—and features plumes of material rising through its tenuous atmosphere from a surface whose temperature is only 37 kelvins (K; −393 °F, −236 °C).

Asteroids and comets

The asteroids and comets are remnants of the planet-building process in the inner and outer solar system, respectively. The asteroid belt is home to rocky bodies ranging in size from the largest known asteroid, Ceres (also classified by the IAU as a dwarf planet), with a diameter of roughly 940 km (585 miles), to microscopic dust particles that are dispersed throughout the belt. Some asteroids travel in paths that cross the orbit of Earth, providing opportunities for collisions with the planet. The rare collisions of relatively large objects (those with diameters greater than about 1 km [0.6 mile]) with Earth can be devastating, as in the case of the asteroid impact that is thought to have been responsible for the massive extinction of species at the end of the Cretaceous Period 65 million years ago (see dinosaur: ExtinctionEarth impact hazard). More commonly, the impacting objects are much smaller, reaching Earth’s surface as meteorites. Asteroid observations from Earth, which have been confirmed by spacecraft flybys, indicate that some asteroids are mainly metal (principally iron), others are stony, and still others are rich in organic compounds, resembling the carbonaceous chondrite meteorites. The asteroids that have been visited by spacecraft are irregularly shaped objects pockmarked with craters; some of them have retained very primitive material from the early days of the solar system.

Gaspra
GaspraGaspra, an asteroid of the main belt, in a composite of two images taken by the Galileo spacecraft during its flyby on October 29, 1991. Pocked with numerous small craters, Gaspra measures about 20 km (12 miles) in its longest dimension. Its irregular shape and groovelike linear markings suggest that it was once part of a larger body that experienced one or more shattering collisions. Colours in the composite image have been enhanced by computer to highlight subtle variations in reflectivity and other surface characteristics.NASA/JPL/Caltech

https://www.space.com/16080-solar-system-planets.html

The physical characteristics of comet nuclei are fundamentally different from those of asteroids. Ices are their main constituent, predominantly frozen water, but frozen carbon dioxidecarbon monoxidemethanol, and other ices are also present. These cosmic ice balls are laced with rock dust and a rich variety of organic compounds, many of which are collected in tiny grains. Some comets may have more such “dirt” than ice.

Comet Wild 2
Comet Wild 2The icy nucleus of Comet Wild 2, in a composite image taken by the U.S. Stardust spacecraft during its close approach to the comet on January 2, 2004. The image consists of a short exposure to resolve fine details of the surface and a longer exposure to capture the faint jets of gas and dust streaming into space. Wild 2’s nucleus is about 5 km (3 miles) across.NASA/JPL/Stardust/University of Washington, Seattle

Comets can be classified according to their orbital period, the time it takes for them to revolve around the Sun. Comets that have orbital periods greater than 200 years (and usually much greater) are called long-period comets; those that make a return appearance in less time are short-period comets. Each kind appears to have a distinct source.

The nucleus of a typical long-period comet is irregularly shaped and a few kilometres across. It can have an orbital period of millions of years, and it spends most of its life at immense distances from the Sun, as much as one-fifth of the way to the nearest star. This is the realm of the Oort cloud. The comet nuclei in this spherical shell are too distant to be visible from Earth. The presence of the cloud is presumed from the highly elliptical orbits—with eccentricities close to 1—in which the long-period comets are observed as they approach and then swing around the Sun. Their orbits can be inclined in any direction—hence the inference that the Oort cloud is spherical. In contrast, most short-period comets, particularly those with periods of 20 years or less, move in rounder, prograde orbits near the plane of the solar system. Their source is believed to be the much nearer Kuiper belt, which lies in the plane of the solar system beyond the orbit of Neptune. Comet nuclei in the Kuiper belt have been photographed from Earth with large telescopes.

Hear about the band of dust and debris left by comets, which are visible as meteors (shooting stars)
Hear about the band of dust and debris left by comets, which are visible as meteors (shooting stars)Learn about comet debris, including meteors (shooting stars).© Open University (A Britannica Publishing Partner)See all videos for this article

As comet nuclei trace out the parts of their orbits closest to the Sun, they are warmed through solar heating and begin to shed gases and dust, which form the familiar fuzzy-looking comas and long, wispy tails. The gas dissipates into space, but the grains of silicates and organic compounds remain to orbit the Sun along paths very similar to that of the parent comet. When Earth’s path around the Sun intersects one of these dust-populated orbits, a meteor shower occurs. During such an event, nighttime observers may see tens to hundreds of so-called shooting stars per hour as the dust grains burn up in the upper atmosphere of Earth. Although many random meteors can be observed nightly, they occur at a much higher rate during a meteor shower. Even on an average day, Earth’s atmosphere is bombarded with more than 80 tons of dust grains, mostly asteroidal and cometary debris.

The interplanetary medium

In addition to particles of debris (see interplanetary dust particle), the space through which the planets travel contains protons, electrons, and ions of the abundant elements, all streaming outward from the Sun in the form of the solar wind. Occasional giant solar flares, short-lived eruptions on the Sun’s surface, expel matter (along with high-energy radiation) that contributes to this interplanetary medium.

In 2012 the space probe Voyager 1 crossed the boundary between the interplanetary medium and the interstellar medium—a region called the heliopause. Since passing through the heliopause, Voyager 1 has been able to measure the properties of interstellar space.

Origin of the solar system

As the amount of data on the planets, moons, comets, and asteroids has grown, so too have the problems faced by astronomers in forming theories of the origin of the solar system. In the ancient world, theories of the origin of Earth and the objects seen in the sky were certainly much less constrained by fact. Indeed, a scientific approach to the origin of the solar system became possible only after the publication of Isaac Newton’s laws of motion and gravitation in 1687. Even after this breakthrough, many years elapsed while scientists struggled with applications of Newton’s laws to explain the apparent motions of planets, moons, comets, and asteroids. In 1734 Swedish philosopher Emanuel Swedenborg proposed a model for the solar system’s origin in which a shell of material around the Sun broke into small pieces that formed the planets. This idea of the solar system forming out of an original nebula was extended by the German philosopher Immanuel Kant in 1755.

Early scientific theories

The Kant-Laplace nebular hypothesis

Kant’s central idea was that the solar system began as a cloud of dispersed particles. He assumed that the mutual gravitational attractions of the particles caused them to start moving and colliding, at which point chemical forces kept them bonded together. As some of these aggregates became larger than others, they grew still more rapidly, ultimately forming the planets. Because Kant was highly versed in neither physics nor mathematics, he did not recognize the intrinsic limitations of his approach. His model does not account for planets moving around the Sun in the same direction and in the same plane, as they are observed to do, nor does it explain the revolution of planetary satellites.BRITANNICA QUIZ36 Questions from Britannica’s Most Popular Science QuizzesHow well do you know astronomy? How about quantum mechanics? This quiz will take you through 36 of the hardest questions from Britannica’s most popular quizzes about the sciences. Only the best quizmasters will finish it.

A significant step forward was made by Pierre-Simon Laplace of France some 40 years later. A brilliant mathematician, Laplace was particularly successful in the field of celestial mechanics. Besides publishing a monumental treatise on the subject, Laplace wrote a popular book on astronomy, with an appendix in which he made some suggestions about the origin of the solar system.

Laplace’s model begins with the Sun already formed and rotating and its atmosphere extending beyond the distance at which the farthest planet would be created. Knowing nothing about the source of energy in stars, Laplace assumed that the Sun would start to cool as it radiated away its heat. In response to this cooling, as the pressure exerted by its gases declined, the Sun would contract. According to the law of conservation of angular momentum, the decrease in size would be accompanied by an increase in the Sun’s rotational velocity. Centrifugal acceleration would push the material in the atmosphere outward, while gravitational attraction would pull it toward the central mass; when these forces just balanced, a ring of material would be left behind in the plane of the Sun’s equator. This process would have continued through the formation of several concentric rings, each of which then would have coalesced to form a planet. Similarly, a planet’s moons would have originated from rings produced by the forming planets.

Laplace’s model led naturally to the observed result of planets revolving around the Sun in the same plane and in the same direction as the Sun rotates. Because the theory of Laplace incorporated Kant’s idea of planets coalescing from dispersed material, their two approaches are often combined in a single model called the Kant-Laplace nebular hypothesis. This model for solar system formation was widely accepted for about 100 years. During this period, the apparent regularity of motions in the solar system was contradicted by the discovery of asteroids with highly eccentric orbits and moons with retrograde orbits. Another problem with the nebular hypothesis was the fact that, whereas the Sun contains 99.9 percent of the mass of the solar system, the planets (principally the four giant outer planets) carry more than 99 percent of the system’s angular momentum. For the solar system to conform to this theory, either the Sun should be rotating more rapidly or the planets should be revolving around it more slowly.

Twentieth-century developments

In the early decades of the 20th century, several scientists decided that the deficiencies of the nebular hypothesis made it no longer tenable. The Americans Thomas Chrowder Chamberlin and Forest Ray Moulton and later James Jeans and Harold Jeffreys of Great Britain developed variations on the idea that the planets were formed catastrophically—i.e., by a close encounter of the Sun with another star. The basis of this model was that material was drawn out from one or both stars when the two bodies passed at close range, and this material later coalesced to form planets. A discouraging aspect of the theory was the implication that the formation of solar systems in the Milky Way Galaxy must be extremely rare, because sufficiently close encounters between stars would occur very seldom.

The next significant development took place in the mid-20th century as scientists acquired a more-mature understanding of the processes by which stars themselves must form and of the behaviour of gases within and around stars. They realized that hot gaseous material stripped from a stellar atmosphere would simply dissipate in space; it would not condense to form planets. Hence, the basic idea that a solar system could form through stellar encounters was untenable. Furthermore, the growth in knowledge about the interstellar medium—the gas and dust distributed in the space separating the stars—indicated that large clouds of such matter exist and that stars form in these clouds. Planets must somehow be created in the process that forms the stars themselves. This awareness encouraged scientists to reconsider certain basic processes that resembled some of the earlier notions of Kant and Laplace.

Modern ideas

The current approach to the origin of the solar system treats it as part of the general process of star formation. As observational information has steadily increased, the field of plausible models for this process has narrowed. This information ranges from observations of star-forming regions in giant interstellar clouds to subtle clues revealed in the existing chemical composition of the objects present in the solar system. Many scientists have contributed to the modern perspective, most notably the Canadian-born American astrophysicist Alistair G.W. Cameron.

Formation of the solar nebula

Discover how the solar system, which started as a shapeless spherical blob ended up being flat
Discover how the solar system, which started as a shapeless spherical blob ended up being flatLearn how the solar system, which formed from a roughly spherical cloud, became flat.© MinutePhysics (A Britannica Publishing Partner)See all videos for this article

The favoured paradigm for the origin of the solar system begins with the gravitational collapse of part of an interstellar cloud of gas and dust having an initial mass only 10–20 percent greater than the present mass of the Sun. This collapse could be initiated by random fluctuations of density within the cloud, one or more of which might result in the accumulation of enough material to start the process, or by an extrinsic disturbance such as the shock wave from a supernova. The collapsing cloud region quickly becomes roughly spherical in shape. Because it is revolving around the centre of the Galaxy, the parts more distant from the centre are moving more slowly than the nearer parts. Hence, as the cloud collapses, it starts to rotate, and, to conserve angular momentum, its speed of rotation increases as it continues to contract. With ongoing contraction, the cloud flattens, because it is easier for matter to follow the attraction of gravity perpendicular to the plane of rotation than along it, where the opposing centrifugal force is greatest. The result at this stage, as in Laplace’s model, is a disk of material formed around a central condensation.

solar system
solar systemArtist’s conception of a young version of the solar system depicting the dusty disks thought to be the breeding grounds of planets.NASA/JPL

READ MORE ON THIS TOPICchemical element: Solar systemDirect observations of chemical composition can be made for the Earth, the Moon, and meteorites, although there are some problems of interpretation….

View an animation of a brown dwarf surrounded by a swirling disk of planet-building dust
View an animation of a brown dwarf surrounded by a swirling disk of planet-building dustComputer animation showing a brown dwarf surrounded by a swirling disk of planet-building dust.NASA/JPLSee all videos for this article

This configuration, commonly referred to as the solar nebula, resembles the shape of a typical spiral galaxy on a much reduced scale. As gas and dust collapse toward the central condensation, their potential energy is converted to kinetic energy (energy of motion), and the temperature of the material rises. Ultimately the temperature becomes great enough within the condensation for nuclear reactions to begin, thereby giving birth to the Sun.

Meanwhile, the material in the disk collides, coalesces, and gradually forms larger and larger objects, as in Kant’s theory. Because most of the grains of material have nearly identical orbits, collisions between them are relatively mild, which allows the particles to stick and remain together. Thus, larger agglomerations of particles are gradually built up.

Differentiation into inner and outer planets

At this stage the individual accreting objects in the disk show differences in their growth and composition that depend on their distances from the hot central mass. Close to the nascent Sun, temperatures are too high for water to condense from gaseous form to ice, but, at the distance of present-day Jupiter (approximately 5 AU) and beyond, water ice can form. The significance of this difference is related to the availability of water to the forming planets. Because of the relative abundances in the universe of the various elements, more molecules of water can form than of any other compound. (Water, in fact, is the second most abundant molecule in the universe, after molecular hydrogen.) Consequently, objects forming in the solar nebula at temperatures at which water can condense to ice are able to acquire much more mass in the form of solid material than objects forming closer to the Sun. Once such an accreting body achieves approximately 10 times the present mass of Earth, its gravity can attract and retain large amounts of even the lightest elements, hydrogen and helium, from the solar nebula. These are the two most abundant elements in the universe, and so planets forming in this region can become very massive indeed. Only at distances of 5 AU or more is there enough mass of material in the solar nebula to build such a planet.

This simple picture can explain the extensive differences observed between the inner and outer planets. The inner planets formed at temperatures too high to allow the abundant volatile substances—those with comparatively low freezing temperatures—such as water, carbon dioxide, and ammonia to condense to their ices. They therefore remained small rocky bodies. In contrast, the large low-density, gas-rich outer planets formed at distances beyond what astronomers have dubbed the “snow line”—i.e., the minimum radius from the Sun at which water ice could have condensed, at about 150 K (−190 °F, −120 °C). The effect of the temperature gradient in the solar nebula can be seen today in the increasing fraction of condensed volatiles in solid bodies as their distance from the Sun increases. As the nebular gas cooled, the first solid materials to condense from a gaseous phase were grains of metal-containing silicates, the basis of rocks. This was followed, at larger distances from the Sun, by formation of the ices. In the inner solar system, Earth’s Moon, with a density of 3.3 grams per cubic cm, is a satellite composed of silicate minerals. In the outer solar system are low-density moons such as Saturn’s Tethys. With a density of about 1 gram per cubic cm, this object must consist mainly of water ice. At distances still farther out, the satellite densities rise again but only slightly, presumably because they incorporate denser solids, such as frozen carbon dioxide, that condense at even lower temperatures.

Despite its apparent logic, this scenario has received some strong challenges since the early 1990s. One has come from the discovery of other solar systems, many of which contain giant planets orbiting very close to their stars. (See below Studies of other solar systems.) Another has been the unexpected finding from the Galileo spacecraft mission that Jupiter’s atmosphere is enriched with volatile substances such as argon and molecular nitrogen (see Jupiter: Theories of the origin of the Jovian system). For these gases to have condensed and become incorporated in the icy bodies that accreted to form Jupiter’s core required temperatures of 30 K (−400 °F, −240 °C) or less. This corresponds to a distance far beyond the traditional snow line where Jupiter is thought to have formed. On the other hand, certain later models have suggested that the temperature close to the central plane of the solar nebula was much cooler (25 K [−415 °F, −248 °C]) than previously estimated.

Although a number of such problems remain to be resolved, the solar nebula model of Kant and Laplace appears basically correct. Support comes from observations at infrared and radio wavelengths, which have revealed disks of matter around young stars. These observations also suggest that planets form in a remarkably short time. The collapse of an interstellar cloud into a disk should take about one million years. The thickness of this disk is determined by the gas it contains, as the solid particles that are forming rapidly settle to the disk’s midplane, in times ranging from 100,000 years for 1-micrometre (0.00004-inch) particles to just 10 years for 1-cm (0.4-inch) particles. As the local density increases at the midplane, the opportunity becomes greater for the growth of particles by collision. As the particles grow, the resulting increase in their gravitational fields accelerates further growth. Calculations show that objects 10 km (6 miles) in size will form in just 1,000 years. Such objects are large enough to be called planetesimals, the building blocks of planets.

Later stages of planetary accretion

Continued growth by accretion leads to larger and larger objects. The energy released during accretionary impacts would be sufficient to cause vaporization and extensive melting, transforming the original primitive material that had been produced by direct condensation in the nebula. Theoretical studies of this phase of the planet-forming process suggest that several bodies the size of the Moon or Mars must have formed in addition to the planets found today. Collisions of these giant planetesimals—sometimes called planetary embryos—with the planets would have had dramatic effects and could have produced some of the anomalies seen today in the solar system—for example, the strangely high density of Mercury and the extremely slow and retrograde rotation of Venus. A collision of Earth and a planetary embryo about the size of Mars could have formed the Moon (see Moon: Origin and evolution). Somewhat smaller impacts on Mars in the late phases of accretion may have been responsible for the present thinness of the Martian atmosphere.

Studies of isotopes formed from the decay of radioactive parent elements with short half-lives, in both lunar samples and meteorites, have demonstrated that the formation of the inner planets, including Earth, and the Moon was essentially complete within 50 million years after the interstellar cloud region collapsed. The bombardment of planetary and satellite surfaces by debris left over from the main accretionary stage continued intensively for another 600 million years, but these impacts contributed only a few percent of the mass of any given object.

Formation of the outer planets and their moons

This general scheme of planet formation—the building up of larger masses by the accretion of smaller ones—occurred in the outer solar system as well. Here, however, the accretion of icy planetesimals produced objects with masses 10 times that of Earth, sufficient to cause the gravitational collapse of the surrounding gas and dust in the solar nebula. This accretion plus collapse allowed these planets to grow so large that their composition approached that of the Sun itself, with hydrogen and helium the dominant elements. Each planet started with its own “subnebula,” forming a disk around a central condensation. The so-called regular satellites of the outer planets, which today have nearly circular orbits close to the equatorial planes of their respective planets and orbital motion in the same direction as the planet’s rotation, formed from this disk. The irregular satellites—those having orbits with high eccentricity, high inclination, or both, and sometimes even retrograde motion—must represent objects formerly in orbit around the Sun that were gravitationally captured by their respective planets. Neptune’s moon Triton and Saturn’s Phoebe are prominent examples of captured moons in retrograde orbits, but every giant planet has one or more retinues of such satellites.

It is interesting that the density distribution of Jupiter’s Galilean satellites, its four largest regular moons, mirrors that of the planets in the solar system at large. The two Galilean moons closest to the planet, Io and Europa, are rocky bodies, while the more-distant Ganymede and Callisto are half ice. Models for the formation of Jupiter suggest that this giant planet was sufficiently hot during its early history that ice could not condense in the circumplanetary nebula at the present position of Io. (See Jupiter: Theories of the origin of the Jovian system.)

The small bodies

At some point after most of the matter in the solar nebula had formed discrete objects, a sudden increase in the intensity of the solar wind apparently cleared the remaining gas and dust out of the system. Astronomers have found evidence of such strong outflows around young stars. The larger debris from the nebula remained, some of which is seen today in the form of asteroids and comets. The rapid growth of Jupiter apparently prevented the formation of a planet in the gap between Jupiter and Mars; within this area remain the thousands of objects that make up the asteroid belt, whose total mass is less than one-third the mass of the Moon. The meteorites that are recovered on Earth, the great majority of which come from these asteroids, provide important clues to the conditions and processes in the early solar nebula.

The icy comet nuclei are representative of the planetesimals that formed in the outer solar system. Most are extremely small, but the Centaur object called Chiron—originally classified as a distant asteroid but now known to show characteristics of a comet—has a diameter estimated to be about 200 km (125 miles). Other bodies of this size and much larger—e.g., Pluto and Eris—have been observed in the Kuiper belt. Most of the objects occupying the Kuiper belt apparently formed in place, but calculations show that billions of icy planetesimals were gravitationally expelled by the giant planets from their vicinity as the planets formed. These objects became the population of the Oort cloud.

Formation of ring systems

The formation of planetary rings remains a subject of intense research, although their existence can be easily understood in terms of their position relative to the planet that they surround. Each planet has a critical distance from its centre known as its Roche limit, named for Édouard Roche, the 19th-century French mathematician who first explained this concept. The ring systems of Jupiter, Saturn, Uranus, and Neptune lie inside the Roche limits of their respective planets. Within this distance the gravitational attraction of two small bodies for each other is smaller than the difference in the attraction of the planet for each of them. Hence, the two cannot accrete to form a larger object. Moreover, because a planet’s gravitational field acts to disperse the distribution of small particles in a surrounding disk, the random motions that would lead to accretion by collision are minimized.

Saturn
SaturnSaturn and its spectacular rings, in a natural-colour composite of 126 images taken by the Cassini spacecraft on October 6, 2004. The view is directed toward Saturn’s southern hemisphere, which is tipped toward the Sun. Shadows cast by the rings are visible against the bluish northern hemisphere, while the planet’s shadow is projected on the rings to the left.NASA/JPL/Space Science Institute

The problem challenging astronomers is in understanding how and when the material making up a planet’s rings reached its present position within the Roche limit and how the rings are radially confined. These processes are likely to be very different for the different ring systems. Jupiter’s rings are clearly in a steady state between production and loss, with fresh particles continuously being supplied by the planet’s inner moons. For Saturn, scientists are divided between those who propose that the rings are remnants of the planet-forming process and those who believe that the rings must be relatively young—perhaps only a few hundred million years old. In either case, their source appears to be icy planetesimals that collided and fragmented into the small particles observed today.

Solution to the angular momentum puzzle

The angular momentum problem that defeated Kant and Laplace—why the planets have most of the solar system’s angular momentum while the Sun has most of the mass—can now be approached in a cosmic context. All stars having masses that range from slightly above the mass of the Sun to the smallest known masses rotate more slowly than an extrapolation based on the rotation rate of stars of higher mass would predict. Accordingly, these sunlike stars show the same deficit in angular momentum as the Sun itself.

The answer to how this loss could have occurred seems to lie in the solar wind. The Sun and other stars of comparable mass have outer atmospheres that are slowly but steadily expanding into space. Stars of higher mass do not exhibit such stellar winds. The loss of angular momentum associated with this loss of mass to space is sufficient to reduce the rate of the Sun’s rotation. Thus, the planets preserve the angular momentum that was in the original solar nebula, but the Sun has gradually slowed down in the 4.6 billion years since it formed.

Studies of other solar systems

Astronomers have long wondered if the process of planetary formation has accompanied the birth of stars other than the Sun. The discovery of extrasolar planets—planets circling other stars—would help clarify their ideas of the formation of Earth’s solar system by removing the handicap of being able to study only one example. Extrasolar planets were not expected to be easy to see directly with Earth-based telescopes because such small and dim objects would usually be obscured in the glare of the stars that they orbit. Instead, efforts were made to observe them indirectly by noting the gravitational effects that they exerted on their parent stars—for example, slight wobbles produced in the parent star’s motion through space or, alternately, small periodic changes in some property of the star’s radiation, caused by the planet’s tugging the star first toward and then away from the direction of Earth. Extrasolar planets also could be detected indirectly by measuring the change in a star’s apparent brightness as the planet passed in front of (transited) the star.

After decades of searching for extrasolar planets, astronomers in the early 1990s confirmed the presence of three bodies circling a pulsar—i.e., a rapidly spinning neutron star—called PSR B1257+12. The first discovery of a planet revolving around a less-exotic, more-sunlike star took place in 1995, when the existence of a massive planet moving around the star 51 Pegasi was announced. By the end of 1996 astronomers had indirectly identified several more planets in orbit around other stars, but only in 2005 did astronomers obtain the first direct photographs of what appeared to be an extrasolar planet. Hundreds of planetary systems are known.

In addition, as discussed above with regard to Earth’s solar system, the enrichment of argon and molecular nitrogen detected on Jupiter by the Galileo probe is at odds with the relatively high temperature that must have existed in the vicinity of the snow line during the planet’s formation. This finding suggests that the snow line may not be crucial to the formation of giant planets. The availability of ice is certainly key to their development, but perhaps this ice formed very early, when the temperature at the nebula’s midplane was less than 25 K. Although the snow line at that time may have been much closer to the Sun than Jupiter is today, there simply may not have been enough matter in the solar nebula at those distances to form a giant planet.

Most of the extrasolar planets discovered in the first decade or so following the initial discoveries have masses similar to or greater than that of Jupiter. As techniques are developed for detecting smaller planets, astronomers will gain a better understanding of how planetary systems, including the Sun’s, form and evolve.Tobias Chant Owen

newsletter icon

HISTORY AT YOUR FINGERTIPSSign up here to see what happened On This Day, every day in your inbox!Email addressBy signing up, you agree to our Privacy Notice.IcarusARTICLE

FAST FACTSADDITIONAL INFOHomeScienceAstronomy

Icarus

Apollo asteroidPrintCite Share MoreBY The Editors of Encyclopaedia Britannica | View Edit History


Icarus, an Apollo asteroid (one that passes inside Earth’s orbit). It was discovered on June 27, 1949, by German-born American astronomer Walter Baade of the Hale Observatories (now Palomar Observatory), California. At the time of its discovery, Icarus had a more-eccentric orbit than any other known body in the solar system except for some comets. Its orbit extends from beyond Mars to within that of Mercury; it can approach within 6.4 million km (4 million miles) of Earth. It revolves around the Sun once in 1.12 Earth years. Icarus rotates once in 2.3 hours. It has a diameter of about 1 km (0.6 mile). In June 1968 Icarus became the first asteroid to be examined by radar. Compositionally, the asteroid’s surface resembles ordinary chondrite meteorites.This article was most recently revised and updated by Erik Gregersen, Senior Editor.

Satellites , c’est pas sorcier
Mis en avant

L’électrolyse, un exemple de transformations forcées

Position de problème : électrolyse , transformation forcée

Question : pourquoi l’électrolyse est qualifié de transformations forcée ? Donner un autre exemple . Le chauffage de l’eau dans l’image ci-dessous , est-il une transformation spontanée ou forcée ??

Chauffage de l’eau pour le thé, Maroc profond. Chauffage de l’eau est-il une opération spontanée ou forcée ??

En grande partie, le programme de terminale science, en physique comme en chimie à pour objectif de montrer aux élèves que chaque transformation peut évoluer selon deux sens : un sens spontané qui ne demande pas d’effort et qui généralement genere de l’énergie, un sens forcé, dit aussi provoqué, qui est généralement consommateur d’énergie, c’est le cas de l’électrolyse.

Objectifs : leçon transformations forcées

Objectifs : distinguer une transformation spontanée d’une transformation forcée, distinguer l’anode du cathode, écrire la demi-équation de l’oxydation et la demi-équation de rédaction, écrire l’équation bilan de l’électrolyse, l’électrode soluble

Matériels de laboratoire de chimie

Pour plus d’informations sur ce sujet, suivez le lien ci-dessous

https://www.maxicours.com/se/cours/l-electrolyse-un-exemple-de-transformations-forcees/

étude documentaire KEZAKO : COMMENT RECHARGE-T-ON UNE PILE ?

Kezako, la série documentaire qui répond à vos questions de science, aborde cette fois-ci la question « Comment recharge-t-on une pile ? « .N’hesitez pas à réagir ou à oser vos questions qui seront peut être abordées par la suite.

pour voir le vidéo cliquez sur le lien suivant https://www.canal-u.tv/chaines/canal-unisciel/kezako-comment-recharge-t-on-une-pile

Cours exercices l’électrolyse

https://chimiephysiquescience.wordpress.com/2021/03/21/esterification-hydrolyse-et-reaction-de-saponification/

Vidéos transformations forcées , électrolyse

Différence entre pile et électrolyse
électrolyse de l’eau
https://chimiephysiquescience.wordpress.com/2021/06/24/contribuons-a-la-vulgarisation-de-la-culture-scientifique/
Pile électrochimique
Pile Daniel
https://chimiephysiquescience.wordpress.com/2021/03/21/esterification-hydrolyse-et-reaction-de-saponification/
électrolyseur et pile à combustible
électrolyse à anode soluble
https://chimiephysiquescience.wordpress.com/2020/10/30/les-metiers-de-la-chimie/
https://chimiephysiquescience.wordpress.com/2021/10/10/valoriser-ses-competences-sociales-soft-skills-dans-sa-candidature-en-allemagne-connexion-emploi/
https://chimiephysiquescience.wordpress.com/2020/06/24/focaliser-sur-lessentiel-time-to-grow/
https://chimiephysiquescience.wordpress.com/2022/03/06/%d9%85%d8%a7-%d9%85%d8%b9%d9%86%d9%89-%d8%a7%d9%84%d9%83%d9%81%d8%a7%d9%8a%d8%a7%d8%aa-%d8%a7%d9%84%d9%84%d8%ba%d9%88%d9%8a%d8%a9-%d8%9f-%d9%85%d9%82%d8%a7%d9%84/
Mis en avant

Chute verticale d’un solide, cours de physique de terminale science

Position de problème : chute verticale d’un solide

Question 1 : y-a-t-il une différence entre chute et chute libre ?

Question 2 : pourquoi dit-on que la lune est en chute libre ?

Problème : au même temps que Newton voyait les 🍎 pommes tombaient des arbres 🌳 , il voyait aussi la lune passée au dessus de sa tête, ce qui le pousse à s’interroger s’il y avait une relation entre les deux phénomènes, le résultat c’est l’invention :de la gravitation universelle. Quelle est cette relation qui unifie ces deux phénomènes ?

La chute verticale est la seule leçon du terminale science où les frottements fluide sont considéré non négligeable, et où l’application de la deuxième loi de Newton permet d’établir l’équation différentielle de la variation de la vitesse du centre d’inertie, l’utilisation de la méthode d’Euler permet de résoudre numériquement l’équation différentielle du mouvement, comme il permet de déterminer l’expression de la vitesse limite.

Puit, Maroc profond
Mère et son fils, Maroc profond

Deux solides en chute libre dans le champ de pesanteur, un est liberé sans vitesse initiale, il tombe selon une trajectoire verticale, l’autre est lancé avec une vitesse initiale horizontal, il décrit un trajectoire parabolique, cependant, tout les deux faisaient le même temps pour atteindre le sol

Pour connaître plus sur ce sujet, suivez le lien ci-dessous

https://guy-chaumeton.pagesperso-orange.fr/ts10ph.htm

Cours et exercices cute verticale d’un solide terminale science SM PC SVT ; Chute libre

Poussée d’Archimed est la force qu’exerce un fluide sur un et le pousse vers le haut, ce qui permet au solide de flotter soit à l’intérieur du fluide, soit à la surface en fonction des masses volumiques du solide et du fluide

Chute libre d’un ressort, vision stroboscopique, vraiment étonnante et intéressante à voir et à se poser des questions

تمرين السقوط الراسي، الثانية بكالوريا علوم تجريبية

https://www.physagreg.fr/mecanique-12-chute-frottements.php

https://chimiephysiquescience.wordpress.com/2021/03/15/mecanique-les-mouvements-plans/

Vidéos chute verticale d’un solide

cours chute libre et méthode d’Euler
Explication de la méthode d’Euler
les hommes volant en chute libre
Vol en impésanteur
Mis en avant

Pile Daniell , transformation spontanée

Position du problème les piles

Problème : est-ce que le sens direct coïncide toujours avec le sens d’évolution spontané ?

Question : comment on peut montrer pratiquement qu’une pile évolue dans le sens spontanée ? Comment s’appelle l’opération qui fait évoluer la pile dans l’autre

Pile Daniell

En physique comme en chimie, les élèves de terminale science sont mené à comprendre que chaque transformation à deux sens, un sens qui se déroule spontanément comme le cas des piles et un sens forcé comme le cas de l’électrolyse. Généralement, les transformations spontanées generent de l’énergie pour le milieu extérieur.

Pas de civilisation sans éducation

Objectifs leçon les piles

Objectifs : connaître les constitutions essentiels d’une pile, faire et commenter le schema d’une pile, savoir écrire le schema conventionel d’une pile, distinguer l’anode du cathode, écrire les demi-équation d’oxydation anodique et de la réduction cathodique, écrire l’équation-bilan de la pile, connaître et utiliser le critère d’évolution spontané , définir le Faraday, calculer la quantité d’électricité qui traverse la section d’une pile, connaître la capacité d’une pile

Une simulation en anglais expliquant le fonctionnement de la pile Daniell, elle permet d’expliquer ce qui se produit au niveau de la cathode (déposition de cuivre) et au niveau de l’anode (corrosion de zinc) , on peut aussi comprendre le rôle que joue la membrane porouse (pont ionique) qui sépare les deux compartment dans le maintien de la neutralité électrique des deux solutions (la migration des ions sulfate de la solution bleue vers l’autre solution de sulfate de zinc

Pour connaître plus sur la pile Daniell, suivez le lien ci-dessous

https://fr.m.wikipedia.org/wiki/Pile_Daniell

Cours et exercices les piles électrochimiques terminale science

pile électrochimique

Une pile électrique, dite familièrement pile, est un dispositif électrochimique qui produit de l’électricité en convertissant l’énergie chimique en énergie électrique grâce à une réaction chimique d’oxydoréduction. Wikipédia

pile à combustion

Une pile à combustible est une pile dans laquelle la génération d’une tension électrique se fait grâce à l’oxydation sur une électrode d’un combustible réducteur couplée à la réduction sur l’autre électrode d’un oxydant, tel que l’oxygène de l’air. Wikipédia

https://chimiephysiquescience.wordpress.com/2021/03/16/chap-10-evolution-spontanee-dun-systeme-chimique-vers-letat-dequilibre/
https://chimiephysiquescience.wordpress.com/2021/03/15/lelectrolyse-un-exemple-de-transformations-forcees-maxicours/

Vidéos les piles électrochimique

https://chimiephysiquescience.wordpress.com/2020/09/09/les-limites-de-la-connaissance-en-physique/
Cours et exercices sur les piles, exemple de transformation chimique spontanée terminale science expérimentale et mathématiques
https://chimiephysiquescience.wordpress.com/2021/04/06/terminale-science-cours-et-exercices-de-maths/
Mis en avant

Dosage par titrage pH-métrique – Physique Chimie

Position du problème : les acides et les bases

Problème : pourquoi le citron est-il amer !!??

Produits acido-basique dans la vie courante
citron est un aliment acide riche en vitamine C
Citron, citronnier

L’étude quantitative d’une réaction chimique exige le choix d’une méthode de suivi, qui permet de mesurer au moins la quantité de matière d’un des constituants du système chimique. Il y a deux familles de méthodes, les méthodes physiques qualifiés de non destructive et qui utilisent de petites quantités de matières, des méthodes chimiques qualifiés de destructive car elles utilisent de bon quantités de matières, de même elles demandent pas mal de temps vis à vis des premières . Le suivi pH-metrique fait partie de ces méthodes chimiques. Pour le suivi d’un dosage acido-basique il y a deux techniques, dosage colorimetrque relativement rapide mais moins précis, il y le dosage par suivi pH-metrique relativement lent mais plus précis, l’utilisation de matériels informatiques dans le cadre de l’EXAO à permet de rendre cette deuxième méthode beaucoup plus convivial.

Pour avoir une idée sur cette méthode, suivi le lien ci-dessous

https://physique-chimie.discip.ac-caen.fr/spip.php?article916

Cours et exercices les acides et les bases terminale science

Un acide est un corps capable de céder un ou des protons (une particule fondamentale chargée d’électricité positive) et une base est un corps capable de capter un ou des protons. … Par exemple, l’acide chlorhydrique concentré (acide fort) a un pH proche de 0 ; la soude, base très forte, a un pH proche de 14.

Exemples d’acides et de bases fortes
Formule chimique de l’indicateur coloré phenolphtaléine
https://chimiephysiquescience.wordpress.com/2021/01/26/decouvrez-le-top-5-des-meilleurs-livres-de-science-fiction/
Exercice dosage acido-basique
Vérification expérimentale de la capacité C d’un condensateur
L’énergie électrique emmagasinée dans un condensateur
https://chimiephysiquescience.wordpress.com/2021/01/21/quelles-sont-les-grandes-decouvertes-de-la-renaissance-2/
Exercice acide et base terminale science math
Réaction acide base
cours acide base , calcul de pH

Exercice dosage acido-basique d’un acide qui réagi partiellement avec l’eau par une base qui réagi complètement avec l’eau. Utilisation de la méthode des tangentes pour la détermination du point d’équivalence.

Dosage conductimètrique
Dosage acide base direct
acide base diagramme de prédominance
Dosage pH-mètrique

Acid-Base Equilibria

Acids and Basies
Acid base titrations
Weak acid strong base titration

  • 6.1: Review: Defining Acids and Bases
    In chemistry, acids and bases have been defined differently by three sets of theories: One is the Arrhenius definition defined above, which revolves around the idea that acids are substances that ionize (break off) in an aqueous solution to produce hydrogen (H+) ions while bases produce hydroxide (OH-) ions in solution. The other two definitions are discussed in detail alter in the chapter and include the Brønsted-Lowry definition and the Lewis theory.
  • 6.2: Brønsted–Lowry Acids and Bases A compound that can donate a proton (a hydrogen ion) to another compound is called a Brønsted-Lowry acid. The compound that accepts the proton is called a Brønsted-Lowry base. The species remaining after a Brønsted-Lowry acid has lost a proton is the conjugate base of the acid. The species formed when a Brønsted-Lowry base gains a proton is the conjugate acid of the base. Thus, an acid-base reaction occurs when a proton is transferred from an acid to a base.
  • 6.3: The pH Scale The concentration of hydronium ion in a solution of an acid in water is greater than 1.0×10−7M1.0×10−7M at 25 °C. The concentration of hydroxide ion in a solution of a base in water is greater than 1.0×10−7M1.0×10−7M at 25 °C. The concentration of H3O+ in a solution can be expressed as the pH of the solution; pH=−logH3O+pH=−log⁡H3O+. The concentration of OH− can be expressed as the pOH of the solution: pOH=−log[OH−]pOH=−log⁡[OH−]. In pure water, pH = 7 and pOH = 7.
  • 6.4: Acid-Base Strength The strengths of Brønsted-Lowry acids and bases in aqueous solutions can be determined by their acid or base ionization constants. Stronger acids form weaker conjugate bases, and weaker acids form stronger conjugate bases. Thus strong acids are completely ionized in aqueous solution because their conjugate bases are weaker bases than water. Weak acids are only partially ionized because their conjugate bases are strong enough to compete successfully with water for possession of protons.
  • 6.5: Solving Acid-Base ProblemsThe strengths of Brønsted-Lowry acids and bases in aqueous solutions can be determined by their acid or base ionization constants. Stronger acids form weaker conjugate bases, and weaker acids form stronger conjugate bases. Thus strong acids are completely ionized in aqueous solution because their conjugate bases are weaker bases than water. Weak acids are only partially ionized because their conjugate bases are strong enough to compete successfully with water for possession of protons.
  • 6.6: Acidic and Basic Salt Solutions The characteristic properties of aqueous solutions of Brønsted-Lowry acids are due to the presence of hydronium ions; those of aqueous solutions of Brønsted-Lowry bases are due to the presence of hydroxide ions. The neutralization that occurs when aqueous solutions of acids and bases are combined results from the reaction of the hydronium and hydroxide ions to form water. Some salts formed in neutralization reactions may make the product solutions slightly acidic or slightly basic.
  • 6.7: Lewis Acids and Bases The Brønsted-Lowry proton donor-acceptor concept has been one of the most successful theories of Chemistry. But as with any such theory, it is fair to ask if this is not just a special case of a more general theory that could encompass an even broader range of chemical science. In 1916, G.N. Lewis of the University of California proposed that the electron pair is the dominant actor in acid-base chemistry.
Mis en avant

Oscillations libres du circuit RLC série – Cours et exercices

Position du problème : circuit RLC libre

Après avoir étudier le condensateur et la bobine, il est temps d’étudier le circuit RLC en série dans un régime d’oscillation libre. La leçon commence par l’étude d’un circuit LC idéal, ce qui permet d’initier les élèves avec la notion d’oscillateur électrique harmonique (oscillations électriques sinusoïdale) . Après, une étude expérimentale, on constatent que à cause de la résistance du circuit les oscillations ne sont pas sinusoïdale, ce qui permet d’introduire les notions de régimes périodique et des régimes apériodique. À la fin, les élèves arrivent à comprendre comment entretenir les oscillations électriques.

Dipôle RL, dipôle RC, circuit RLC libre et forcée, modulation d’amplitude, terminale science marocain

Pour plus d’informations suivez le lien ci-dessous

https://www.studyrama.com/revision-examen/bac/fiches-de-revision-du-bac/anciennes-series-s-es-l/serie-s/physique/electricite/oscillations-libres-du-circuit-rlc-serie–cours-35353#:~:text=Oscillations%20libres%20du%20circuit%20RLC%20s%C3%A9rie%20%2D%20Cours&text=R%C3%A9gime%20libre%20d’un%20circuit,condensateur%20dans%20un%20dip%C3%B4le%20RL%20.

Objectifs circuit RLC en série libre

Cours et exercices circuit RLC en série , régime libre et en régime forcée , terminale science

Oscillations électriques libre

Sans que nous ne nous en rendions compte, les oscillations électriques sont omniprésentes
dans notre vie quotidienne. Le fonctionnement de pratiquement tous les « appareils
électroniques » est à la base de telles oscillations : montres, téléphones portables,
ordinateurs, chaînes audio et vidéo, appareils photo et caméras vidéo numériques, …
La compréhension de la naissance d’oscillations électriques est très simple, si on aura
compris au préalable la charge et la décharge du condensateur ainsi que le comportement de la bobine parcourue par un courant variable.

Un oscillateur électrique est un circuit qui convertie de l’énergie électrique continue en une énergie électrique sinusoïdale

Oscillations électriques dans un circuit RLC en régime forcée

https://chimiephysiquescience.wordpress.com/2020/08/02/circuit-rlc-en-serie-regime-forcee/

En électrocinétique, un circuit RLC est un circuit linéaire contenant une résistance électrique, une bobine (inductance) et un condensateur (capacité).

Il existe deux types de circuits RLC, série ou parallèle selon l’interconnexion des trois types de composants. Le comportement d’un circuit RLC est généralement décrit par une équation différentielle du second ordre (là où des circuits RL ou circuits RC se comportent comme des circuits du premier ordre).

À l’aide d’un générateur de signaux, il est possible d’injecter dans le circuit des oscillations et observer dans certains cas une résonance, caractérisée par une augmentation du courant (lorsque le signal d’entrée choisi correspond à la pulsation propre du circuit, calculable à partir de l’équation différentielle qui le régit).

https://chimiephysiquescience.wordpress.com/2020/08/02/condensateur-circuit-rc/
https://chimiephysiquescience.wordpress.com/2021/02/02/le-dipole-rl-alloschool/
https://chimiephysiquescience.wordpress.com/2020/07/15/electronics/

Vidéos circuit RLC en série

Circuit RLC en régime libre
Circuit RLC en régime forcée

https://www.physagreg.fr/electrocinetique-3-rlc.php

étude d’un circuit LC non amorti
Circuit RLC , exercice d’application
Circuit RLC libre , exercice avec solution

RLC Series Circuits

Learning Objectives

By the end of this section, you will be able to:

  • Determine the angular frequency of oscillation for a resistor, inductor, capacitor \left(RLC\right) series circuit
  • Relate the RLC circuit to a damped spring oscillation

When the switch is closed in the RLC circuit of (Figure)(a), the capacitor begins to discharge and electromagnetic energy is dissipated by the resistor at a rate {i}^{2}R. With U given by (Figure), we have

\frac{dU}{dt}=\frac{q}{C}\phantom{\rule{0.2em}{0ex}}\frac{dq}{dt}+Li\frac{di}{dt}=\text{−}{i}^{2}R

where i and q are time-dependent functions. This reduces to

L\frac{{d}^{2}q}{d{t}^{2}}+R\frac{dq}{dt}+\frac{1}{C}q=0.

(a) An RLC circuit. Electromagnetic oscillations begin when the switch is closed. The capacitor is fully charged initially. (b) Damped oscillations of the capacitor charge are shown in this curve of charge versus time, or q versus t. The capacitor contains a charge {q}_{0} before the switch is closed.

Figure a is a circuit with a capacitor, an inductor and a resistor in series with each other. They are also in series with a switch, which is open. Figure b shows the graph of charge versus time. The charge is at maximum value, q0, at t=0. The curve is similar to a sine wave that reduces in amplitude till it becomes zero.

This equation is analogous to

m\frac{{d}^{2}x}{d{t}^{2}}+b\frac{dx}{dt}+kx=0,

which is the equation of motion for a damped mass-spring system (you first encountered this equation in Oscillations). As we saw in that chapter, it can be shown that the solution to this differential equation takes three forms, depending on whether the angular frequency of the undamped spring is greater than, equal to, or less than b/2m. Therefore, the result can be underdamped b\text{/}2m\right) » height= »33″ width= »133″>, critically damped \left(\sqrt{k\text{/}m}=b\text{/}2m\right), or overdamped <img src="https://opentextbc.ca/universityphysicsv2openstax/wp-content/ql-cache/quicklatex.com-214e349323607aa0e61cf57d5f1a73e8_l3.svg&quot; alt="\left(\sqrt{k\text{/}m}. By analogy, the solution q(t) to the RLC differential equation has the same feature. Here we look only at the case of under-damping. By replacing m by Lb by Rk by 1/C, and x by q in (Figure), and assuming R\text{/}2L » height= »22″ width= »128″>, we obtain

q\left(t\right)={q}_{0}{e}^{\text{−}Rt\text{/}2L}\phantom{\rule{0.2em}{0ex}}\text{cos}\left(\omega \text{′}t+\varphi \right)

where the angular frequency of the oscillations is given by

{\omega }^{\prime }=\sqrt{\frac{1}{LC}-{\left(\frac{R}{2L}\right)}^{2}}

This underdamped solution is shown in (Figure)(b). Notice that the amplitude of the oscillations decreases as energy is dissipated in the resistor. (Figure) can be confirmed experimentally by measuring the voltage across the capacitor as a function of time. This voltage, multiplied by the capacitance of the capacitor, then gives q(t).

Try an interactive circuit construction kit that allows you to graph current and voltage as a function of time. You can add inductors and capacitors to work with any combination of RL, and C circuits with both dc and ac sources.

Try out a circuit-based java applet website that has many problems with both dc and ac sources that will help you practice circuit problems.

Check Your Understanding In an RLC circuit, L=5.0\phantom{\rule{0.2em}{0ex}}\text{mH},C=6.0\mu \text{F},\phantom{\rule{0.2em}{0ex}}\text{and}\phantom{\rule{0.2em}{0ex}}R=200\phantom{\rule{0.2em}{0ex}}\text{Ω}. (a) Is the circuit underdamped, critically damped, or overdamped? (b) If the circuit starts oscillating with a charge of 3.0\phantom{\rule{0.2em}{0ex}}×\phantom{\rule{0.2em}{0ex}}{10}^{-3}\phantom{\rule{0.2em}{0ex}}\text{C} on the capacitor, how much energy has been dissipated in the resistor by the time the oscillations cease?

a. overdamped; b. 0.75 J

Summary

  • The underdamped solution for the capacitor charge in an RLC circuit is
    q\left(t\right)={q}_{0}{e}^{\text{−}Rt\text{/}2L}\phantom{\rule{0.2em}{0ex}}\text{cos}\left(\omega \text{′}t+\varphi \right).
  • The angular frequency given in the underdamped solution for the RLC circuit is
    {\omega }^{\prime }=\sqrt{\frac{1}{LC}-{\left(\frac{R}{2L}\right)}^{2}}.

Key Equations

Mutual inductance by fluxM=\frac{{N}_{2}{\text{Φ}}_{21}}{{I}_{1}}=\frac{{N}_{1}{\text{Φ}}_{12}}{{I}_{2}}
Mutual inductance in circuits{\epsilon }_{1}=\text{−}M\frac{d{I}_{2}}{dt}
Self-inductance in terms of magnetic fluxN{\text{Φ}}_{\text{m}}=LI
Self-inductance in terms of emf\epsilon =\text{−}L\frac{dI}{dt}
Self-inductance of a solenoid{L}_{\text{solenoid}}=\frac{{\mu }_{0}{N}^{2}A}{l}
Self-inductance of a toroid{L}_{\text{toroid}}=\frac{{\mu }_{0}{N}^{2}h}{2\pi }\phantom{\rule{0.2em}{0ex}}\text{ln}\phantom{\rule{0.2em}{0ex}}\frac{{R}_{2}}{{R}_{1}}.
Energy stored in an inductorU=\frac{1}{2}L{I}^{2}
Current as a function of time for a RL circuitI\left(t\right)=\frac{\text{ε}}{R}\left(1-{e}^{\text{−}t\text{/}{\tau }_{L}}\right)
Time constant for a RL circuit{\tau }_{L}=L\text{/}R
Charge oscillation in LC circuitsq\left(t\right)={q}_{0}\phantom{\rule{0.2em}{0ex}}\text{cos}\left(\omega t+\varphi \right)
Angular frequency in LC circuits\omega =\sqrt{\frac{1}{LC}}
Current oscillations in LC circuitsi\left(t\right)=\text{−}\omega {q}_{0}\phantom{\rule{0.2em}{0ex}}\text{sin}\left(\omega t+\varphi \right)
Charge as a function of time in RLC circuitq\left(t\right)={q}_{0}{e}^{\text{−}Rt\text{/}2L}\phantom{\rule{0.2em}{0ex}}\text{cos}\left(\omega \text{′}t+\varphi \right)
Angular frequency in RLC circuit\omega \text{′}=\sqrt{\frac{1}{LC}-{\left(\frac{R}{2L}\right)}^{2}}

Conceptual Questions

When a wire is connected between the two ends of a solenoid, the resulting circuit can oscillate like an RLC circuit. Describe what causes the capacitance in this circuit.

Describe what effect the resistance of the connecting wires has on an oscillating LC circuit.

This creates an RLC circuit that dissipates energy, causing oscillations to decrease in amplitude slowly or quickly depending on the value of resistance.

Suppose you wanted to design an LC circuit with a frequency of 0.01 Hz. What problems might you encounter?

A radio receiver uses an RLC circuit to pick out particular frequencies to listen to in your house or car without hearing other unwanted frequencies. How would someone design such a circuit?

You would have to pick out a resistance that is small enough so that only one station at a time is picked up, but big enough so that the tuner doesn’t have to be set at exactly the correct frequency. The inductance or capacitance would have to be varied to tune into the station however practically speaking, variable capacitors are a lot easier to build in a circuit.

Problems

In an oscillating RLC circuit, R=5.0\phantom{\rule{0.2em}{0ex}}\text{Ω},L=5.0\phantom{\rule{0.2em}{0ex}}\text{mH},\phantom{\rule{0.2em}{0ex}}\text{and}\phantom{\rule{0.2em}{0ex}}C=500\phantom{\rule{0.2em}{0ex}}\mu \text{F}. What is the angular frequency of the oscillations?

In an oscillating RLC circuit with L=10\phantom{\rule{0.2em}{0ex}}\text{mH},C=1.5\phantom{\rule{0.2em}{0ex}}µ\text{F},\phantom{\rule{0.2em}{0ex}}\text{and}\phantom{\rule{0.2em}{0ex}}R=2.0\phantom{\rule{0.2em}{0ex}}\text{Ω}, how much time elapses before the amplitude of the oscillations drops to half its initial value?

6.9 ms

What resistance R must be connected in series with a 200-mH inductor of the resulting RLC oscillating circuit is to decay to 50\text{%} of its initial value of charge in 50 cycles? To 0.10\text{%} of its initial value in 50 cycles?

Additional Problems

Show that the self-inductance per unit length of an infinite, straight, thin wire is infinite.

Let a equal the radius of the long, thin wire, r the location where the magnetic field is measured, and R the upper limit of the problem where we will take R as it approaches infinity.
proof \begin{array}{ccc}\hfill \text{Outside,}\phantom{\rule{1em}{0ex}}B& =\hfill & \frac{{\mu }_{0}I}{2\pi r}\phantom{\rule{0.5em}{0ex}}\text{Inside,}\phantom{\rule{1em}{0ex}}B=\frac{{\mu }_{0}Ir}{2\pi {a}^{2}}\hfill \\ \hfill U& =\hfill & \frac{{\mu }_{0}{I}^{2}l}{4\pi }\left(\frac{1}{4}+\text{ln}\phantom{\rule{0.2em}{0ex}}\frac{R}{a}\right)\hfill \\ \hfill \text{So,}\phantom{\rule{2em}{0ex}}\frac{2U}{{I}^{2}}& =\hfill & \frac{{\mu }_{0}l}{2\pi }\left(\frac{1}{4}+\text{ln}\phantom{\rule{0.2em}{0ex}}\frac{R}{a}\right)\phantom{\rule{0.5em}{0ex}}\text{and}\phantom{\rule{1em}{0ex}}L=\infty \hfill \end{array}

Two long, parallel wires carry equal currents in opposite directions. The radius of each wire is a, and the distance between the centers of the wires is d. Show that if the magnetic flux within the wires themselves can be ignored, the self-inductance of a length l of such a pair of wires is

L=\frac{{\mu }_{0}l}{\pi }\phantom{\rule{0.2em}{0ex}}\text{ln}\phantom{\rule{0.2em}{0ex}}\frac{d-a}{a}.

(Hint: Calculate the magnetic flux through a rectangle of length l between the wires and then use L=N\text{Φ}\text{/}I.)

A small, rectangular single loop of wire with dimensions l, and a is placed, as shown below, in the plane of a much larger, rectangular single loop of wire. The two short sides of the larger loop are so far from the smaller loop that their magnetic fields over the smaller fields over the smaller loop can be ignored. What is the mutual inductance of the two loops?

The figure shows a rectangular loop of wire. The length of the rectangle is l and width is a. On both sides of the rectangle are wires parallel to its length. They are a distance d away from the rectangle. Current I1 flows through both in opposites directions.
M=\frac{{\mu }_{0}l}{\pi }\phantom{\rule{0.2em}{0ex}}\text{ln}\phantom{\rule{0.2em}{0ex}}\frac{d+a}{d}

Suppose that a cylindrical solenoid is wrapped around a core of iron whose magnetic susceptibility is x. Using (Figure), show that the self-inductance of the solenoid is given by

L=\frac{\left(1+x\right){\mu }_{0}{N}^{2}A}{l},

where l is its length, A its cross-sectional area, and N its total number of turns.

A solenoid with 4x{10}^{7} turns/m has an iron core placed in it whose magnetic susceptibility is 4.0\phantom{\rule{0.2em}{0ex}}×\phantom{\rule{0.2em}{0ex}}{10}^{3}. (a) If a current of 2.0 A flows through the solenoid, what is the magnetic field in the iron core? (b) What is the effective surface current formed by the aligned atomic current loops in the iron core? (c) What is the self-inductance of the filled solenoid?

a. 100 T; b. 2 A; c. 0.50 H

A rectangular toroid with inner radius {R}_{1}=7.0\phantom{\rule{0.2em}{0ex}}\text{cm,} outer radius {R}_{2}=9.0\phantom{\rule{0.2em}{0ex}}\text{cm}, height h=3.0, and N=3000 turns is filled with an iron core of magnetic susceptibility 5.2\phantom{\rule{0.2em}{0ex}}×\phantom{\rule{0.2em}{0ex}}{10}^{3}. (a) What is the self-inductance of the toroid? (b) If the current through the toroid is 2.0 A, what is the magnetic field at the center of the core? (c) For this same 2.0-A current, what is the effective surface current formed by the aligned atomic current loops in the iron core?

The switch S of the circuit shown below is closed at t=0. Determine (a) the initial current through the battery and (b) the steady-state current through the battery.

A 12 volt battery is connected in series with a 5 ohm resistor, a 1 Henry inductor, a 3 ohm resistor and an open switch S. Parallel to the 3 ohm resistor is a 2 Henry inductor.

a. 0 A; b. 2.4 A

In an oscillating RLC circuit, R=7.0\phantom{\rule{0.2em}{0ex}}\text{Ω},L=10\phantom{\rule{0.2em}{0ex}}\text{mH},\phantom{\rule{0.2em}{0ex}}\text{and}\phantom{\rule{0.2em}{0ex}}C=3.0\phantom{\rule{0.2em}{0ex}}\mu \text{F}. Initially, the capacitor has a charge of 8.0\phantom{\rule{0.2em}{0ex}}\mu \text{C} and the current is zero. Calculate the charge on the capacitor (a) five cycles later and (b) 50 cycles later.

A 25.0-H inductor has 100 A of current turned off in 1.00 ms. (a) What voltage is induced to oppose this? (b) What is unreasonable about this result? (c) Which assumption or premise is responsible?

a. 2.50\phantom{\rule{0.2em}{0ex}}×\phantom{\rule{0.2em}{0ex}}{10}^{6}\phantom{\rule{0.2em}{0ex}}\text{V}; (b) The voltage is so extremely high that arcing would occur and the current would not be reduced so rapidly. (c) It is not reasonable to shut off such a large current in such a large inductor in such an extremely short time.

Challenge Problems

A coaxial cable has an inner conductor of radius a, and outer thin cylindrical shell of radius b. A current I flows in the inner conductor and returns in the outer conductor. The self-inductance of the structure will depend on how the current in the inner cylinder tends to be distributed. Investigate the following two extreme cases. (a) Let current in the inner conductor be distributed only on the surface and find the self-inductance. (b) Let current in the inner cylinder be distributed uniformly over its cross-section and find the self-inductance. Compare with your results in (a).

In a damped oscillating circuit the energy is dissipated in the resistor. The Q-factor is a measure of the persistence of the oscillator against the dissipative loss. (a) Prove that for a lightly damped circuit the energy, U, in the circuit decreases according to the following equation.

\frac{dU}{dt}=-2\beta U, where \beta =\frac{R}{2L}.

(b) Using the definition of the Q-factor as energy divided by the loss over the next cycle, prove that Q-factor of a lightly damped oscillator as defined in this problem is

Q\equiv \frac{{U}_{\text{begin}}}{\text{Δ}{U}_{\text{one cycle}}}=\frac{1}{2\pi R}\sqrt{\frac{L}{C}}.

(Hint: For (b), to obtain Q, divide E at the beginning of one cycle by the change \text{Δ}E over the next cycle.)

proof

The switch in the circuit shown below is closed at t=0\phantom{\rule{0.2em}{0ex}}\text{s}. Find currents through (a) {R}_{1}, (b) {R}_{2}, and (c) the battery as function of time.

A 12 volt battery is connected to a 6 ohm resistor and a switch S, which is open at time t=0. Connected in parallel with the 6 ohm resistor are another 6 ohm resistor and a 24 Henry inductor.

A square loop of side 2 cm is placed 1 cm from a long wire carrying a current that varies with time at a constant rate of 3 A/s as shown below. (a) Use Ampère’s law and find the magnetic field. (b) Determine the magnetic flux through the loop. (c) If the loop has a resistance of 3\phantom{\rule{0.2em}{0ex}}\text{Ω}, how much induced current flows in the loop?

A 12 volt battery is connected to a 6 ohm resistor and a switch S, which is open at time t=0. Connected in parallel with the 6 ohm resistor are another 6 ohm resistor and a 24 Henry inductor.

a. \frac{dB}{dt}=6\phantom{\rule{0.2em}{0ex}}×\phantom{\rule{0.2em}{0ex}}{10}^{-6}\phantom{\rule{0.2em}{0ex}}\text{T/s;} b. \text{Φ}=\frac{{\mu }_{0}aI}{2\pi }\phantom{\rule{0.2em}{0ex}}\text{ln}\phantom{\rule{0.2em}{0ex}}\left(\frac{a+b}{b}\right); c. 4.4 nA

A rectangular copper ring, of mass 100 g and resistance 0.2\phantom{\rule{0.2em}{0ex}}\text{Ω}, is in a region of uniform magnetic field that is perpendicular to the area enclosed by the ring and horizontal to Earth’s surface. The ring is let go from rest when it is at the edge of the nonzero magnetic field region (see below). (a) Find its speed when the ring just exits the region of uniform magnetic field. (b) If it was let go at t=0, what is the time when it exits the region of magnetic field for the following values: a=25\phantom{\rule{0.2em}{0ex}}\text{cm},\phantom{\rule{0.2em}{0ex}}b=50\phantom{\rule{0.2em}{0ex}}\text{cm},\phantom{\rule{0.2em}{0ex}}B=3\phantom{\rule{0.2em}{0ex}}\text{T},\phantom{\rule{0.2em}{0ex}}\text{and} g=9.8\phantom{\rule{0.2em}{0ex}}{\text{m/s}}^{2}? Assume the magnetic field of the induced current is negligible compared to 3 T.

Figure a shows a box with crosses in it. It is labeled t=0. An area within it is demarcated with breadth equal to a and length equal to b. Figure b shows the same box with crosses in it. It is labeled, “when ring exits”. The demarcated are from figure a is now below the box. There are two downward arrows labeled g and v.

Texte anglais d’aprés le site https://opentextbc.ca/universityphysicsv2openstax/chapter/rlc-series-circuits/

Mis en avant

Découvrir & Comprendre – Les 4 interactions fondamentales

Actuellement, il y a quatre types d’interactions qui sont utilisés pour expliquer les liaisons dans la matière :

Interaction universelle gravitationnelle qui s’exerce entre les corps ayant une masse, il de longue portée, mais, c’est la plus faible il demande des masses énormes, de l’ordre des masses des planètes, étoiles, lunes

Merci mon père
https://chimiephysiquescience.wordpress.com/2020/11/17/linfini-mysteres-et-limites-de-lunivers-dossier/

Interaction électromagnétique qu’exerce entre les corps chargés électriquement, de longue portée, il est quarante fois plus forte que la première Interaction.

— Interaction forte, de petite portée, de l’ordre du diamètre d’un noyau atomique, il permet d’expliquer la cohésion des noyaux atomiques, il s’exerce entre les nucléons, il est de type attractive.

— Interaction faible, de faible portée, de l’ordre du diamètre d’un noyau atomique, il permet d’expliquer la transformation d’un neutron en proton et d’un proton en neutron, des transformations qui ne sont observées qu’à l’intérieur des noyaux, l’énergie mise en jeu est faite, d’où son nom

Pour plus d’informations sur les quatre interactions fondamentales dans la matière, suivez le lien ci-dessous

https://www.cea.fr/comprendre/Pages/matiere-univers/essentiel-sur-4-interactions-fondamentales.aspx#:~:text=%E2%80%8BQuatre%20interactions%20fondamentales%20r%C3%A9gissent,forte%20et%20l’interaction%20gravitationnelle.&text=Quelles%20sont%20les%20propri%C3%A9t%C3%A9s%20de%20chacune%20de%20ces%20interactions%20%3F

quatre in,teractions fondamentales

Quelles sont les interactions fondamentales ?

Tous les processus physiques, chimiques ou biologiques connus peuvent être expliqués à l’aide de seulement quatre interactions fondamentales :

La théorie qui décrit la gravitation est la relativité générale, celle qui décrit les trois autres est le modèle standard.

Néanmoins, ce dernier modèle explique les masses de tous les fermions élémentaires comme le résultat d’une nouvelle interaction, entre ces fermions et le boson BEH. Comme ce boson n’a été observé que très récemment, il est encore difficile de dire si cette nouvelle interaction existe telle qu’imaginée. Si c’était le cas, cela signifierait qu’il existe une cinquième interaction fondamentale.


Qu’est-ce que l’interaction gravitationnelle ?

L’interaction gravitationnelle est une force toujours attractive qui agit sur toute forme d’énergie, mais avec une intensité extrèmement faible (c’est l’interaction la plus faible des quatre interactions fondamentales). Ainsi, ses effets ne sont perceptibles que lorsque des objets très massifs (la masse est une forme d’énergie) sont en jeu, c’est le cas pour les objets astronomiques.

https://chimiephysiquescience.wordpress.com/2020/03/29/situation-du-probleme/

L’énorme masse des étoiles, des planètes ou des galaxies les rend donc très sensibles à la gravitation et c’est la seule interaction en jeu pour expliquer les mouvements de ces objets.

De même, l’énorme masse de la Terre (6 1024kg, soit six mille milliards de millards de tonnes !) la rend très attractive pour des objets moins massifs. Ainsi, la pesanteur et donc le poids des objets sur Terre sont le résultat de l’attraction gravitationnelle de la Terre sur ces objets. C’est pourquoi, le poids d’un objet est plus faible sur la Lune que sur Terre, puisque la masse de la Lune est plus faible que celle de la Terre.

Enfin, c’est l’attraction gravitationnelle de la Lune sur l’eau des océans (dont la masse totale est importante) qui permet d’expliquer le phénomène des marées.

Le premier à avoir compris que la pesanteur terrestre et les mouvements astronomiques étaient le résultat d’une seule et même interaction est Isaac Newton, qui publia en 1687 un livre dans lequel il a établi les lois de la gravitation. Il fallut ensuite attendre 1915 pour que Albert Einstein développe la théorie de la relativité générale, qui permet d’expliquer la gravitation par une théorie géométrique mais non quantique. La gravitation n’est donc pas du tout prise en compte par la physique des particules, mais son intensité est totalement négligeable à l’échelle des particules élémentaires.


Qu’est-ce que l’interaction électromagnétique ?

L’interaction électromagnétique est une force répulsive ou attractive qui agit sur les objets ayant une charge électrique. Deux objets de charges électriques de même signes se repoussent alors que deux objets de charges électriques de signes opposés s’attirent. Comme les atomes sont électriquement neutres, il y a peu d’effet de cette interaction à grande échelle.

L’interaction électromagnétique est bien sûr à l’origine de tous les phénomènes électriques et magnétiques.

L’interaction électromagnétique permet aussi la cohésion des atomes en liant les électrons (charge électrique négative) et le noyau des atomes (charge électrique positive). Cette même liaison permet de combiner les atomes en molécules et l’interaction électromagnétique est donc responsable des réactions chimiques. Enfin, la chimie de certaines classes de molécules permet d’expliquer la biologie.

Cette interaction peut, dans certaines conditions, créer des ondes électromagnétiques, parmi lesquelles on distingue la lumière, les ondes radio, les ondes radar, les rayons X

En bref, l’interaction électromagnétique permet d’expliquer presque tous les phénomènes de la vie quotidienne (mis à part la pesanteur)…

La première grande étape dans la compréhension de l’électromagnétisme vient de l’unification de l’électrodynamique et du magnétisme en une seule et même interaction par J. C. Maxwell en 1860. Puis, en 1864, Maxwell comprit que la lumière était une onde électromagnétique. Enfin, en 1887, H. Hertz montre l’existence d’ondes électromagnétiques autres que la lumière.

Quelques années plus tard, la mécanique quantique se développe et la théorie de l’électromagnétisme est quantifiée, la nature quantique de cette interaction (l’existence du photon) ayant déjà été découverte par Einstein en 1905. Finalement, après la résolution de problèmes techniques, la première théorie à la fois quantique et relativiste est achevée dans les annéees 1948-49 par Tomonaga, Schwinger et Feynman, c’est l’électrodynamique quantique ou QED.

Mais, comment fonctionne QED ?


Qu’est-ce que l’interaction forte ?

L’interaction forte est une force qui agit sur les quarks et par extension sur les hadrons. Les leptons y sont totalement insensibles.

L’interaction forte permet la cohésion des noyaux atomiques en liant les protons et les neutrons entre eux au sein de ce noyau. Si cette interaction n’existait pas, les noyaux ne pourraient pas être stables et seraient dissociés sous l’effet de la répulsion électrostatique des protons entre eux.

L’interaction forte est aussi responsable des réactions nucléaires, source d’énergie des étoiles et donc du Soleil.

L’histoire des interactions fortes commence en 1911 avec la découverte du noyau atomique par Rutherford. En effet, il fallut trouver une nouvelle force pour expliquer que les noyaux atomiques ne se disloquent pas sous l’effet électrique répulsif des protons entre eux. Néanmoins, il fallut attendre 1967-70 et le développement du modèle des quarks pour que la théorie de l’interaction forte soit élaborée, c’est à dire la chromodynamique quantique ou QCD.

Mais, comment fonctionne QCD ?


Qu’est-ce que l’interaction faible ?

L’interaction faible est une force qui agit sur toutes les particules. En particulier, c’est la seule force à laquelle sont sensibles les neutrinos.

L’interaction faible est responsable de la radio-activité β qui permet les réactions nucléaires qui sont la source d’énergie du Soleil. La radio-activité naturelle est probablement aussi une source d’énergie importante pour maintenir le magma en fusion sous la croûte terrestre.

L’histoire de l’interaction faible commence bien sûr en 1896 avec la découverte de la radio-activité par Becquerel. Il faut ensuite attendre 1933 pour que E. Fermi élabore le premier modèle des interactions faibles en incorporant l’existence non encore démontrée du neutrino. Puis, en 1961, S. L. Glashow tente d’unifier l’interaction faible et l’électromagnétisme en une seule interaction électrofaible. Cette unification prédit l’existence d’une interaction faible par courant neutre qui est découverte en 1973. Elle prédit aussi l’existence de vecteurs de cette interaction, les W+, W et Z0, qui sont à leur tour découverts en 1983.

Mais, comment agissent les W et le Z0 ?


Interaction et échange de particules

Les interactions sont expliquées en physique des particules comme l’échange entre particules de matière de particules de rayonnement.

Le dessin ci-dessous montre deux barques qui s’éloignent l’une de l’autre car leurs occupants échangent un ballon (par le principe d’action-réaction bien connu). Il y a donc interaction à distance entre les deux barques par échange d’un objet intermédiaire (le ballon). Cet objet est appelé le vecteur de l’interaction.

Ainsi, en physique des particules, on explique toute interaction entre particules par l’échange entre ces particules de vecteurs (qui sont eux-même des particules).Echange d'une particule
Exemple d’interaction entre deux barques par l’échange d’un ballon.

On peut aussi imaginer que plus le ballon est lourd, plus il sera difficile aux occupants du bateau de le lancer loin. Ainsi, si le ballon est trop lourd, les bateaux ne pourront plus interagir au-delà d’une certaine distance.

De même, en physique des particules, plus la particule vecteur d’une interaction sera lourde, plus cette interaction sera de courte portée.


Existe-t-il une cinquième (ou sixième) force ?

Le modèle standard prédit l’existence d’une nouvelle interaction, dont le boson serait le boson BEH, afin d’expliquer l’existence de la masse. Si cette prédiction se confirmait, il s’agirait bien d’une cinquième force.

Les théoriciens ayant beaucoup d’imagination, il y a régulièrement des nouvelles théories qui prédisent une nouvelle force, qui serait donc la sixième interaction fondamentale. Néanmoins, ces théories ne résistent en général pas aux expériences mises en oeuvre pour vérifier leurs prédictions…

De même, il arrive parfois qu’une expérience observe un phénomène pouvant laisser croire à l’existence d’une nouvelle interaction. Mais, ces résultats ne sont en général pas confirmés par d’autres expériences et il s’avère souvent que le phénomène nouveau était simplement un effet non compris d’un phénomène déjà connu.

Finalement, à l’heure actuelle, tous les phénomènes connus sont explicables à l’aide des quatre (ou cinq) interactions fondamentales connues… Il n’existe donc pas de manifestation connue d’une sixième force.

Four fondamental interactions

Four Fundamental Interactions The forces of gravity and electromagnetism are familiar in everyday life. Two new forces are introduced when discussing nuclear phenomena: the strong and weak interactions. When two protons encounter each other, they experience all four of the fundamental forces of nature simultaneously. The weak force governs beta decay and neutrino interactions with nuclei. The strong force, which we generally call the nuclear force, is actually the force that binds quarks together to form baryons (3 quarks) and mesons (a quark and an anti-quark). The nucleons of everyday matter, neutrons and protons consist of the quark combinations uud and udd, respectively. The symbol u represents a single up quark, while the symbol d represents a single down quark. The force that holds nucleons together to form an atomic nucleus can be thought to be a residual interaction between quarks inside each individual nucleon. This is analogous to what happens in a molecule. The electrons in an atom are bound to its nucleus by electromagnetism: when two atoms are relatively near, there is a residual interaction between the electron clouds that can form a covalent bond. The nucleus can thus be thought of as a “strong force molecule.” The force between two objects can be described as the exchange of a particle. The exchange particle transfers momentum and energy between the two objects, and is said to mediate the interaction. A simple analogue of this is a ball being thrown back and forth between two people. The momentum imparted to the ball by one person gets transferred to the other person when she catches the ball. The potential energy associated with each force acting between two protons is characterized by both the strength of the interaction and the range over which the interaction takes place. In each case the strength is determined by a coupling constant, Table 4-1. Strength and range of the four fundamental forces between two protons. Note that the strong force acts between quarks by an exchange of gluons. The residual strong force between two protons can be described by the exchange of a neutral pion. Note the W± is not included as an exchange particle for the weak interaction because it is not exchanged in the simplest proton-proton interaction. Interaction Gravity Weak Electromagnetism Exchange particle Graviton Z0 Photon Strong Residual Mass Pion 0 mc2 (eV) 91×109 0 135 x 106 Coupling constant C2 (J · m) 1.87×10-64 3.22×10-31 2.31×10-28 2.5 x10-27 Range (m) ∞ 2 x 10-18 ∞ 1.5 x 10-15 4-1 Chapter 4—Four Fundamental Interactions and the range is characterized by the mass of the exchanged particle. The potential energy, U, between two protons a distance r apart is written as 2 =− U Crr R ( exp / ) where R is the range of the interaction, and C2, is the strength of the interaction. In each case the interaction is due to the exchange of some particle whose mass determined the range of the interaction, R = h/mc. The exchanged particle is said to mediate the interaction. Table 4-1 shows a comparison between the coupling constants and ranges of the four forces acting between two protons. Although the graviton has not yet been observed, it is thought that there is an exchange particle associated with gravity and that eventually gravity will be described in a unified theory with the other three forces of nature. Fig. 4-1. A representation of the strong force. Depending on the complexity of the problem, scientists use different formulations. The range of the gravitational and electromagnetic forces is infinite, while the ranges of the strong and weak forces are very short. Also, the strength of the interaction depends on the separation between the two protons. Both gravitation and electromagnetism are of infinite range and their strengths decrease as the separation, r, increases—falling off as 1/r2. On the other hand, because the exchange particles for the strong and weak forces have a large mass, the force associated with them is zero outside of a short range. 4-2 Chapter 4—Four Fundamental Interactions Note that the strong force between two protons is a residual interaction. The quarks inside the nucleons interact through the exchange of gluons that carry a quantum number called “color” (i.e., a “color-neutral” object does not feel the strong force, like an electrically neutral object does not feel electromagnetism). Figure 4-1 shows three different ways that the strong force can be viewed. The theory of strong interactions among quarks and gluons is called Quantum Chromodynamics (QCD). A very successful model of describing this residual force is by the exchange of the π (pi) meson, or pion. This description, dating back to the work of Yukawa in the 1930s, works extremely well except at very short distances, and is generally used to describe most of the properties of complex nuclei. Exactly at what distance inside the nucleus, or correspondingly at what values of momentum transferred between the nucleons, the pion exchange model breaks down is the subject of much current research in nuclear physics. It is presently thought that this transition occurs somewhere around momentum transfers of 1 GeV/c. Books and Articles: James O’Connell, Comparison of the Four Fundamental Interactions of Physics, The Physics Teacher 36, 27 (1998). Richard A. Carrigan and W. Petter Trower (Ed.), Particles and Forces: At the Heart of Matter: Readings from Scientific American Magazine, W.H. Freeman Co., 1989. 4-3

Mis en avant

Fission nucléaire et fusion nucléaire : quelle différence ? | Dossier Radioactivity

Pour consulter ce dossier, cliquez sur le lien ci-dessous.

L’énergie atomique à la portée de l’humanité

La fission et la fusion sont deux grandes classes de transformation nucléaire provoquée, c’est à dire qu’elles ne se produisent qu’après une intervention extérieure.

Les réactions de fission résultent du bombardment d’un noyau lourd par un neutron.

Œuvres artisanales marocain

Les réactions de fusion résultent de l’assemblage de noyaux légers pour donner naissance à un noyau plus lourd qu’eux-mêmes

https://chimiephysiquescience.wordpress.com/2021/01/08/decouvrir-comprendre-les-4-interactions-fondamentales/
https://chimiephysiquescience.wordpress.com/2020/06/24/marie-curie-recherche-collective-a-la-suite-de-la-carte-postale-recue-de-madame-goulet-en-apc-les-cm2-de-lecole-gambetta-de-waziers/

Pour plus d’informations sur la fission et la fusion, cliquez sur le lien ci-dessous

https://www.futura-sciences.com/sciences/dossiers/physique-energie-nucleaire-a-z-126/page/5/

Avec la découverte de la radioactivité, les physiciens sont confrontés à un problème de taille : lors des réactions de désintégration, la masse des éléments produits est toujours plus faible que celle des éléments au départ. Mais où est passée cette masse manquante ?
La réponse est donnée en 1905 par le physicien EINSTEIN quand sa théorie de la relativité restreinte l’amène à formuler la formule E = m c2. Mettant ainsi en évidence, l’équivalence entre la masse m et l’énergie E.
Cette formule va véritablement révolutionner le monde et permettre le développement de l’industrie nucléaire militaire puis civile. Il recevra le prix Nobel de physique en 1921 pour ses contributions à la physique théorique, spécialement pour la loi de l’effet photoélectrique

https://chimiephysiquescience.wordpress.com/accueil/terminale-sciences-maths-a-et-b-sciences-experimentales-pc-bac-international-marocain-exercices-de-physique-chimie/

Frédéric and Irène Joliot Curie

Frédéric and Irène Joliot-Curie, original names (until 1926) Jean-Frédéric Joliot and Irène Curie, (respectively, born March 19, 1900, Paris, France—died Aug. 14, 1958, Arcouest; born Sept. 12, 1897, Paris—died March 17, 1956, Paris), French physical chemists, husband and wife, who were jointly awarded the 1935 Nobel Prize for Chemistry for their discovery of new radioactive isotopes prepared artificially. They were the son-in-law and daughter of Nobel Prize winners Pierre and Marie Curie.

Irène and Frédéric Joliot-Curie.
Irène and Frédéric Joliot-Curie.Bettmann/Corbis

Irène Curie from 1912 to 1914 prepared for her baccalauréat at the Collège Sévigné and in 1918 became her mother’s assistant at the Institut du Radium of the University of Paris. In 1925 she presented her doctoral thesis on the alpha rays of polonium. In the same year she met Frédéric Joliot in her mother’s laboratory; she was to find in him a mate who shared her interest in science, sports, humanism, and the arts.

Marie Curie
Marie CurieMarie Curie (far right) and her daughter Irène (second from right) posing with their pupils from the American Expeditionary Forces at the Institut du Radium, Paris, 1919.© Photos.com/Jupiterimages

Joliot simultaneously pursued new studies to obtain his licence ès sciences in 1927, taught at the École d’Électricité Industrielle Charliat in order to augment his finances, and learned laboratory techniques under the guidance of Irène Curie. Beginning in 1928 they signed their scientific work jointly.Get a Britannica Premium subscription and gain access to exclusive content.Subscribe Now

In the course of their researches they bombarded boron, aluminum, and magnesium with alpha particles; and they obtained radioactive isotopes of elements not ordinarily radioactive, namely, nitrogenphosphorus, and aluminum. These discoveries revealed the possibility of using artificially produced radioactive isotopes to follow chemical changes and physiological processes, and such applications were soon successful; the absorption of radioiodine by the thyroid gland was detected, and the course of radiophosphorus (in the form of phosphates) was traced in the metabolism of the organism. The production of these unstable atomic nuclei afforded further means for the observation of changes in the atom as these nuclei broke down. The Joliot-Curies observed also the production of neutrons and positive electrons in the changes that they studied; and their discovery of artificial radioactive isotopes constituted an important step toward the solution of the problem of releasing the energy of the atom, since the method of Enrico Fermi, using neutrons instead of alpha particles for the bombardments which led to the fission of uranium, was an extension of the method developed by the Joliot-Curies for producing radioelements artificially.

In 1935 Frédéric and Irène Joliot-Curie were awarded the Nobel Prize for Chemistry for the synthesis of new radioactive isotopes. The Joliot-Curies then moved into a home at the edge of the Parc de Sceaux. They left it only for visits to their house in Brittany at Pointe de l’Arcouest, where university families had been meeting together since the time of Marie Curie. And, for the sake of Irène’s lungs, they visited the mountains of Courchevel during the 1950s.

Frédéric, appointed professor at the Collège de France in 1937, devoted a part of his activities to preparing new sources of radiation. He then supervised the construction of electrostatic accelerators at Arcueil-Cachan and at Ivry and a cyclotron of seven million electron volts at the Collège de France, the second (after the Soviet Union) installation of equipment of this type in Europe.

Irène then devoted her time largely to the upbringing of their children, Hélène and Pierre. But both she and Frédéric had a lofty idea of their human and social responsibilities. They had joined the Socialist Party in 1934 and the Comité de Vigilance des Intellectuels Antifascistes (Vigilance Committee of Anti-Fascist Intellectuals) in 1935. They also took a stand in 1936 on the side of Republican Spain. Irène was one of three women to participate in the Popular Front government of 1936. As undersecretary of state for scientific research, she helped to lay the foundations, with Jean Perrin, for what would later become the Centre National de la Recherche Scientifique (National Centre for Scientific Research).

Pierre and Marie Curie had decided to publish everything. This was also the attitude adopted by the Joliot-Curies for the discovery of artificial radioactive isotopes. But anxiety resulting from the rise of Nazism and the awareness of the dangers that could result from the application of chain reactions led them to cease publication. On Oct. 30, 1939, they recorded the principle of nuclear reactors in a sealed envelope, which they deposited at the Académie des Sciences; it remained secret until 1949. Frédéric chose to remain in occupied France with his family and to make certain that the Germans who came into his laboratory could not use his work or his equipment, whose removal to Germany he prevented. The Joliot-Curies continued their research, notably in biology; after 1939, Frédéric demonstrated, with Antoine Lacassagne, the use of radioactive iodine as a tracer in the thyroid gland. He became a member of the Académie de Médecine in 1943.

But the struggle against the occupying forces began to require more and more of his attention. In November of 1940 he denounced the imprisonment of Paul Langevin. In June of 1941 he took part in the founding of the National Front Committee, of which he became the president. In the spring of 1942, after the execution by the Nazis of the theoretical physicist J. Solomon, Frédéric joined the French Communist Party, of which in 1956 he became a member of the central committee. He created the Société d’Études des Applications des Radio-éléments Artificiels, an industrial company that gave work certificates to scientists and thus prevented their being sent to Germany. In May 1944, Irène and their children took refuge in Switzerland, and Frédéric lived in Paris under the name of Jean-Pierre Gaumont. His laboratory at the Collège de France, at which he organized the production of explosives, served as an arsenal during the battle for the liberation of Paris. In recognition, he was designated a commander of the Legion of Honour with a military title and was decorated with the Croix de Guerre.

In France, after the liberation in 1944, Frédéric was elected to the Académie des Sciences and was entrusted with the position of director of the Centre National de la Recherche Scientifique.

Then, in 1945 General de Gaulle authorized Frédéric and the minister of armaments to create the Commissariat à l’Energie Atomique to ensure for France the applications of the discoveries made in 1939. Irène devoted her scientific experience and her abilities as an administrator to the acquisition of raw materials, the prospecting for uranium, and the construction of detection installations. In 1946 she was also appointed director of the Institut du Radium. Frédéric’s efforts culminated in the deployment, on Dec. 15, 1948, of ZOE (zéro, oxyde d’uranium, eau lourde), the first French nuclear reactor, which, though only moderately powerful, marked the end of the Anglo-Saxon monopoly. In April 1950, however, during the climax of the cold war and anticommunism, Prime Minister Georges Bidault removed him without explanation from his position as high commissioner, and a few months later Irène was also deprived of her position as commissioner in the Commissariat à l’Energie Atomique. They devoted themselves henceforth to their own laboratory work, to teaching, and to various peace movements. Irène wrote the entry on polonium for the 1949 printing of the 14th edition of the Encyclopædia Britannica.

During the 1950s, following several operations, Irène’s health began to decline. In May of 1953 Frédéric had the first attack of hepatitis from which he was to suffer for five years, with a serious relapse in 1955. In 1955 Irène drew up plans for the new nuclear physics laboratories at the Université d’Orsay, south of Paris, where teams of scientists could work with large particle accelerators under conditions less cramped than in the Parisian laboratories. Early in 1956 Irène was sent into the mountains, but her condition did not improve. Wasted away by leukemia as her mother had been, she again entered the Curie Hospital, where she died in 1956.

Ill and knowing that his days were also numbered, Frédéric decided to carry on Irène’s unfinished work. In September 1956 he accepted the position of professor at the University of Paris left vacant by Irène, at the same time occupying his own chair at the Collège de France. He successfully completed the establishment of the Orsay laboratories and saw the start of research there in 1958.

Radioactivity

radioactivity, property exhibited by certain types of matter of emitting energy and subatomic particles spontaneously. It is, in essence, an attribute of individual atomic nuclei.

An unstable nucleus will decompose spontaneously, or decay, into a more stable configuration but will do so only in a few specific ways by emitting certain particles or certain forms of electromagnetic energy. Radioactive decay is a property of several naturally occurring elements as well as of artificially produced isotopes of the elements. The rate at which a radioactive element decays is expressed in terms of its half-life; i.e., the time required for one-half of any given quantity of the isotope to decay. Half-lives range from more than 1024 years for some nuclei to less than 10−23 second (see below Rates of radioactive transitions). The product of a radioactive decay process—called the daughter of the parent isotope—may itself be unstable, in which case it, too, will decay. The process continues until a stable nuclide has been formed.

The nature of radioactive emissions

The emissions of the most common forms of spontaneous radioactive decay are the alpha (α) particle, the beta (β) particle, the gamma (γ) ray, and the neutrino. The alpha particle is actually the nucleus of a helium-4 atom, with two positive charges 4/2He. Such charged atoms are called ions. The neutral helium atom has two electrons outside its nucleus balancing these two charges. Beta particles may be negatively charged (beta minus, symbol e), or positively charged (beta plus, symbol e+). The beta minus [β] particle is actually an electron created in the nucleus during beta decay without any relationship to the orbital electron cloud of the atom. The beta plus particle, also called the positron, is the antiparticle of the electron; when brought together, two such particles will mutually annihilate each other. Gamma rays are electromagnetic radiations such as radio waves, light, and X-rays. Beta radioactivity also produces the neutrino and antineutrino, particles that have no charge and very little mass, symbolized by ν and ν, respectively.

In the less common forms of radioactivity, fission fragments, neutrons, or protons may be emitted. Fission fragments are themselves complex nuclei with usually between one-third and two-thirds the charge Z and mass A of the parent nucleus. Neutrons and protons are, of course, the basic building blocks of complex nuclei, having approximately unit mass on the atomic scale and having zero charge or unit positive charge, respectively. The neutron cannot long exist in the free state. It is rapidly captured by nuclei in matter; otherwise, in free space it will undergo beta-minus decay to a proton, an electron, and an antineutrino with a half-life of 12.8 minutes. The proton is the nucleus of ordinary hydrogen and is stable.Get a Britannica Premium subscription and gain access to exclusive content.Subscribe Now

Types of radioactivity

The early work on natural radioactivity associated with uranium and thorium ores identified two distinct types of radioactivity: alpha and beta decay.

Alpha decay

In alpha decay, an energetic helium ion (alpha particle) is ejected, leaving a daughter nucleus of atomic number two less than the parent and of atomic mass number four less than the parent. An example is the decay (symbolized by an arrow) of the abundant isotope of uranium238U, to a thorium daughter plus an alpha particle:Depiction of the products of a radioactive decay.

Given for this and subsequent reactions are the energy released (Q) in millions of electron volts (MeV) and the half-life (t1⁄2). It should be noted that in alpha decays the charges, or number of protons, shown in subscript are in balance on both sides of the arrow, as are the atomic masses, shown in superscript.

Beta-minus decay

In beta-minus decay, an energetic negative electron is emitted, producing a daughter nucleus of one higher atomic number and the same mass number. An example is the decay of the uranium daughter product thorium-234 into protactinium-234:Depiction of the products of a radioactive decay.

In the above reaction for beta decay, ν represents the antineutrino. Here, the number of protons is increased by one in the reaction, but the total charge remains the same, because an electron, with negative charge, is also created.

Gamma decay

A third type of radiation, gamma radiation, usually accompanies alpha or beta decay. Gamma rays are photons and are without rest mass or charge. Alpha or beta decay may simply proceed directly to the ground (lowest energy) state of the daughter nucleus without gamma emission, but the decay may also proceed wholly or partly to higher energy states (excited states) of the daughter. In the latter case, gamma emission may occur as the excited states transform to lower energy states of the same nucleus. (Alternatively to gamma emission, an excited nucleus may transform to a lower energy state by ejecting an electron from the cloud surrounding the nucleus. This orbital electron ejection is known as internal conversion and gives rise to an energetic electron and often an X-ray as the atomic cloud fills in the empty orbital of the ejected electron. The ratio of internal conversion to the alternative gamma emission is called the internal-conversion coefficient.)

Isomeric transitions

There is a wide range of rates of half-lives for the gamma-emission process. Usually dipole transitions (see below Gamma transition), in which the gamma ray carries off one ℏ unit of angular momentum, are fast, less than nanoseconds (one nanosecond equals 10−9 second). The law of conservation of angular momentum requires that the sum of angular momenta of the radiation and daughter nucleus is equal to the angular momentum (spin) of the parent. If the spins of initial and final states differ by more than one, dipole radiation is forbidden, and gamma emission must proceed more slowly by a higher multipole (quadrupole, octupole, etc.) gamma transition. If the gamma-emission half-life exceeds about one nanosecond, the excited nucleus is said to be in a metastable, or isomeric, state (the names for a long-lived excited state), and it is customary to classify the decay as another type of radioactivity, an isomeric transition. An example of isomerism is found in the protactinium-234 nucleus of the uranium-238 decay chain:Depiction of the products of a radioactive decay.

The letter m following the mass number stands for metastable and indicates a nuclear isomer.

Beta-plus decay

During the 1930s new types of radioactivity were found among the artificial products of nuclear reactions: beta-plus decay, or positron emission, and electron capture. In beta-plus decay an energetic positron is created and emitted, along with a neutrino, and the nucleus transforms to a daughter, lower by one in atomic number and the same in mass number. For instance, carbon-11 (Z = 6) decays to boron-11 (Z = 5), plus one positron and one neutrino:Depiction of the products of a radioactive decay.

Electron capture

Electron capture (EC) is a process in which decay follows the capture by the nucleus of an orbital electron. It is similar to positron decay in that the nucleus transforms to a daughter of one lower atomic number. It differs in that an orbital electron from the cloud is captured by the nucleus with subsequent emission of an atomic X-ray as the orbital vacancy is filled by an electron from the cloud about the nucleus. An example is the nucleus of beryllium-7 capturing one of its inner electrons to give lithium-7:Depiction of the products of a radioactive decay.

The main features of radioactive decay of a nuclear species are often displayed in a decay scheme. Figure 1 shows the decay scheme of beryllium-7. Indicated are the half-life of the parent and that of the excited daughter state, as well as its energy 0.4774 MeV. The spins and parities of all three states are provided on the upper left-hand side of the level. The multipolarity of the gamma ray (magnetic dipole, M1, plus 0.005 percent electric quadrupole, E2) is indicated above the vertical arrow symbolizing the gamma transition. The slanted arrows symbolize the electron-capture decay with labels giving the percentage of decay directly to ground state (89.7 percent) and the percentage of EC decay going via the excited state (10.3 percent). The boldface numbers following the percentages are so-called log ft values, to be encountered below in connection with beta-decay rates. The overall energy release, QEC, is indicated below. The QEC is necessarily a calculated value because there is no general practical means of measuring the neutrino energies accompanying EC decay. With a few electron-capturing nuclides, it has been possible to measure directly the decay energy by measurement of a rare process called inner bremsstrahlung (braking radiation). In this process the energy release is shared between the neutrino and a gamma ray. The measured distribution of gamma-ray energies indicates the total energy release. Usually there is so much ordinary gamma radiation with radioactive decay that the inner bremsstrahlung is unobservable.

decay of beryllium-7
decay of beryllium-7Figure 1: Radioactive decay of beryllium-7 to lithium-7 by electron capture (EC; see text).Encyclopædia Britannica, Inc.

Spontaneous fission

Yet another type of radioactivity is spontaneous fission. In this process the nucleus splits into two fragment nuclei of roughly half the mass of the parent. This process is only barely detectable in competition with the more prevalent alpha decay for uranium, but for some of the heaviest artificial nuclei, such as fermium-256, spontaneous fission becomes the predominant mode of radioactive decay. Kinetic-energy releases from 150 to 200 MeV may occur as the fragments are accelerated apart by the large electrical repulsion between their nuclear charges. The reaction is as follows:Depiction of the products of a radioactive decay.

Only one of several product sets is shown. A few neutrons are always emitted in fission of this isotope, a feature essential to chain reactions. Spontaneous fission is not to be confused with induced fission, the process involved in nuclear reactors. Induced fisson is a property of uranium-235, plutonium-239, and other isotopes to undergo fission after absorption of a slow neutron. Other than the requirement of a neutron capture to initiate it, induced fission is quite similar to spontaneous fission regarding total energy release, numbers of secondary neutrons, and so on (see nuclear fission).

Proton radioactivity

Proton radioactivity, discovered in 1970, is exhibited by an excited isomeric state of cobalt-53, 53mCo, 1.5 percent of which emits protons:Depiction of the products of a radioactive decay.

Special beta-decay processes

In addition to the above types of radioactivity, there is a special class of rare beta-decay processes that gives rise to heavy-particle emission. In these processes the beta decay partly goes to a high excited state of the daughter nucleus, and this state rapidly emits a heavy particle.

One such process is beta-delayed neutron emission, which is exemplified by the following reaction:Depiction of the products of a radioactive decay.

(Note: the asterisk denotes the short-lived intermediate excited states of oxygen-17, and Emax n denotes the maximum energy observed for emitted neutrons.) There is a small production of delayed neutron emitters following nuclear fission, and these radioactivities are especially important in providing a reasonable response time to allow control of nuclear fission reactors by mechanically moved control rods.

Among the positron emitters in the light-element region, a number beta decay partly to excited states that are unstable with respect to emission of an alpha particle. Thus, these species exhibit alpha radiation with the half-life of the beta emission. Both the positron decay from boron-8 and electron decay from lithium-8 are beta-delayed alpha emission, because ground as well as excited states of beryllium-8 are unstable with respect to breakup into two alpha particles. Another example, sodium-20 (20Na) to give successively neon-20 (20Ne; the asterisk again indicating the short-lived intermediate state) and finally oxygen-16 is listed below:Depiction of the products of a radioactive decay.

In a few cases, positron decay leads to an excited nuclear state not able to bind a proton. In these cases, proton radiation appears with the half-life of the beta transition. The combination of high positron-decay energy and low proton-binding energy in the daughter ground state is required. In the example given below, tellurium-111 (111Te) yields antimony-111 (111Sb) and then tin-110 (110Sn) successively:Depiction of the products of a radioactive decay.

Heavy-ion radioactivity

In 1980 A. Sandulescu, D.N. Poenaru, and W. Greiner described calculations indicating the possibility of a new type of decay of heavy nuclei intermediate between alpha decay and spontaneous fission. The first observation of heavy-ion radioactivity was that of a 30-MeV, carbon-14 emission from radium-223 by H.J. Rose and G.A. Jones in 1984. The ratio of carbon-14 decay to alpha decay is about 5 × 10−10. Observations also have been made of carbon-14 from radium-222, radium-224, and radium-226, as well as neon-24 from thorium-230, protactinium-231, and uranium-232. Such heavy-ion radioactivity, like alpha decay and spontaneous fission, involves quantum-mechanical tunneling through the potential-energy barrier. Shell effects play a major role in this phenomenon, and in all cases observed to date the heavy partner of carbon-14 or neon-24 is close to doubly magic lead-208 (see below Nuclear models).

Occurrence of radioactivity

Some species of radioactivity occur naturally on Earth. A few species have half-lives comparable to the age of the elements (about 6 × 109 years), so that they have not decayed away after their formation in stars. Notable among these are uranium-238, uranium-235, and thorium-232. Also, there is potassium-40, the chief source of irradiation of the body through its presence in potassium of tissue. Of lesser significance are the beta emitters vanadium-50, rubidium-87, indium-115, tellurium-123, lanthanum-138, lutetium-176, and rhenium-187, and the alpha emitters cerium-142, neodymium-144, samarium-147, gadolinium-152, dysprosium-156, hafnium-174, platinum-190, and lead-204. Besides these approximately 109-year species, there are the shorter-lived daughter activities fed by one or another of the above species; e.g., by various nuclei of the elements between lead (Z = 82) and thorium (Z = 90).

Another category of natural radioactivity includes species produced in the upper atmosphere by cosmic ray bombardment. Notable are 5,720-year carbon-14 and 12.3-year tritium (hydrogen-3), 53-day beryllium-7, and 2,700,000-year beryllium-10. Meteorites are found to contain additional small amounts of radioactivity, the result of cosmic ray bombardments during their history outside the Earth’s atmospheric shield. Activities as short-lived as 35-day argon-37 have been measured in fresh falls of meteorites. Nuclear explosions since 1945 have injected additional radioactivities into the environment, consisting of both nuclear fission products and secondary products formed by the action of neutrons from nuclear weapons on surrounding matter.

The fission products encompass most of the known beta emitters in the mass region 75–160. They are formed in varying yields, rising to maxima of about 7 percent per fission in the mass region 92–102 (light peak of the fission yield versus atomic mass curve) and 134–144 (heavy peak). Two kinds of delayed hazards caused by radioactivity are recognized. First, the general radiation level is raised by fallout settling to Earth. Protection can be provided by concrete or earth shielding until the activity has decayed to a sufficiently low level. Second, ingestion or inhalation of even low levels of certain radioactive species can pose a special hazard, depending on the half-life, nature of radiations, and chemical behaviour within the body. For a detailed discussion on the biological effects of radiation, see radiation: Biological effects of ionizing radiation.

Nuclear reactors also produce fission products but under conditions in which the activities may be contained. Containment and waste-disposal practices should keep the activities confined and eliminate the possibility of leaching into groundwaters for times that are long compared to the half-lives. A great advantage of thermonuclear fusion power over fission power, if it can be practically realized, is not only that its fuel reserves, heavy hydrogen and lithium, are vastly greater than uranium, but also that the generation of radioactive fission product wastes can be largely avoided. In this connection, it may be noted that a major source of heat in the interior of both the Earth and the Moon is provided by radioactive decay. Theories about the formation and evolution of the Earth, Moon, and other planets must take into account these large heat production sources.

Desired radioactivities other than natural activities and fission products may be produced either by irradiation of certain selected target materials by reactor neutrons or by charged particle beams or gamma ray beams of accelerators.

Energetics and kinetics of radioactivity

Energy release in radioactive transitions

Consideration of the energy release of various radioactive transitions leads to the fundamental question of nuclear binding energies and stabilities. A much-used method of displaying nuclear-stability relationships is an isotope chart, those positions on the same horizontal row corresponding to a given proton number (Z) and those on the same vertical column to a given neutron number (N). Such a map is shown in Figure 2. The irregular bold line surrounds the region of presently known nuclei. The area encompassed by this is often referred to as the valley of stability because the chart may be considered a map of a binding energy surface, the lowest areas of which are the most stable. The most tightly bound nuclei of all are the abundant iron and nickel isotopes. Near the region of the valley containing the heaviest nuclei (largest mass number A; i.e., largest number of nucleons, N + Z), the processes of alpha decay and spontaneous fission are most prevalent; both these processes relieve the energetically unfavourable concentration of positive charge in the heavy nuclei.

Along the region that borders on the valley of stability on the upper left-hand side are the positron-emitting and electron-capturing radioactive nuclei, with the energy release and decay rates increasing the farther away the nucleus is from the stability line. Along the lower right-hand border region, beta-minus decay is the predominant process, with energy release and decay rates increasing the farther the nucleus is from the stability line.

The grid lines of the graph are at the nucleon numbers corresponding to extra stability, the “magic numbers” (see below Nuclear models). The circles labeled “deformed regions” enclose regions in which nuclei should exhibit cigar shapes; elsewhere the nuclei are spherical. Outside the dashed lines nuclei would be unbound with respect to neutron or proton loss and would be exceedingly short-lived (less than 10−19 second).

Calculation and measurement of energy

By the method of closed energy cycles, it is possible to use measured radioactive-energy-release (Q) values for alpha and beta decay to calculate the energy release for unmeasured transitions. An illustration is provided by the cycle of four nuclei below:Cycle of four nuclei undergoing two beta decays, and two alpha decays.

In this cycle, energies from two of the alpha decays and one beta decay are measurable. The unmeasured beta-decay energy for bismuth-211, Qβ−(Bi), is readily calculated because conservation of energy requires the sum of Q values around the cycle to be zero. Thus, Qβ−(Bi) + 7.59 − 1.43 − 6.75 = 0. Solving this equation gives Qβ−(Bi) = 0.59 MeV. This calculation by closed energy cycles can be extended from stable lead-207 back up the chain of alpha and beta decays to its natural precursor uranium-235 and beyond. In this manner the nuclear binding energies of a series of nuclei can be linked together. Because alpha decay decreases the mass number A by 4, and beta decay does not change A, closed α−β-cycle calculations based on lead-207 can link up only those nuclei with mass numbers of the general type A = 4n + 3, in which n is an integer. Another, the 4n series, has as its natural precursor thorium-232 and its stable end product lead-208. Another, the 4n + 2 series, has uranium-238 as its natural precursor and lead-206 as its end product.READ MORE ON THIS TOPICatom: Radioactive decayThe nuclei of most everyday atoms are stable—that is, they do not change over time. This statement is somewhat misleading, however, because…

In early research on natural radioactivity, the classification of isotopes into the series cited above was of great significance because they were identified and studied as families. Newly discovered radioactivities were given symbols relating them to the family and order of occurrence therein. Thus, thorium-234 was known as UX1, the isomers of protactinium-234 as UX2 and UZ, uranium-234 as UII, and so forth. These original symbols and names are occasionally encountered in more recent literature but are mainly of historical interest. The remaining 4n + 1 series is not naturally occurring but comprises well-known artificial activities decaying down to stable thallium-205.

To extend the knowledge of nuclear binding energies, it is clearly necessary to make measurements to supplement the radioactive-decay energy cycles. In part, this extension can be made by measurement of Q values of artificial nuclear reactions. For example, the neutron-binding energies of the lead isotopes needed to link the energies of the four radioactive families together can be measured by determining the threshold gamma-ray energy to remove a neutron (photonuclear reaction); or the energies of incoming deuteron and outgoing proton in the reaction can be measured to provide this information.

Further extensions of nuclear-binding-energy measurements rely on precision mass spectroscopy (see spectroscopy). By ionizing, accelerating, and magnetically deflecting various nuclides, their masses can be measured with great precision. A precise measurement of the masses of atoms involved in radioactive decay is equivalent to direct measurement of the energy release in the decay process. The atomic mass of naturally occurring but radioactive potassium-40 is measured to be 39.964008 amu. Potassium-40 decays predominantly by β-emission to calcium-40, having a measured mass 39.962589. Through Einstein’s equation, energy is equal to mass (m) times velocity of light (c) squared, or E = mc2, the energy release (Q) and the mass difference, Δm, are related, the conversion factor being one amu, equal to 931.478 MeV. Thus, the excess mass of potassium-40 over calcium-40 appears as the total energy release Qβ in the radioactive decay Qβ− = (39.964008 − 39.962589) × 931.478 MeV = 1.31 MeV. The other neighbouring isobar (same mass number, different atomic number) to argon-40 is also of lower mass, 39.962384, than potassium-40. This mass difference converted to energy units gives an energy release of 1.5 MeV, this being the energy release for EC decay to argon-40. The maximum energy release for positron emission is always less than that for electron capture by twice the rest mass energy of an electron (2m0c2 = 1.022 MeV); thus, the maximum positron energy for this reaction is 1.5 − 1.02, or 0.48 MeV.

To connect alpha-decay energies and nuclear mass differences requires a precise knowledge of the alpha-particle (helium-4) atomic mass. The mass of the parent minus the sum of the masses of the decay products gives the energy release. Thus, for alpha decay of plutonium-239 to uranium-235 and helium-4 the calculation goes as follows:Calculation showing the 5.24 MeV of energy released in the alpha decay of plutonium-239 to uranium-235 and helium-4.

By combining radioactive-decay-energy information with nuclear-reaction Q values and precision mass spectroscopy, extensive tables of nuclear masses have been prepared. From them the Q values of unmeasured reactions or decay may be calculated.

Alternative to the full mass, the atomic masses may be expressed as mass defect, symbolized by the Greek letter delta, Δ (the difference between the exact mass M and the integer A, the mass number), either in energy units or atomic mass units.

Absolute nuclear binding energy

The absolute nuclear binding energy is the hypothetical energy release if a given nuclide were synthesized from Z separate hydrogen atoms and N (equal to A − Z) separate neutrons. An example is the calculation giving the absolute binding energy of the stablest of all nuclei, iron-56:Calculation showing that the binding energy of iron-56 is 492.58 MeV.

A general survey of the average binding energy per nucleon (for nuclei of all elements grouped according to ascending mass) shows a maximum at iron-56 falling off gradually on both sides to about 7 MeV at helium-4 and to about 7.4 MeV for the most massive nuclei known. Most of the naturally occurring nuclei are thus not stable in an absolute nuclear sense. Nuclei heavier than iron would gain energy by degrading into nuclear products closer to iron, but it is only for the elements of greatest mass that the rates of degradation processes such as alpha decay and spontaneous fission attain observable rates. In a similar manner, nuclear energy is to be gained by fusion of most elements lighter than iron. The coulombic repulsion between nuclei, however, keeps the rates of fusion reactions unobservably low unless the nuclei are subjected to temperatures of greater than 107 K. Only in the hot cores of the Sun and other stars or in thermonuclear bombs or controlled fusion plasmas are these temperatures attained and nuclear-fusion energy released.

Nuclear models

The liquid-drop model

The average behaviour of the nuclear binding energy can be understood with the model of a charged liquid drop. In this model, the aggregate of nucleons has the same properties of a liquid drop, such as surface tensioncohesion, and deformation. There is a dominant attractive-binding-energy term proportional to the number of nucleons A. From this must be subtracted a surface-energy term proportional to surface area and a coulombic repulsion energy proportional to the square of the number of protons and inversely proportional to the nuclear radius. Furthermore, there is a symmetry-energy term of quantum-mechanical origin favouring equal numbers of protons and neutrons. Finally, there is a pairing term that gives slight extra binding to nuclei with even numbers of neutrons or protons.

The pairing-energy term accounts for the great rarity of odd–odd nuclei (the terms odd–odd, even–even, even–odd, and odd–even refer to the evenness or oddness of proton numberZ, and neutron number, N, respectively) that are stable against beta decay. The sole examples are deuterium, lithium-6, boron-10, and nitrogen-14. A few other odd–odd nuclei, such as potassium-40, occur in nature, but they are unstable with respect to beta decay. Furthermore, the pairing-energy term makes for the larger number of stable isotopes of even-Z elements, compared to odd-Z, and for the lack of stable isotopes altogether in element 43, technetium, and element 61, promethium.

The beta-decay energies of so-called mirror nuclei afford one means of estimating nuclear sizes. For example, the neon and fluorine nuclei, 19/10Ne9 and 19/9F10, are mirror nuclei because the proton and neutron numbers of one of them equal the respective neutron and proton numbers of the other. Thus, all binding-energy terms are the same in each except for the coulombic term, which is inversely proportional to the nuclear radius. Such calculations along with more direct determinations by high-energy electron scattering and energy measurements of X-rays from muonic atoms (hydrogen atoms in which the electrons are replaced by negative muons) establish the nuclear charge as roughly uniformly distributed in a sphere of radius 1.2 A1⁄3 × 10−13 centimetre. That the radius is proportional to the cube root of the mass number has the great significance that the average density of all nuclei is nearly constant.

Careful examination of nuclear-binding energies reveals periodic deviations from the smooth average behaviour of the charged-liquid-drop model. An extra binding energy arises in the neighbourhood of certain numbers of neutrons or protons, the so-called magic numbers (2, 8, 20, 28, 50, 82, and 126). Nuclei such as 4/2He216/8O840/20Ca2048/20Ca28, and 208/82Pb126 are especially stable species, doubly magic, in view of their having both proton and neutron numbers magic. These doubly magic nuclei are situated at the intersections of grid lines on Figure 2 above.

The shell model

In the preceding section, the overall trends of nuclear binding energies were described in terms of a charged-liquid-drop model. Yet there were noted periodic binding-energy irregularities at the magic numbers. The periodic occurrence of magic numbers of extra stability is strongly analogous to the extra electronic stabilities occurring at the atomic numbers of the noble-gas atoms. The explanations of these stabilities are quite analogous in atomic and nuclear cases as arising from filling of particles into quantized orbitals of motion. The completion of filling of a shell of orbitals is accompanied by an extra stability. The nuclear model accounting for the magic numbers is, as previously noted, the shell model. In its simplest form, this model can account for the occurrence of spin zero for all even–even nuclear ground states; the nucleons fill pairwise into orbitals with angular momenta canceling. The shell model also readily accounts for the observed nuclear spins of the odd-mass nuclei adjacent to doubly magic nuclei, such as 208/82Pb. Here, the spins of 1/2 for neighbouring 207/81Tl and 207/82Pb are accounted for by having all nucleons fill pairwise into the lowest energy orbits and putting the odd nucleon into the last available orbital before reaching the doubly magic configuration (the Pauli exclusion principle dictates that no more than two nucleons may occupy a given orbital, and their spins must be oppositely directed); calculations show the last available orbitals below lead-208 to have angular momentum 1/2. Likewise, the spins of 9/2 for 209/82Pb and 209/83Bi are understandable because spin-9/2 orbitals are the next available orbitals beyond doubly magic lead-208. Even the associated magnetization, as expressed by the magnetic dipole moment, is rather well explained by the simple spherical-shell model.

The orbitals of the spherical-shell model are labeled in a notation close to that for electronic orbitals in atoms. The orbital configuration of calcium-40 has protons and neutrons filling the following orbitals: 1s1/2, 1p3/2, 1p1/2, 1d5/2, and 1d3/2. The letter denotes the orbital angular momentum in usual spectroscopic notation, in which the letters spdfghi, etc., represent integer values of l running from zero for s (not to be confused with spins) through six for i. The fractional subscript gives the total angular momentum j with values of l + 1/2 and l − 1/2 allowed, as the intrinsic spin of a nucleon is 1/2. The first integer is a radial quantum number taking successive values 1, 2, 3, etc., for successively higher energy values of an orbital of given l and j. Each orbital can accommodate a maximum of 2j + 1 nucleons. The exact order of various orbitals within a shell differs somewhat for neutrons and protons (see table for the orbitals comprising each shell). The parity associated with an orbital is even (+) if l is even (sdgi) and odd (−) if l is odd (pfh).

shell closure number
21s1/2
81p3/2, 1p
201d5/2, 2s1/2, 1d3/2
281f7/2
502p3/2, 1f5/2, 2p1/2, 1g9/2
821g7/2, 2d5/2, 1h11/2, 2d3/2, 3s1/2
1262f7/2, 1h9/2, 1i13/2, 3p3/2, 2f5/2, 3p1/2
184 (?)2g9/2, 1i11/2, 1j15/2, 3d5/2, 2g7/2, 4s1/2, 3d3/2

An example of a spherical-shell-model interpretation is provided by the beta-decay scheme of 2.2-minute thallium-209 shown below, in which spin and parity are given for each state. The ground and lowest excited states of lead-209 are to be associated with occupation by the 127th neutron of the lowest available orbitals above the closed shell of 126. From the last line of the table, it is to be notedImage showing the beta-decay scheme of 2.2-minute thallium-209.that there are available g9/2d5/2, and s1/2 orbitals with which to explain the ground and first two excited states. Low-lying states associated with the i11/2 and j15/2 orbitals are known from nuclear-reaction studies, but they are not populated in the beta decay.

The 2.13-MeV state that receives the primary beta decay is not so simply interpreted as the other states. It is to be associated with the promotion of a neutron from the 3p1/2 orbital below the 126 shell closure. The density (number per MeV) of states increases rapidly above this excitation, and the interpretations become more complex and less certain.

By suitable refinements, the spherical-shell model can be extended further from the doubly magic region. Primarily, it is necessary to drop the approximation that nucleons move independently in orbitals and to invoke a residual force, mainly short-range and attractive, between the nucleons. The spherical-shell model augmented by residual interactions can explain and correlate around the magic regions a large amount of data on binding energies, spins, magnetic moments, and the spectra of excited states.

The collective model

For nuclei more removed from the doubly magic regions, the spherical-shell model encounters difficulty in explaining the large observed electric quadrupole moments indicating cigar-shaped nuclei. For these nuclei a hybrid of liquid-drop and shell models, the collective model, has been proposed. (See the circular regions of Figure 2 for occurrence of cigar-shaped nuclei.)

Nucleons can interact with one another in a collective fashion to deform the nuclear shape to a cigar shape. Such large spheroidal distortions are usual for nuclei far from magic, notably with 150 ≲ A ≲ 190, and 224 ≲ A (the symbol < denotes less than, and ∼ means that the number is approximate). In these deformed regions the collective model prescribes that orbitals be computed in a cigar-shaped potential and that the relatively low-energy rotational excitations of the tumbling motion of the cigar shape be taken into account. The collective model has been highly successful in correlating and predicting nuclear properties in deformed regions. An example of a nuclear rotational band (a series of adjacent states) is provided by the decay of the isomer hafnium-180m, in Figure 3, through a cascade of gamma rays down the ground rotational band (see below Gamma transition for explanation of M2, E1, E2, and E3).

decay of hafnium-180
decay of hafnium-180Figure 3: The decay scheme of hafnium-180m (see text).Encyclopædia Britannica, Inc.

Rates of radioactive transitions

There is a vast range of the rates of radioactive decay, from undetectably slow to unmeasurably short. Before considering the factors governing particular decay rates in detail, it seems appropriate to review the mathematical equations governing radioactive decay and the general methods of rate measurement in different ranges of half-life.

Exponential-decay law

Radioactive decay occurs as a statistical exponential rate process. That is to say, the number of atoms likely to decay in a given infinitesimal time interval (dN/dt) is proportional to the number (N) of atoms present. The proportionality constant, symbolized by the Greek letter lambda, λ, is called the decay constant. Mathematically, this statement is expressed by the first-order differential equation,Equation.

This equation is readily integrated to giveEquation.in which N0 is the number of atoms present when time equals zero. From the above two equations it may be seen that a disintegration rate, as well as the number of parent nuclei, falls exponentially with time. An equivalent expression in terms of half-life t1⁄2 isEquations.

It can readily be shown that the decay constant λ and half-life (t1⁄2) are related as follows: λ = loge2/t1⁄2 = 0.693/t1⁄2. The reciprocal of the decay constant λ is the mean life, symbolized by the Greek letter tau, τ.

For a radioactive nucleus such as potassium-40 that decays by more than one process (89 percent β−, 11 percent electron capture), the total decay constant is the sum of partial decay constants for each decay mode. (The partial half-life for a particular mode is the reciprocal of the partial decay constant times 0.693.) It is helpful to consider a radioactive chain in which the parent (generation 1) of decay constant λ1 decays into a radioactive daughter (generation 2) of decay constant λ2. The case in which none of the daughter isotope (2) is originally present yields an initial growth of daughter nuclei followed by its decay. The equation giving the number (N2) of daughter nuclei existing at time t in terms of the number N1(0) of parent nuclei present when time equals zero isEquation.in which e represents the logarithmic constant 2.71828.

The general equation for a chain of n generations with only the parent initially present (when time equals zero) is as follows:Special Composition: Atomsin which e represents the logarithmic constant 2.71828.Equations.

These equations can readily be modified to the case of production of isotopes in the steady neutron flux of a reactor or in a star. In such cases, the chain of transformations might be mixed with some steps occurring by neutron capture and some by radioactive decay. The neutron-capture probability for a nucleus is expressed in terms of an effective cross-sectional area. If one imagines the nuclei replaced by spheres of the same cross-sectional area, the rate of reaction in a neutron flux would be given by the rate at which neutrons strike the spheres. The cross section is usually symbolized by the Greek letter sigma, σ, with the units of barns (10−24 cm2) or millibarns (10−3 b) or microbarns (10−6 b). Neutron flux is often symbolized by the letters nv (neutron density, n, or number per cubic centimetre, times average speed, v) and given in neutrons per square centimetre per second.

The modification of the transformation equations merely involves substituting the product nvσi in place of λi for any step involving neutron capture rather than radioactive decay. Reactor fluxes nv even higher than 1015 neutrons per square centimetre per second are available in several research reactors, but usual fluxes are somewhat lower by a factor of 1,000 or so. Tables of neutron-capture cross sections of the naturally occurring nuclei and some radioactive nuclei can be used for calculation of isotope production rates in reactors.

Measurement of half-life

The measurement of half-lives of radioactivity in the range of seconds to a few years commonly involves measuring the intensity of radiation at successive times over a time range comparable to the half-life. The logarithm of the decay rate is plotted against time, and a straight line is fitted to the points. The time interval for this straight-line decay curve to fall by a factor of 2 is read from the graph as the half-life, by virtue of equations (1) and (2). If there is more than one activity present in the sample, the decay curve will not be a straight line over its entire length, but it should be resolvable graphically (or by more sophisticated statistical analysis) into sums and differences of straight-line exponential terms. The general equations (4) for chain decays show a time dependence given by sums and differences of exponential terms, though special modified equations are required in the unlikely case that two or more decay constants are identically equal.

For half-lives longer than several years it is often not feasible to measure accurately the decrease in counting rate over a reasonable length of time. In such cases, a measurement of specific activity may be resorted to; i.e., a carefully weighed amount of the radioactive isotope is taken for counting measurements to determine the disintegration rate, D. Then by equation (1) the decay constant λi may be calculated. Alternately, it may be possible to produce the activity of interest in such a way that the number of nuclei, N, is known, and again with a measurement of D equation (1) may be used. The number of nuclei, N, might be known from counting the decay of a parent activity or from knowledge of the production rate by a nuclear reaction in a reactor or accelerator beam.

Half-lives from 100 microseconds to one nanosecond are measured electronically in coincidence experiments. The radiation yielding the species of interest is detected to provide a start pulse for an electronic clock, and the radiation by which the species decays is detected in another device to provide a stop pulse. The distribution of these time intervals is plotted semi-logarithmically, as discussed for the decay-rate treatment, and the half-life is determined from the slope of the straight line.

Half-lives in the range of 100 microseconds to one second must often be determined by special techniques. For example, the activities produced may be deposited on rapidly rotating drums or moving tapes, with detectors positioned along the travel path. The activity may be produced so as to travel through a vacuum at a known velocity and the disintegration rate measured as a function of distance; however, this method usually applies to shorter half-lives in or beyond the range of the electronic circuit.

Species with half-lives shorter than the electronic measurement limit are not considered as separate radioactivities, and the various techniques of determining their half-lives will hence not be cited here.

Decay-rate considerations for various types of radioactivity are given here in the same order as listed above in Types of radioactivity.

Alpha decay

Alpha decay, the emission of helium ions, exhibits sharp line spectra when spectroscopic measurements of the alpha-particle energies are made. For even–even alpha emitters the most intense alpha group or line is always that leading to the ground state of the daughter. Weaker lines of lower energy go to excited states, and there are frequently numerous lines observable.

The main decay group of even–even alpha emitters exhibits a highly regular dependence on the atomic numberZ, and the energy release, Qα. (Total alpha energy release, Qα, is equal to alpha-particle energy, Eα, plus daughter recoil energy needed for conservation of momentum; Erecoil = (mα/[mα + Md])Eα, with mα equal to the mass of the alpha particle and Md the mass of the daughter product.) As early as 1911 the German physicist Johannes Wilhelm Geiger, together with the British physicist John Mitchell Nuttall, noted the regularities of rates for even–even nuclei and proposed a remarkably successful equation for the decay constant, log λ = a + b log r, in which r is the range in air, b is a constant, and a is given different values for the different radioactive series. The decay constants of odd alpha emitters (odd A or odd Z or both) are not quite so regular and may be much smaller. The values of the constant b that were used by Geiger and Nuttall implied a roughly 90th-power dependence of λ on Qα. There is a tremendous range of known half-lives from the 2 × 1015 years of 144/60Nd (neodymium) with its 1.83-MeV alpha-particle energy (Eα) to the 0.3 microsecond of 212/84Po (polonium) with Eα = 8.78 MeV.

The theoretical basis for the Geiger–Nuttall empirical rate law remained unknown until the formulation of wave mechanics. A dramatic early success of wave mechanics was the quantitative theory of alpha-decay rates. One curious feature of wave mechanics is that particles may have a nonvanishing probability of being in regions of negative kinetic energy. In classical mechanics a ball that is tossed to roll up a hill will slow down until its gravitational potential energy equals its total energy, and then it will roll back toward its starting point. In quantum mechanics the ball has a certain probability of tunneling through the hill and popping out on the other side. For objects large enough to be visible to the eye, the probability of tunneling through energetically forbidden regions is unobservably small. For submicroscopic objects such as alpha particles, nucleons, or electrons, however, quantum mechanical tunneling can be an important process—as in alpha decay.

The logarithm of tunneling probability on a single collision with an energy barrier of height B and thickness D is a negative number proportional to thickness D, to the square root of the product of B and particle mass m. The size of the proportionality constant will depend on the shape of the barrier and will depend inversely on Planck’s constant h.

In the case of alpha decay, the electrostatic repulsive potential between alpha particle and nucleus generates an energetically forbidden region, or potential barrier, from the nuclear radius out to several times this distance. The maximum height (B) of this alpha barrier is given approximately by the expression B = 2Ze2/R, in which Z is the charge of the daughter nucleus, e is the elementary charge in electrostatic units, and R is the nuclear radius. Numerically, B is roughly equal to 2Z/A1⁄3, with A the mass number and B in energy units of MeV. Thus, although the height of the potential barrier for 212/84Po decay is nearly 28 MeV, the total energy released is Qα = 8.95 MeV. The thickness of the barrier (i.e., distance of the alpha particle from the centre of the nucleus at the moment of recoil) is about twice the nuclear radius of 8.8 × 10−13 centimetre. The tunneling calculation for the transition probability (P) through the barrier gives approximatelyEquation.in which M is the mass of the alpha particle and ℏ is Planck’s constant h divided by 2π. By making simple assumptions about the frequency of the alpha particle striking the barrier, the penetration formula (5) can be used to calculate an effective nuclear radius for alpha decay. This method was one of the early ways of estimating nuclear sizes. In more sophisticated modern techniques the radius value is taken from other experiments, and alpha-decay data and penetrabilities are used to calculate the frequency factor.

The form of equation (5) suggests the correlation of decay rates by an empirical expression relating the half-life (t1⁄2) of decay in seconds to the release energy (Qα) in MeV:Equation.

Values of the constants a and b that give best fits to experimental rates of even–even nuclei with neutron number greater than 126 are given in the table. The nuclei with 126 or fewer neutrons decay more slowly than the heavier nuclei, and constants a and b must be readjusted to fit their decay rates.

ab
98 californium (Cf)152.86−52.9506
96 curium (Cm)152.44−53.6825
94 plutonium (Pu)146.23−52.0899
92 uranium (U)147.49−53.6565
90 thorium (Th)144.19−53.2644
88 radium (Ra)139.17−52.1476
86 radon (Rn)137.46−52.4597
84 polonium (Po)129.35−49.9229
*From correlation of ground-state decay rates of even-even nuclei with N > 126.

The alpha-decay rates to excited states of even–even nuclei and to ground and excited states of nuclei with odd numbers of neutrons, protons, or both may exhibit retardations from equation (6) rates ranging to factors of thousands or more. The factor by which the rate is slower than the rate formula (6) is the hindrance factor. The existence of uranium-235 in nature rests on the fact that alpha decay to the ground and low excited states exhibits hindrance factors of over 1,000. Thus the uranium-235 half-life is lengthened to 7 × 108 years, a time barely long enough compared to the age of the elements in the solar system for uranium-235 to exist in nature today.

The alpha hindrance factors are fairly well understood in terms of the orbital motion of the individual protons and neutrons that make up the emitted alpha particle. The alpha-emitting nuclei heavier than radium are considered to be cigar-shaped, and alpha hindrance factor data have been used to infer the most probable zones of emission on the nuclear surface—whether polar, equatorial, or intermediate latitudes.

Beta decay

The processes separately introduced at the beginning of this section as beta-minus decay, beta-plus decay, and orbital electron capture can be appropriately treated together. They all are processes whereby neutrons and protons may transform to one another by weak interaction. In striking contrast to alpha decay, the electrons (minus or plus charged) emitted in beta-minus and beta-plus decay do not exhibit sharp, discrete energy spectra but have distributions of electron energies ranging from zero up to the maximum energy release, Qβ . Furthermore, measurements of heat released by beta emitters (most radiation stopped in surrounding material is converted into heat energy) show a substantial fraction of the energy, Qβ , is missing. These observations, along with other considerations involving the spins or angular momenta of nuclei and electrons, led Wolfgang Pauli to postulate the simultaneous emission of the neutrino (1931). The neutrino, as a light and uncharged particle with nearly no interaction with matter, was supposed to carry off the missing heat energy. Today, neutrino theory is well accepted with the elaboration that there are six kinds of neutrinos, the electron neutrino, mu neutrino, and tau neutrino and corresponding antineutrinos of each. The electron neutrinos are involved in nuclear beta-decay transformations, the mu neutrinos are encountered in decay of muons to electrons, and the tau neutrinos are produced when a massive lepton called a tau breaks down.

Although in general the more energetic the beta decay the shorter is its half-life, the rate relationships do not show the clear regularities of the alpha-decay dependence on energy and atomic number.

The first quantitative rate theory of beta decay was given by Enrico Fermi in 1934, and the essentials of this theory form the basis of modern theory. As an example, in the simplest beta-decay process, a free neutron decays into a proton, a negative electron, and an antineutrino: n → p + e + ν. The weak interaction responsible for this process, in which there is a change of species (n to p) by a nucleon with creation of electron and antineutrino, is characterized in Fermi theory by a universal constantg. The sharing of energy between electron and antineutrino is governed by statistical probability laws giving a probability factor for each particle proportional to the square of its linear momentum (defined by mass times velocity for speeds much less than the speed of light and by a more complicated, relativistic relation for faster speeds). The overall probability law from Fermi theory gives the probability per unit time per unit electron energy interval, P(W), as follows:Equation.in which W is the electron energy in relativistic units (W = 1 + E/m0c2) and W0 is the maximum (W0 = 1 + Qβ/m0c2), m0 the rest mass of the electron, c the speed of light, and h Planck’s constant. This rate law expresses the neutron beta-decay spectrum in good agreement with experiment, the spectrum falling to zero at lowest energies by the factor W and falling to zero at the maximum energy by virtue of the factor (W0 − W)2.

In Fermi’s original formulation, the spins of an emitted beta and neutrino are opposing and so cancel to zero. Later work showed that neutron beta decay partly proceeds with the 1/2 ℏ spins of beta and neutrino adding to one unit of ℏ. The former process is known as Fermi decay (F) and the latter Gamow–Teller (GT) decay, after George Gamow and Edward Teller, the physicists who first proposed it. The interaction constants are determined to be in the ratio gGT2/gF2 = 1.4. Thus, g2 in equation (7) should be replaced by (gF2 + gGT2).

The scientific world was shaken in 1957 by the measurement in beta decay of maximum violation of the law of conservation of parity. The meaning of this nonconservation in the case of neutron beta decay considered above is that the preferred direction of electron emission is opposite to the direction of the neutron spin. By means of a magnetic field and low temperature it is possible to cause neutrons in cobalt-60 and other nuclei, or free neutrons, to have their spins set preferentially in the up direction perpendicular to the plane of the coil generating the magnetic field. The fact that beta decay prefers the down direction for spin means that the reflection of the experiment as seen in a mirror parallel to the coil represents an unphysical situation: conservation of parity, obeyed by most physical processes, demands that experiments with positions reversed by mirror reflection should also occur. Further consequences of parity violation in beta decay are that spins of emitted neutrinos and electrons are directed along the direction of flight, totally so for neutrinos and partially so by the ratio of electron speed to the speed of light for electrons.

The overall half-life for beta decay of the free neutron, measured as 12 minutes, may be related to the interaction constants g2 (equal to gF2 + gGT2) by integrating (summing) probability expression (7) over all possible electron energies from zero to the maximum. The result for the decay constant isEquation.in which W0 is the maximum beta-particle energy in relativistic units (W0 = 1 + Qβ/m0c2), with m0 the rest mass of the electron, c the speed of light, and h Planck’s constant. The best g value from decay rates is approximately 10−49 erg per cubic centimetre. As may be noted from equation (8), there is a limiting fifth-power energy dependence for highest decay energies.

In the case of a decaying neutron not free but bound within a nucleus, the above formulas must be modified. First, as the nuclear charge Z increases, the relative probability of low-energy electron emission increases by virtue of the coulombic attraction. For positron emission, which is energetically impossible for free protons but can occur for bound protons in proton-rich nuclei, the nuclear coulomb charge suppresses lower energy positrons from the shape given by equation (7). This equation can be corrected by a factor F(Z,W) depending on the daughter atomic number Z and electron energy W. The factor can be calculated quantum mechanically. The coulomb charge also affects the overall rate expression (8) such that it can no longer be expressed as an algebraic function, but tables are available for analysis of beta decay rates. The rates are analyzed in terms of a function f(Z,Qβ) calculated by integration of equation (7) with correction factor F(Z,W).

Approximate expressions for the f functions usable for decay energies Q between 0.1 MeV and 10 MeV, in which Q is measured in MeV, and Z is the atomic number of the daughter nucleus, are as follows (the symbol ≈ means approximately equal to):Equations.

For electron capture, a much weaker dependence on energy is found:Equation.

The basic beta decay rate expression obeyed by the class of so-called superallowed transitions, including decay of the neutron and several light nuclei isEquation.

Like the ground-to-ground alpha transitions of even–even nuclei, the superallowed beta transitions obey the basic rate law, but most beta transitions go much more slowly. The extra retardation is explained in terms of mismatched orbitals of neutrons and protons involved in the transition. For the superallowed transitions the orbitals in initial and final states are almost the same. Most of them occur between mirror nuclei, with one more or less neutron than protons; i.e., beta-minus decay of hydrogen-3, electron capture of beryllium-7 and positron emission of carbon-11, oxygen-15, neon-19, . . . titanium-43.

The nuclear retardation of beta decay rates below those of the superallowed class may be expressed in a fundamental way by multiplying the right side of equation (9) by the square of a nuclear matrix element (a quantity of quantum mechanics), which may range from unity down to zero depending on the degree of mismatch of initial and final nuclear states of internal motion. A more usual way of expressing the nuclear factor of the beta rate is the log ft value, in which f refers to the function f(Z,Qβ). Because the half-life is inversely proportional to the decay constant λ, the product fβt1⁄2 will be a measure of (inversely proportional to) the square of the nuclear matrix element. For the log ft value, the beta half-life is taken in seconds, and the ordinary logarithm to the base 10 is used. The superallowed transitions have log ft values in the range of 3 to 3.5. Beta log ft values are known up to as large as ∼ 23 in the case of indium-115. There is some correlation of log ft values with spin changes between parent and daughter nucleons, the indium-115 decay involving a spin change of four, whereas the superallowed transitions all have spin changes of zero or one.

Gamma transition

The nuclear gamma transitions belong to the large class of electromagnetic transitions encompassing radio-frequency emission by antennas or rotating molecules, infrared emission by vibrating molecules or hot filaments, visible light, ultraviolet light, and X-ray emission by electronic jumps in atoms or molecules. The usual relations apply for connecting frequency ν, wavelength λ, and photon quantum energy E with speed of light c and Planck’s constant h; namely, λ = c/ν and E = hv. It is sometimes necessary to consider the momentum (p) of the photon given by p = E/c.

Classically, radiation accompanies any acceleration of electric charge. Quantum mechanically there is a probability of photon emission from higher to lower energy nuclear states, in which the internal state of motion involves acceleration of charge in the transition. Therefore, purely neutron orbital acceleration would carry no radiative contribution.

A great simplification in nuclear gamma transition rate theory is brought about by the circumstance that the nuclear diameters are always much smaller than the shortest wavelengths of gamma radiation in radioactivity—i.e., the nucleus is too small to be a good antenna for the radiation. The simplification is that nuclear gamma transitions can be classified according to multipolarity, or amount of spin angular momentum carried off by the radiation. One unit of angular momentum in the radiation is associated with dipole transitions (a dipole consists of two separated equal charges, plus and minus). If there is a change of nuclear parity, the transition is designated electric dipole (E1) and is analogous to the radiation of a linear half-wave dipole radio antenna. If there is no parity change, the transition is magnetic dipole (M1) and is analogous to the radiation of a full-wave loop antenna. With two units of angular momentum change, the transition is electric quadrupole (E2), analogous to a full-wave linear antenna of two dipoles out-of-phase, and magnetic quadrupole (M2), analogous to coaxial loop antennas driven out-of-phase. Higher multipolarity radiation also frequently occurs with radioactivity.

Transition rates are usually compared to the single-proton theoretical rate, or Weisskopf formula, named after the American physicist Victor Frederick Weisskopf, who developed it. The table gives the theoretical reference rate formulas in their dependence on nuclear mass number A and gamma-ray energy Eγ (in MeV).

transition typepartial half-life tγ (seconds)illustrative tγ values for A = 125, E = 0.1 MeV (seconds)
E15.7 × 10−15 E −3 A−2/32 × 10−13
E26.7 × 10−9 E −5 A−4/31 × 10−6
E31.2 × 10−2 E −7 A−28
E43.4 × 104 E −9 A−8/39 × 107
E51.3 × 1011 E −11 A−10/31 × 1015
M12.2 × 10−14 E −32 × 10−11
M22.6 × 10−8 E −5 A−2/31 × 10−4
M34.9 × 10−2 E −7 A−4/38 × 102
M41.3 × 105 E −9 A−28 × 109
M55.0 × 1011 E −11 A−8/31 × 1017
*The energies E are expressed in MeV. The nuclear radius parameter r0 has been taken as 1.3 fermis. It is to be noted that tγ is the partial half-life for γ emission only; the occurrence of internal conversion will always shorten the measured half-life.

It is seen for the illustrative case of gamma energy 0.1 MeV and mass number 125 that there occurs an additional factor of 107 retardation with each higher multipole order. For a given multipole, magnetic radiation should be a factor of 100 or so slower than electric. These rate factors ensure that nuclear gamma transitions are nearly purely one multipole, the lowest permitted by the nuclear spin change. There are many exceptions, however; mixed M1–E2 transitions are common, because E2 transitions are often much faster than the Weisskopf formula gives and M1 transitions are generally slower. All E1 transitions encountered in radioactivity are much slower than the Weisskopf formula. The other higher multipolarities show some scatter in rates, ranging from agreement to considerable retardation. In most cases the retardations are well understood in terms of nuclear model calculations.

Though not literally a gamma transition, electric monopole (E0) transitions may appropriately be mentioned here. These may occur when there is no angular momentum change between initial and final nuclear states and no parity change. For spin-zero to spin-zero transitions, single gamma emission is strictly forbidden. The electric monopole transition occurs largely by the ejection of electrons from the orbital cloud in heavier elements and by positron–electron pair creation in the lighter elements.

Applications of radioactivity

In medicine

Radioisotopes have found extensive use in diagnosis and therapy, and this has given rise to a rapidly growing field called nuclear medicine. These radioactive isotopes have proven particularly effective as tracers in certain diagnostic procedures. As radioisotopes are identical chemically with stable isotopes of the same element, they can take the place of the latter in physiological processes. Moreover, because of their radioactivity, they can be readily traced even in minute quantities with such detection devices as gamma-ray spectrometers and proportional counters. Though many radioisotopes are used as tracers, iodine-131, phosphorus-32, and technetium-99m are among the most important. Physicians employ iodine-131 to determine cardiac outputplasma volume, and fat metabolism and particularly to measure the activity of the thyroid gland where this isotope accumulates. Phosphorus-32 is useful in the identification of malignant tumours because cancerous cells tend to accumulate phosphates more than normal cells do. Technetium-99m, used with radiographic scanning devices, is valuable for studying the anatomic structure of organs.

Such radioisotopes as cobalt-60 and cesium-137 are widely used to treat cancer. They can be administered selectively to malignant tumours and so minimize damage to adjacent healthy tissue.

In industry

In science

Research in the Earth sciences has benefited greatly from the use of radiometric-dating techniques, which are based on the principle that a particular radioisotope (radioactive parent) in geologic material decays at a constant known rate to daughter isotopes. Using such techniques, investigators have been able to determine the ages of various rocks and rock formations and thereby quantify the geologic time scale (see geochronology: Absolute dating). A special application of this type of radioactivity age method, carbon-14 dating, has proved especially useful to physical anthropologists and archaeologists. It has helped them to better determine the chronological sequence of past events by enabling them to date more accurately fossils and artifacts from 500 to 50,000 years old.

Radioisotopic tracers are employed in environmental studies, as, for instance, those of water pollution in rivers and lakes and of air pollution by smokestack effluents. They also have been used to measure deep-water currents in oceans and snow-water content in watersheds. Researchers in the biological sciences, too, have made use of radioactive tracers to study complex processes. For example, thousands of plant metabolic studies have been conducted on amino acids and compounds of sulfur, phosphorus, and nitrogen.John O. RasmussenEllis P. Steinberg

Mis en avant

Plante médicinale

Le thé des jardins, aussi appelé thé de Moldavie, ou dracocephalum en latin, est une plante qui appartient à la grande famille des sauges. On la cultive en annuelle, car elle ne survit pas à l’hiver, même doux. Les intérêts de cette lamiacée sont nombreux. Elle attire au jardin les pollinisateurs grâce à ses superbes fleurs violines qui apparaissent en été. Les feuilles et les fleurs peuvent être consommées en infusion, dont le goût citronné est assez proche de celui de la verveine citronnelle. Ses vertus médicinales sont également intéressantes à découvrir, notamment ses propriétés digestives, antiseptiques et immunostimulantes.

Plante médicinale

Pour avoir une ample idée sur les plantes aromatiques, suivez le lien ci-dessous

Plante médicinale
valeur de la santé
Faite attention à votre santé avant que ça ne soit tard

Photos de quelques plantes aromatiques, de la zone méditerranée, utiliser comme additifs dans la cuisine

Vanille فانيلا

La vanille est une épice constituée par le fruit de certaines orchidées lianescentes tropicales d’origine mésoaméricaine du genre Vanilla, principalement de l’espèce Vanilla planifolia. Wikipédia

L’arachide فول سوداني

L’arachide, dont le fruit s’appelle cacahuète ou cacahouète, arachide, pois de terre, pistache de terre et pinotte au Canada est une plante de la famille des légumineuses originaire du nord-ouest … Wikipédia

https://chimiephysiquescience.wordpress.com/2021/01/15/les-cucurbitacees-riches-en-especes-originales-dossier/

Amandes لوز

L’amande est le fruit de l’amandier. L’amande est une graine riche en lipide, et en particulier en acide oléique et linoléique, un oméga-6. Elle est aussi remarquablement riche en protéines, quoique dépourvue de certains acides aminés essentiels comme la méthionine et la lysine. Wikipédia

https://chimiephysiquescience.wordpress.com/2020/08/16/la-nature-vous-rendra-plus-belle/

Safran الزعفران

Safran est un grand groupe industriel et technologique français, présent au niveau international dans les domaines de l’aéronautique, de l’espace et de la défense. Il est créé en 2005 lors de la fusion entre Snecma et Sagem. Depuis septembre 2011, il est coté au CAC 40. Wikipédia

Citron ليمون الحامض

Le citron est un agrume, fruit du citronnier. Il existe sous deux formes : le citron doux, fruit décoratif de cultivars à jus peu ou pas acide néanmoins classé Citrus limon Burm. f. ; et le citron acide, le plus commun de nos jours, dont le jus a un pH d’environ 2,5. Wikipédia

https://chimiephysiquescience.wordpress.com/2021/03/07/lortie-quelles-sont-ses-vertus/

La noix جوز

La noix est un fruit comestible à coque. Elle est produite par les noyers, arbres du genre Juglans L., de la famille des Juglandacées. La forme commercialisée la plus importante des régions tempérées provient de la culture du noyer commun. Wikipédia

Café القهوة

Le café est une boisson énergisante psychotrope stimulante, obtenue à partir des graines torréfiées de diverses variétés de caféier, de l’arbuste caféier, du genre Coffea. Il fait partie des trois principales boissons contenant de la caféine les plus consommées dans le monde, avec le thé et le maté. Wikipédia

La nigelle حبة البركة

La nigelle cultivée ou cumin noir est une plante annuelle de la famille des Renonculacées originaire du sud-ouest de l’Asie. Les graines sont utilisées comme remède traditionnel ou comme épice dans de nombreux pays du monde. Wikipédia

Pistaches فستق

Le pistachier, pistachier commun, pistachier cultivé ou pistachier vrai, est un arbuste de 3 à 10 mètres, de la famille des Anacardiaceae. Cet arbuste originaire des zones arides du Moyen-Orient, fut d’abord cultivé il y a 3 000 à 4 000 ans en Iran. Wikipédia

Poivre فلفل اسود

Le Poivrier noir ou Poivre noir est une liane de la famille des Pipéracées originaire de la côte de Malabar. Cette plante est cultivée dans la zone tropicale pour ses baies qui donnent une épice recherchée : le poivre. Wikipédia

https://chimiephysiquescience.wordpress.com/2020/06/23/foccacia-au-romarin-du-jardin-quoi-quon-mange/

Kiwi 🥝 الكيوي

Les kiwis sont des fruits de plusieurs espèces de lianes du genre Actinidia, famille des Actinidiaceae. Ils sont originaires de Chine, notamment de la province de Shaanxi. On en trouve par ailleurs dans des climats dits montagnards tropicaux. Wikipédia

Cajou كاجول

L’anacardier ou pommier-cajou, est une espèce de petit arbre de la famille des Anacardiaceae, originaire d’Amérique tropicale, et cultivé en zone tropicale pour sa production de noix de cajou et de pomme de cajou. Aux Antilles françaises et à La Réunion, il est appelé pomme-cajou ou noix-cajou. Wikipédia

https://chimiephysiquescience.wordpress.com/2021/02/08/7654/

Mis en avant

Education — Le petit monde de fanfan la rêveuse

L’éducation est l’arme la plus puissante qu’on puisse utiliser pour changer le monde. Nelson Mendela La jeunesse, comme la verdure, pare la terre; mais l’éducation la couvre de moissons. Rivarol L’éducation, c’est la boussole de la vie Franck Somkine. Bonjour les amis, Quelques petites phrases pour cette semaine, de banals mots, mais avec tant de […]

Education — Le petit monde de fanfan la rêveuse
https://chimiephysiquescience.wordpress.com/2020/06/21/leducation-dun-prince-blog-duchesse-de-cambridge/
https://chimiephysiquescience.wordpress.com/2022/02/14/comment-motiver-un-eleve-en-difficulte-pouvoir-des-mots/
https://chimiephysiquescience.wordpress.com/2020/06/21/societe-et-education-contes-a-rever/
Mis en avant

De la relativité des réputations : Einstein ou Poincaré ?

Question : qu’est-ce que la relativité ? Qui l’a inventé : Poincaré ou Einstein ? Ou bien le deuxième a fini ce que le premier a commencé ?

Les libraires des sous-préfectures ont de la chance : les Œuvres complètes d’Albert Einstein seront bientôt disponibles en langue française, grâce au CNRS et aux éditions du Seuil. Quant à ceux, parmi leurs clients, qui souhaiteraient aussi acquérir les ouvrages de Louis de Broglie ou de Henri Poincaré, ils devront attendre que le Centre national […]

Pour consulter tout l’article, cliquez sur le lien ci-dessous

De la relativité des réputations : Einstein ou Poincaré ?
Mis en avant

Pédagogie Inclusive

Favoriser l’inclusion a toujours été, et ce bien avant le COVID, un défi de l’éducation. Toutefois, avec la rentrée approchant à grands pas et la situation que nous vivons, l’inclusion devient essentielle dans un contexte d’apprentissage à distance. Beaucoup d’universités ont pris la décision de maintenir leurs cours en ligne à la session d’automne, dès lors, comment créer l’inclusion en contexte de classes virtuelles.

Pédagogie Inclusive
https://www.piloter.org/autoformation/autoformation-parcours.htm
https://www.facebook.com/telmidticee/
Mis en avant

Circuit RLC en série, régime forcée

https://chimiephysiquescience.wordpress.com/2020/08/02/circuit-rlc-serie-libre/
https://chimiephysiquescience.wordpress.com/2021/02/02/le-dipole-rl-alloschool/
Mis en avant

La place du sport dans ma vie — Uneviedemorgane

Bonjour bonjour, Ça me fait vraiment plaisir de venir te parler du sport, de ce qu’il m’apporte au quotidien. Je vais revenir rapidement sur ce qui m’a poussé à m’y mettre un dimanche soir de septembre 2015, comment je m’y suis mise et donc pourquoi je continue. Si ça peut aider juste une personne à […]

La place du sport dans ma vie — Uneviedemorgane
https://chimiephysiquescience.wordpress.com/2020/06/22/hydratation-nutrition-proteines-biocurlymum/
https://chimiephysiquescience.wordpress.com/2020/06/23/le-renforcement-des-abdominaux-pour-une-bonne-sante-charlotte-villars-sport-sante/
Mis en avant

#LIFESTYLE : Nouvelle routine Alimentation – Sport — Make my Utopia – Blog lifestyle, bien-être et sport!

Depuis le 1er Avril 2020, j’ai décidé de faire à nouveau attention à ce que je mange et de me bouger un maximum afin de faire fondre ses derniers kilos de grossesse, bien installés et pas décidés à partir. Aujourd’hui, j’ai décidé de vous partager cette « première semaine« .

#LIFESTYLE : Nouvelle routine Alimentation – Sport — Make my Utopia – Blog lifestyle, bien-être et sport!
https://chimiephysiquescience.wordpress.com/2020/06/23/vivre-au-rythme-des-saisons-zaira-creation-bijoux-et-accessoires/
Mis en avant

Les herbes aromatiques — Tout sur l’alimentation

On connaît les différentes herbes aromatiques que l’on utilise dans certains plats, comme les herbes de Provence, par exemple. Aujourd’hui, je vous parle de quelques unes d’entres elles, de leur atouts et de leurs propriétés ! En réalité, ce sont des « plantes » aromatiques utilisées en cuisine comme épices, aromates ou condiments, mais aussi en phytothérapie […]

Les herbes aromatiques — Tout sur l’alimentation

thym , ( Thymus vulgaris ), piquantherbe de la famille de la menthe ( Lamiaceae ) connue pour l’arôme et la saveur de ses feuilles séchées et sommités fleuries. Le thym est originaire d’Eurasie et est cultivé dans le monde entier. Il est utilisé pour aromatiser une large gamme d’aliments, y compris la volaille, les farces, le poisson, les œufs, les viandes, les sauces, les soupes, les légumes, les fromages et les pâtes. C’est l’une des herbes utilisées pour aromatiser la liqueur bénédictine et c’est un assaisonnement caractéristique du plat traditionnel anglais jugged hare. La principale composante de sal’huile essentielle estthymol, ou camphre de thym, qui est utilisé dans la fabrication de parfums et de dentifrices. Certaines variétés de thym sont cultivées comme couvre-sol ornemental.

https://chimiephysiquescience.wordpress.com/2020/06/22/sport-nutrition-comment-manger-healthy-au-quotidien-gravity-ladies/
https://chimiephysiquescience.wordpress.com/2020/06/23/tag-12-le-sport-et-moi-chez-cecile-c-fait-maison/
Mis en avant

Réinventer l’éducation —

Article par Jenn Sutherland-Miller Déscolarisation = penser différemment, susciter l’intérêt naturel et dialoguer avec votre enfant. Il s’agit d’encourager vos enfants à commencer à prêter attention à leurs propres intérêts au lieu de se faire dire ce qui les intéresse et à nourrir ce processus en leur temps. Réinventer l’éducation commence par la déscolarisation. […]

Réinventer l’éducation —
https://chimiephysiquescience.wordpress.com/2020/06/21/societe-et-education-contes-a-rever/
Mis en avant

Apprendre autrement , repenser l’apprentissage

La plupart, qui ont fait leurs études en lycée et en université se plaignent de la physique chimie, ils trouvent ses matières difficile et ne comprennent pas la méthode selon laquelle elles fonctionnent . Pourtant la physique et la chimie sont trés proche de nous , beaucoup plus que les autres matières, même les sentiments et l’émotion sont de la chimie , un ensemble d’hormones et d’influx électrique qui régissent nos comportements.

théatre comme moyens de formation de la culture scientifique

peut être que notre société, qualifié de conservative et notre façon de penser , abstraite , à qui manquait la production et du concret. Autant de valeurs qui font que notre façon de vivre est en discorde avec la réalité physique , basé sur des principes de causalité , de logique , de raisonnement , d’observation , d’interprétation , d’analyse et de synthèse.

La majorité des élèves ne connaissent rien des phénomènes et des idées physico-chimique et ils vont à l’école sans rien connaitre de ce qu’on va leurs faire enseigner , parfois des sujets de leurs environnements et parfois des idées dont ils n’ont jamais écouté parler.

C’est cette ignorance qui crée un fossé entre les apprenants et la physique chimie ; pour faire face à ce problème , les sociétés développées ont mis en oeuvre un ensemble de moyens pour diffuser la culture scientifique auprès d’un grand public : la production de support audio-visuels de vulgarisation de la science , musées qui montre l’évolution logique et progressive des idées et des théories -obstacles et avancés – , les livres qui traitent de la connaissance scientifique d’une façon simple pour l’approcher du grand public , le théâtre scientifique , oui du théâtre !

Ainsi , les élèves de ces pays en arrivant à l’école , ils ont déjà une idée , peut être sommaire , mais suffisante pour qu’ils puissent comprendre les leçons de la science.

C’est cette démarche qui part du commune au spécifique , qui peut faciliter l’apprentissage de la science et contribuer à combattre l’échec et la pensée mythique qui prédomine notre façon de penser.

Voir ce document vidéà , ça va vous étonné. !

https://www.canal-u.tv/video/cerimes/changements_d_etat.9081

L’enseignement pour battre l’ignorance
https://chimiephysiquescience.wordpress.com/2020/05/24/entre-la-vie-et-la-mort/
Mis en avant

La pensée mythique (1)

Il faut surpasser les imbéciles

pour définir la pensée mythique , on peut dire que c’est une façon de pensée qui s’oppose à la pensée scientifique – irrationnel – , j’écrivais un blog sur la pensée scientifique.

Un marocain , comme tout les citoyens des pays sous-développés et quelques habitants des pays occidentaux – on ne citera pas les indigènes qui vivent encore une vie primaire – portaient des éléments de la pensée mythique et croyaient aux miracles sans distinction entre les analphabètes et ceux qui ont pu suivre leurs enseignements et qui ont pu obtenir des diplômes universitaires de haut niveau.

Bien sùr , en général , il n’ y a pas de grande relation entre le niveau d’enseignement est la raison , juste parce que la méthode d’enseignement et la vie sociale ne favorise pas l’émergence de la pensée scientifique qui relie les conséquences à leurs causes.

Aux écoles , la méthode la plus utilisé est la méthode dogmatique , même si certains enseignants utilisent les nouvelles technologies de l’information et de communication , c’est pour la forme et pour accélérer le débit des connaissances transmises et gagner du temps pour terminer le programme trop chargé dans les délais fixé.

Face à des élèves, qui sont habitués à entendre et ne pas discuter ce qu’on leurs faits avaler , qui n’ont pas les moyens intellectuels de le faire , et des examens -indicateurs de réussite scolaire et sociale – qui incitent les élèves à reproduire les connaissances et les méthodes qu’ils ont appris par cœur , par les professeurs des différentes matières.

Même les disciplines qualifiées de scientifique se limitent à présenter des connaissances toutes faite , sans parler de leurs origines , sans invoquer les problèmes qui ont induit ses lois enseigner dans le programme . Après le professeur distribue des séries d’exercices pour montrer aux apprenants comment on peut appliquer les lois présentés dans la leçon et faire des calculs dépourvu de tout sens – la plupart des élèves et des familles considère que faire beaucoup d’exercices et le moment le plus important dans l’enseignement des sciences -.

Ce type d’enseignement ne favorise pas les capacités pas les capacités intellectuelles supérieures comme l’analyse , synthèse , critique et jugement , mais incitent les élèves à apprendre par cœur et sans comprendre , et favorise l’apparition des attitudes négatives comme le sentiment de faiblesse envers l’autre et surtout les étrangers , encouragent à pratiquer la triche à l’intérieur de l’école et à l’extérieur.

Ce type d’enseignements est renforcé à l’extérieur de l’école , d’abord à l’intérieur de la famille où l’autorité du père empêche toute discussion et impose ses décisions à tout les membres de la famille- lorsque les grands parles les petits doivent se contenter d’écouter – , prés ils viennent les autres institutions qui doivent encadrer le citoyen pour favoriser la domination de l’état , le plus importants de ces institutions citons les médias sous ces différentes formes , qui représentent les informations d’une façon superficielle , sans aucune analyse ni discussion , qui interdisent à l’opinion opposé de se manifester et à apparaître . Les émissions que diffusent ces médias touchent essentiellement le coté sentimentale et ne font pas éveiller chez le spectateur l’ambition de comprendre et d’analyser les événements et ne l’aide pas à construire un opinion propre.

Cet environnement ne peut que faire répandre la pensée mythique à l’intérieur de la société , lui permet de se manifester sous différente forme et d’habité à l’intérieur de l’inconscient des gens.

Comme le malheur des uns fait le bonheur des autres , il y en a qui tirent profits de cette situation et décident d’exploiter les gens et leurs prendre de l’argent en les considérant comme des proie faciles , ces derniers sont considérés faible et croient à tous ce qu’on leurs dits et ne distingue pas ce qui le bien du mal et se laissent emporter par les premiers – les dominants et les dominés-.

Les premiers civilisations , pour interpréter certains phénomènes qui perturbent leurs vie et dépasse leurs capacités de comprendre on inventé des dieux qui se charge de chaque coté de leurs vies -comme les grecs- et qui commandent chaque chose dans l’univers.

Les habitants des forets et qui habitent lions de toute civilisations ont des sourciers qui se charge de résoudre leurs problèmes physique et psychique .

Dans les pays arabes et musulmans , il y en a ce qu’ont appelle les « Fquihs » ou des « chrifs » , une sorte de gens qui mélange la région islamique -vue que la plupart des habitants de ces régions sont des musulmans – et des pratiques sorcières ancestrales qui puisent leurs origines dans les pensées primaires des premières civilisations qui ont habités cette région du monde , et qui se transmettent de génération au génération à cause de l’ignorance et les idées sombrent qu’ils ont adopté.

dépourvu de tous moyens de raison, en plus de la pauvreté et de la précarité de leurs situations sociales , ces gens sont livrés entre des mains qui les exploitent et font graver leurs situations en leurs proposant des promesses trompeuses en ce qui concerne leurs maladies psychique et organique .

Ce qui a comme conséquence de retarder l’accès des gens au soins auprès des personnes qualifiées , comme les médecins et les psychologues , et ils ne vont que lorsque leurs situations est désespérer. ces promesses ont aussi pour conséquence d’empêcher les gens à faire travailler leurs esprits et de recourir à des stratégies propre pour résoudre leurs problèmes.

à cela s’ajoute l’ignorance et un milieu décourageant toute initiative positive capable de faire évoluer la société , et contribuer au développement de la société.

Malgré les apparences de la modernité, et l’amélioration de la situation matériels de certains couches sociales, les croyances mythiques n’épargne personne , et la facture des pratiques mythiques est proportionnel à la situation financière de la personne.

ETUDES

Du mythe à la raison

LA FORMATION DE LA PENSÉE POSITIVE DANS LA GRÈCE ARCHAÏQUE

La pensée rationnelle a un état civil ; on connaît sa date et son lieu de naissance. C’est au VIé siècle avant notre ère, dans les cités grecques d’Asie Mineure, que surgit une forme de réflexion nouvelle, toute positive, sur la nature. Burnet exprime l’opinion courante quand il remarque à ce sujet : « Les philosophes ioniens ont ouvert la voie, que la science, depuis, n’a eu qu’à suivre * ». La naissance de la philosophie, en Grèce, marquerait ainsi le début de la pensée scientifique, — on pourrait dire : de la pensée tout court. Dans l’Ecole de Milet, pour la première fois, le logos se serait libéré du mythe comme les écailles tombent des yeux de l’aveugle. Plus que d’un changement d’attitude intellectuelle, d’une mutation mentale, il s’agirait d’une révélation décisive et définitive : la découverte de l’esprit 2. Aussi serait-il vain de rechercher dans le passé les origines de la pensée rationnelle. La pensée vraie ne saurait avoir d’autre origine qu’elle-même. Elle est extérieure à l’histoire, qui ne peut rendre raison, dans le développement de l’esprit, que des obstacles, des erreurs et des illusions successives. Tel est le sens du « miracle » grec : à travers la philosophie des Ioniens, on reconnaît, s’incarnant dans le temps, la Raison intemporelle. L’avènement du logos introduirait donc dans l’histoire une discontinuité radicale. Voyageur sans bagages, la philosophie viendrait au monde sans passé, sans parents, sans famille ; elle serait un commencement absolu.

Du même coup, l’homme grec se trouve, dans cette perspective, élevé au-dessus de tous les autres peuples, prédestiné ; en lui le logos s’est fait chair. « S’il a inventé la philosophie, dit encore Burnet, c’est par ses qualités d’intelligence exceptionnelles : l’esprit d’observation joint à la puissance du raisonnement 3 ». Et, par-delà la philosophie grecque, cette supériorité quasi providentielle se transmet à toute la pensée occidentale, issue de l’hellénisme.

1. Early greek philosophy, 3e éd., Londres, 1920, p. v. L’ouvrage a été traduit en français sous le titre : L’aurore de la philosophie grecque. 2. On trouve encore cette interprétation chez Bruno Snklx, dont la perspective, pourtant, est historique. Cf. Die Entdeckung des Geistes. Studien zur Entstehung des europaischen Denkens bei den Griechen, Hambourg, 1948. 3. Greek philosophy from Thaïes to Plato, Londres, 1914, p. 10. Comme l’écrit Mlle Clémence Ramnoux, la physique ionienne, selon Burnet, sauve l’Europe de l’esprit religieux d’Orient : c’est le Marathon de la vie spirituelle ( « Les interprétations modernes d’Anaxi- mandre », Revue de Métaphysique et de Morale, n° 3, juil.-sept. 1954).

183

ANNALES

Au cours des cinquante dernières années, cependant, la confiance de l’Occident en ce monopole de la Raison a été entamée. La crise de la physique et de la science contemporaines a ébranlé les fondements, — qu’on croyait définitifs, — de la logique classique. Le contact avec les grandes civilisations spirituellement différentes de la nôtre, comme l’Inde et la Chine, a fait éclater le cadre de l’humanisme traditionnel. L’Occident ne peut plus aujourd’hui prendre sa pensée pour la pensée, ni saluer dans l’aurore de la philosophie grecque le lever du soleil de l’Esprit. La pensée rationnelle, dans le temps qu’elle s’inquiète de son avenir et qu’elle met en question ses principes, se tourne vers ses origines ; elle interroge son passé pour se situer, pour se comprendre historiquement.

Deux dates jalonnent cet effort. En 1912, Cornford publie From religion to philosophy, où il tente, pour la première fois, de préciser le lien qui unit la pensée religieuse et les débuts de la connaissance rationnelle. Il ne reviendra à ce problème que beaucoup plus tard, au soir de sa vie. Et c’est en 1952 — neuf ans après sa mort — que paraissent, groupées sous le titre Princi- pium sapientiae. The origins of greek philosophical thought, les pages où il établit l’origine mythique et rituelle de la première philosophie grecque.

Contre Burnet, Cornford montre que la « physique » ionienne n’a rien de commun avec ce que nous appelons science ; elle ignore tout de l’expérimentation ; elle n’est pas non plus le produit de l’intelligence observant directement la nature. Elle transpose, dans une forme laïcisée et sur un plan de pensée plus abstraite, le système de représentation que la religion a élaboré. Les cosmologies des philosophes reprennent et prolongent les mythes cosmogoniques. Elles apportent une réponse au même type de question : comment un monde ordonné a-t-il pu émerger du chaos ? Elles utilisent un matériel conceptuel analogue : derrière les « éléments » des Ioniens, se profile la figure d’anciennes divinités de la mythologie. En devenant « nature », les éléments ont dépouillé l’aspect de dieux individualisés ; mais ils restent es puissances actives, animées et impérissables, encore senties comme divines. Le monde d’Homère s’ordonnait par une répartition entre les dieux des domaines et des honneurs : à Zeus, le ciel « éthéré » (aithèr, le feu) ; à Hadès, l’ombre « brumeuse » (aèr, l’air) ; à Poseidon la mer; à tous les trois en commun, Gaia, la terre, où vivent et meurent les hommes 1. Le cosmos des Ioniens s’organise par une division des provinces, une répartition des saisons entre des puissances opposées qui s’équilibrent réciproquement.

Il ne s’agit pas d’une analogie vague. Entre la philosophie d’un Anaxi- mandre et la Théogonie d’un poète inspiré comme Hésiode, Cornford montre que les structures se correspondent jusque dans le détail 2. Bien plus, le

1. Iliade, XV, 189-194. 2. Principium sapientiae, p. 150 à 224. La démonstration est reprise par G. Thomson, Studies in ancient greek society, Vol. П, The first philosophers, Londres, 1955, p. 140 à 172.

184

DU MYTHE A LA RAISON

processus d’élaboration conceptuelle qui aboutit à la construction naturaliste du philosophe est déjà à l’œuvre dans l’hymne religieux de gloire à Zeus que célèbre le poème hésiodique. Le même thème mythique de mise en. ordre du monde s’y répète en effet sous deux formes qui traduisent des niveaux différents d’abstraction.

Dans une première version, le récit met en scène les aventures de person» nages divins 1 : Zeus lutte pour la souveraineté contre Typhon, dragon aux mille voix, puissance de confusion et de désordre. Zeus tue le monstre, dont le cadavre donne naissance aux vents qui soufflent dans l’espace séparant le ciel de la terre. Puis, pressé par les dieux de prendre le pouvoir et le trône des immortels, Zeu? répartit entre eux les « honneurs ». Sous cette forme, le mythe reste très proche du drame rituel dont il est l’illustration, et dont on trouverait le modèle dans la fête royale de création de la Nouvelle Année, au mois Nisan, à Babylone 2. A la fin d’un cycle temporel, — une grande année, — le roi doit réaffirmer sa puissance de souveraineté, mise en question en ce tournant du temps où le monde revient à son point de départ 8. L’épreuve et la victoire royales, rituellement mimées par une lutte contre un dragon, ont la valeur d’une recréation de l’ordre cosmique, saisonnier, sociaL

Le roi est au centre du monde, comme il est au centre de son peuple. Chaque année, il répète l’exploit accompli par Marduk et que célèbre un hymne, VEnuma élis, chanté au quatrième jour de la fête : la victoire du dieu sur Tiamat, monstre femelle, incarnant les puissances de désordre, le retour à l’informe, le chaos. Proclamé roi des dieux, Marduk tue Tiamat, avec l’aide des vents qui s’engouffrent à l’intérieur du monstre. La bête morte, Marduk l’ouvre en deux comme une huître, en jette une moitié en l’air et l’immobilise pour former le ciel. Il règle alors la place et le mouvement des astres, fixe l’année et les mois, crée la race humaine, répartit les privilèges et les destins. A travers rite et mythe babyloniens, s’exprime une pensée qui n’établit pas encore entre l’homme, le monde et les dieux une nette distinction de plan. La puissance divine se concentre dans la personne du roi. La mise en ordre du monde et la régulation du cycle saisonnier apparaissent intégrées à l’activité royale : ce sont des aspects de la fonction de souveraineté. Nature et société sont confondues.

1. ELésiode, Théogonie, 820-871. 2. Comme le note M. E.R. Dodds, qui a revu et publié le manuscrit de Cornford, l’hyv pothèse d’une filiation entre les mythes cosmologiques de la Théogonie d’Hésiode et un ensemble mythico-rituel babylonien a été renforcée par la publication récente d’un texte hittite, l’épopée de Kumarbi, qui fait le lien entre les deux versions (Principium sapientiae* p. 249, n. 1). M. G. Thomson insiste aussi sur le rôle d’intermédiaire qu’a pu jouer une version phénicienne du mythe, dont on trouve l’écho, à date tardive, chez Philon de Byblos, о. с, p. 141 et 153. 8. A Babylone, le rite se célèbre tous les ans, durant les onze jours qui, ajoutés à la fin ďune année lunaire, permettent de la faire coïncider avec l’année solaire, et assurent ainsi, avec la connaissance exacte des saisons, la possibilité de prévoir et d’organiser l’échelonnement des travaux agricoles. Le moment choisi pour intercaler dans l’année les onze jours, t hors temps » était celui de l’équinoxe de printemps, avant le début des labours. Sur les rapports entre la fonction royale, le développement de l’agriculture, le contrôle du temps saisonnier grâce à l’invention du calendrier solaire ou luni-solaire, on trouvera des indications intéressantes dans G. Thomson, о. с, p. 105-130.

ANNALES

Par contre, dans un autre passage du poème d’Hésiode \ le récit de la création de l’ordre se présente dépouillé de toute imagerie mythique, et les noms des protagonistes sont assez transparents pour révéler le caractère « naturel » du processus qui aboutit à l’organisation du cosmos. A l’origine, se trouve Chaos, gouffre sombre, vide aérien où rien n’est distingué. Il faut que Chaos s’ouvre comme une gueule (Xaoç est associé étymologiquement à Х<хст|ла : ouverture béante, \atvw, Xáaxw, Xaa{ifiî|xai : s’ouvrir, béer, bâiller) pour que la Lumière (aithèr) et le Jour, succédant à la Nuit, y pénètrent, illuminant l’espace entre Gaia (la terre) et Ouranos (le ciel), désormais désunis. L’émergence du monde se poursuit avec l’apparition de Pontos (la mer), issu, à son tour, de Gaia. Toutes ces naissances successives se sont opérées, souligne Hésiode, sans Eros (amour) 2 : non par union, mais par ségrégation. Eros est le principe qui rapproche les opposés — comme le mâle et le femelle — et qui les lie ensemble. Tant qu’il n’intervient pas encore, la genesis se fait par séparation d’éléments auparavant unis et confondus (Gaia enfante Ouranos et Pontos).

On reconnaîtra, dans cette seconde version du mythe, la structure de pensée qui sert de modèle à toute la physique ionienne. Cornford en donne schématiquement l’analyse suivante : 1° au début, il y a un état d’indis- tinction où rien n’apparaît ; 2° de cette unité primordiale émergent, par ségrégation, des paires d’opposés, chaud et froid, sec et humide, qui vont différencier dans l’espace quatre provinces : le ciel de feu, l’air froid, la terre sèche, la mer humide ; 3° les opposés s’unissent et interagissent, chacun l’emportant tour à tour sur les autres, suivant un cycle indéfiniment renouvelé, dans les phénomènes météoriques, la succession des saisons, la naissance et la mort de tout ce qui vit, plantes, animaux et hommes 3.

Les notions fondamentales sur lesquelles s’appuie cette construction des Ioniens : ségrégation à partir de l’unité primordiale, lutte et union incessantes des opposés, changement cyclique éternel, révèlent le fond de pensée mythique où s’enracine leur cosmologie 4. Les philosophes n’ont pas eu à inventer un système d’explication du monde ; ils l’ont trouvé tout fait.

1. Théogonie, 116 sq. 2. Ibid., 132. Cf. Cornford, o. c, p. 194 sq. ; Thomson, о. с, p. 151. 3. L’année comprend quatre saisons, comme le cosmos quatre régions. L’été correspond au chaud, l’hiver au froid, le printemps au sec, l’automne à l’humide. Au cours du cycle annuel, chaque « puissance » prédomine pendant un moment, puis doit payer, suivant l’ordre du temps, le prix de son « injuste agression » (Anaximandrk, fr. I), en cédant à son tour la place au principe opposé. A travers ce mouvement alterné d’expansion et de retraite, l’année revient périodiquement à son point de départ. — Le corps de l’homme comprend, lui aussi, quatre humeurs (Hip., Nat. Нот., 7) qui dominent alternativement, suivant les saisons. Cf. Cornford, o. c, p. 168 sq. ; Thomson, o. c, p. 126. 4. La lutte des opposés, figurée chez Heraclite par Polemos, chez Empédocle par Neikos, s’exprime chez Anaximandre par l’injustice — adikia — qu’ils commettent réciproquement à l’égard les uns des autres. L’attraction et l’union des opposés, figurées chez Hésiode par Eros, chez Empédocle par Philia, se traduisent chez Anaximandre par l’interaction des quatre principes, après qu’ils se sont séparés. C’est cette interaction qui donne naissance aux premières créatures vivantes, quand l’ardeur du soleil réchauffe la vase humide de la terre. Pour G. Thomson (o. c, p. 45, 91 et 126), cette forme de pensée, qu’on pourrait appeler une logique de l’opposition et de la complémentarité, doit être mise en rapport avec la

186

DU MYTHE A LA RAISON

L’œuvre de Cornford marque un tournant dans la façon d’aborder le problème des origines de la philosophie et de la pensée rationnelle. Parce qu’il lui fallait combattre la théorie du miracle grec, qui présentait la physique ionienne comme la révélation brusque et inconditionnée de la Raison, Cornford avait pour préoccupation essentielle de rétablir, entre la réflexion philosophique et la pensée religieuse qui l’avait précédée, le fil de la continuité historique ; aussi était-il conduit à rechercher entre l’une et l’autre les aspects de permanence et à insister sur ce qu’on y peut reconnaître de commun. De sorte qu’on a parfois le sentiment, à travers sa démonstration, que les philosophes se contentent de répéter, dans un langage différent, ce que déjà disait le mythe. Aujourd’hui que la filiation, grâce à Cornford, est reconnue, le problème prend nécessairement une forme nouvelle. Il ne s’agit plus seulement de retrouver dans la philosophie l’ancien, mais d’en dégager le véritablement nouveau : ce par quoi la philosophie cesse d’être le mythe pour devenir philosophie. Il faut définir la mutation mentale dont témoigne la première philosophie grecque, préciser sa nature, son ampleur, ses limites, ses conditions historiques.

Cet aspect de la question n’a pas échappé à Cornford. On peut penser qu’il lui aurait donné une place plus large s’il avait pu conduire à son terme son dernier ouvrage. « Dans la philosophie, écrit-il, le mythe est  » rationalisé  » x ». Mais qu’est-ce que cela signifie ? D’abord, qu’il a pris la forme d’un problème explicitement formulé. Le mythe était un récit, non la solution d’un problème. Il racontait la série des actions ordonnatrices du roi ou du dieu, telle que le rite les mimait. Le problème se trouvait résolu sans avoir été posé. Mais, en Grèce, où triomphent, avec la Cité, de nouvelles formes politiques, il ne subsiste plus de l’ancien rituel royal que des vestiges dont le sens s’est perdu 2 ; le souvenir s’est effacé du roi créateur de l’ordre et faiseur du temps 3 ; le rapport n’apparaît plus entre l’exploit mythique du souverain, symbolisé par sa victoire sur le dragon, et l’organisation des phénomènes cosmiques. L’ordre naturel et les faits atmosphériques (pluies, vents, tempêtes, foudres), en devenant indépendants de la fonction royale,

structure sociale la plus archaïque : la complémentarité dans la tribu des deux clans opposés, exogames avec intermariages. La tribu, écrit G. Thomson, est l’unité des opposés. Pour la conception cyclique, Cornford en montre également la persistance chez les Milésîens. Comme l’année, le cosmos revient à son point de départ : l’unité primordiale. L’Illimité — apeiron — est non seulement origine, mais fin du monde ordonné et différencié. Il est principe — arche — source infinie, inépuisable, éternelle, dont tout provient, où tout retourne. L’Illimité est « cycle » dans l’espace et dans le temps. 1. Cornford, о. с, p. 187-188. 2. Une des parties les plus suggestives du livre de G. Thomson est celle où il rattache le cycle de Voctaétéris, qui fait coïncider, en Grèce, l’année lunaire avec l’année solaire, aux formes archaïques de la royauté. On sait que tous les neuf ans Minos fait renouveler dans l’antre de Zeus son pouvoir royal, comme tous les neuf ans, à Sparte, les éphores inspectent les étoiles pour confirmer celui de leurs rois. Les fêtes octenniales des Daphne- phories à Thèbes et du Septerion à Delphes seraient en liaison étroite à la fois avec l’établissement du calendrier à date beaucoup plus ancienne que ne le suppose Nilsson, et avec l’institution royale. 3. Le souvenir affleure encore chez Homère (Odys., XIX, 109), mais, dans l’histoire de Salmoneus, le personnage du roi-magicien et faiseur de temps ne sert plus déjà qu’à illustrer le thème de Vhybris humaine et de sa punition par les dieux.

187

ANNALES

cessent d’être intelligibles dans le langage du mythe où ils s’exprimaient jusqu’alors. Ils se présentent désormais comme des « questions » sur lesquelles la discussion est ouverte. Ce sont ces questions (genèse de l’ordre cosmique et explication des meteora) qui constituent, dans leur forme nouvelle de problème, la matière de la première réflexion philosophique. Le philosophe prend ainsi la relève du vieux roi-magicien, maître du temps : il fait la théorie de ce que le roi, autrefois, effectuait 1.

Chez Hésiode déjà, fonction royale et ordre cosmique se sont dissociés. Le combat de Zeus contre Typhon pour le titre de roi des dieux a perdu sa signification cosmogonique. Il faut toute la science d’un Cornford pour déceler dans les vents qui naissent du cadavre de Typhon ceux qui, s’en- gouffrant à l’intérieur de Tiamat, séparent le ciel de la terre. Inversement, le récit de la genèse du monde décrit un processus naturel, sans attache avec le rite. Cependant, malgré l’effort de délimitation conceptuelle qui s’y marque, la pensée d’Hésiode reste mythique. Ouranos, Gaiab Pontos sont bien des réalités physiques, dans leur aspect concret de ciel, de terre, de mer ; mais ils sont en même temps des puissances divines dont l’action est analogue à celle des hommes. La logique du mythe repose sur cette ambiguïté : jouant sur deux plans, la pensée appréhende le même phénomène, par exemple la séparation de la terre et des eaux, simultanément comme fait naturel dans le monde visible et comme enfantement divin dans le temps primordial. Chez les Milésiens, au contraire, note Cornford après W. Jaeger a, Okeanos et Gaia ont dépouillé tout aspect anthropomorphique pour devenir purement et simplement l’eau et la terre. La remarque, sous cette forme, reste un peu sommaire. Les éléments des Milésiens ne sont pas des personnages mythiques comme Gaia, mais ce ne sont pas non plus des réalités concrètes comme la terre. Ce sont des « puissances » éternellement actives, divines et naturelles tout à la fois. L’innovation mentale consiste en ce que ces puissances sont strictement délimitées et abstraitement conçues : elles se bornent à produire un effet physique déterminé, et cet effet est une qualité générale abstraite. A la place, ou sous le nom de terre et de feu, les Milésiens posent les qualités de sec et de chaud, substantif iées et objectivées par l’emploi nouveau de l’article то, le chaud 3, c’est-à-dire une réalité tout entière définie par l’action de chauffer, et qui n’a plus besoin, pour traduire son aspect de « puissance », d’une contre-partie mythique comme Hephaïstos. Les forces qui ont produit et qui animent le cosmos agissent donc sur le même plan et de la même façon que celles dont nous voyons l’œuvre, chaque jour,

1 . Et il l’effectue, lui aussi, à l’occasion : Empédocle connaît l’art d’arrêter les vents et de changer la pluie en sécheresse. Cf. L. Gernet, « Les origines de la philosophie », Bulletin de Г Enseignement public du Maroc, n° 183, Oct.-Déc. 1945, p. 9. 2. Werner Jaeger, The theology of the early greek philosophers, Oxford, 1947, p. 20-21 ; Cornford, o. c, p. 259. L’exemple de Gaia, retenu par Cornford, n’est pas d’ailleurs des plus heureux. Comme le note Aristote, — et pour les raisons qu’il en donne, — les Milésiens ne font pas jouer, en général, dans leur Physique, un rôle de premier plan à la terre (Meta.t A, 8, 989 sq.). D’autre part, Gaia, comme puissance divine, est assez peu humanisée. 3. Cf. B. Snell, The discovery of the mind, p. 227 sq.

188

DU MYTHE A LA RAISON

quand la pluie humidifie la terre ou qu’un feu sèche un vêtement mouillé. L’originel, le primordial se dépouillent de leur mystère : ils ont la banalité rassurante du quotidien. Le monde des Ioniens, ce monde « plein de dieux », est aussi pleinement naturel.

La révolution, à cet égard, est si ample, elle porte si loin la pensée que, dans ses progrès ultérieurs, la philosophie paraîtra la ramener en arrière. Chez les « Physiciens », la positivité a envahi d’un coup la totalité de l’être, y compris l’homme et les dieux. Rien de réel qui ne soit Nature *. Et cette nature, coupée de son arrière-plan mythique, devient elle-même problème, objet d’une discussion rationnelle. Nature, physis, c’est puissance de vie et de mouvement. Tant que restaient confondus les deux sens de %6ш : produire et enfanter, comme les deux sens de yavestç : origine et naissance, l’explication du devenir reposait sur l’image mythique de l’union sexuelle 2. Comprendre, c’était trouver le père et la mère, dresser l’arbre généalogique. Mais chez les Ioniens, les éléments naturels, devenus abstraits, ne peuvent plus s’unir par mariage à la façon des hommes. La cosmologie, par là, ne modifie pas seulement son langage ; elle change de contenu. Au lieu de raconter les naissances successives, elle définit les principes premiers, constitutifs de l’être. De récit historique, elle se transforme en un système qui expose la structure profonde du réel. Le problème de la genesis, du devenir, se mue en une recherche, par-delà le changeant, du stable, du permanent, de l’identique. En même temps, la notion de physis est soumise à une critique qui la dépouille progressivement de tout ce qu’elle empruntait encore au mythe. On fait appel, de plus en plus, pour rendre raison des changements dans le cosmos, aux modèles qu’offrent les ingéniosités techniques, au lieu de se référer à la vie animale ou à la croissance des plantes. L’homme comprend mieux, et autrement, ce qu’il a lui-même construit. Le mouvement d’une machine s’explique par une structure permanente de la matière, non par les changements qu’engendre le dynamisme vital 3. Le vieux principe mythique d’une « lutte » entre puissances qualitativement opposées, produisant l’émergence des choses, cède la place, chez Anaximène, à un tri mécanique d’éléments qui n’ont plus entre eux que des différences quantitatives. Le domaine

1. L’âme humaine est un morceau de la nature, taillé dans l’étoffe des éléments. Le divin est le fond de la nature, l’inépuisable tissu, la tapisserie toujours en mouvement où, sans fin, se dessinent et s’effacent les formes. 2. Cornford, o. c, p. 180-181. 3. Le recours à un modèle technique ne constitue pas nécessairement, par lui-même, une transformation mentale. Le mythe se sert d’images techniques comme le fait la pensée rationnelle. Il suffit de rappeler la place que l’imagination mythique accorde aux opérations de liage, de tissage, de filage, de modelage, à la roue, à la balance, etc. Mais, à ce niveau de pensée, le modèle technique sert à caractériser un type d’activité, ou la fonction d’un agent : les dieux filent le destin, pèsent les sorts, comme les femmes filent la laine, comme les intendantes la pèsent. Dans la pensée rationnelle, l’image technique assume une fonction nouvelle, structurelle et non plus active. Elle fait comprendre le jeu d’un mécanisme au lieu de définir l’opération d’un agent ; cf. Bruno Snell, The discovery of the mind, p. 215 sq. L’auteur souligne la différence entre la comparaison technique quand il arrive à Homère de l’utiliser, et le parti qu’en tire, par exemple, un Empédocle. Empé- docle ne cherche plus à exprimer une manifestation vitale et active, mais une propriété, une structure permanente d’un objet.

189

ANNALES

de la physis se précise et se limite. Conçu comme un mécanisme, le monde se vide peu à peu du divin qui l’animait chez les premiers physiciens. Du même coup, se pose le problème de l’origine du mouvement ; le divin se concentre en dehors de la nature, en opposition avec la nature, l’impulsant et la réglant de l’extérieur, comme le Nouç d’Anaxagore К

La physique ionienne vient ici rejoindre un courant de pensée différent et, à beaucoup d’égards, opposé 2. On pourrait dire qu’elle vient l’épauler, tant les deux formes de la philosophie naissante apparaissent, dans leur contraste, complémentaires. Sur la terre d’Italie, en Grande-Grèce, les sages mettent l’accent, non plus sur l’unité de la physis, mais sur la dualité de l’homme, saisie dans une expéiience religieuse autant que philosophique : il y a une âme humaine différente du corps, opposée au corps et qui le dirige comme la divinité fait pour la nature. L’âme possède une autre dimension que spatiale, une forme d’action et de mouvement, — la pensée, qui n’est pas déplacement matériel 3. Parente du divin, elle peut dans certaines conditions le connaître, le rejoindre, s’unir à lui, et conquérir une existence libérée du temps et du changement.

Derrière la nature, se reconstitue un arrière-plan invisible, une réalité plus vraie, secrète et cachée, dont l’âme du philosophe a la révélation et qui est le contraire de la physis. Ainsi, dès son premier pas, la pensée rationnelle paraît revenir au mythe 4. Elle paraît seulement. En reprenant à son compte une structure de pensée mythique, elle s’éloigne en fait de son point de départ. Le « dédoublement » de la physis, et la distinction qui en résulte de plusieurs niveaux du réel, accuse et précise cette séparation de la nature, des dieux, de l’homme, qui est la condition première de la pensée rationnelle. Dans le mythe, la diversité des plans recouvrait une ambiguïté qui permettait de les confondre. La philosophie multiplie les plans pour éviter la confusion. A travers elle, les notions d’humain, de naturel, de divin, mieux distinguées, se définissent et s’élaborent réciproquement.

En revanche, ce qui disqualifie la « nature », aux yeux des philosophes, et la ravale au niveau de la simple apparence, c’est que le devenir de la physis n’est pas plus intelligible que la genesis du mythe. L’être authentique

1. Cf. W. Jaeger, о. с, р. 160 et sq. 2. M. P. M. Schuhl a montré que ces deux courants correspondent aux deux tendances antagonistes de la religion et de la culture grecques, et que leur conflit sert d’élément moteur au développement de la philosophie (Essai sur la formation de la pensée grecque. Introduction historique à une étude de la philosophie platonicienne, 2e éd., 1949). 3. B. Snell a suivi, à travers la poésie lyrique grecque ancienne, la découverte de l’âme humaine, dans ce qui constitue ses dimensions proprement spirituelles : intériorité, intensité, subjectivité. Il note l’innovation que constitue l’idée d’une « profondeur » de la pensée. Homère ne connaît pas des expressions comme $аЪч1щщс, 3«9«ФР<«™ : au penser profond ; il dit rcoXv(A7)Ti

<, itoXuçpo>

v : au multiple penser. La notion que les faits intellectuels et spirituels (sentiment, réflexion, connaissance) ont une « profondeur », se dégage dans la poésie archaïque avant de s’exprimer, par exemple, chez Heraclite (о. с, p. 36-37). 4. L’antithèse, fondamentale dans la pensée religieuse, des ça /spa : les choses visibles, et des aôriXa : les choses invisibles, se retrouve transposée dans la philosophie, dans la science, et dans la distinction juridique des biens apparents et non apparents : cf. P. M. Schuhl, « Adèla », Homo. Etudes philosophiques, I, Annales publiées par la Faculté des Lettres de Toulouse, mai 1953, p. 86-94 ; L. Gernet, « Choses visibles et choses invisibles », Revue philosophique, janvier-mars 1956, p. 79-87.

190

DU MYTHE A LA RAISON

que la philosophie, par-delà la nature, veut atteindre et révéler n’est pas le surnaturel mythique ; c’est une réalité d’un tout autre ordre x : la pure abstraction, l’identité à soi, le principe même de la pensée rationnelle, objectivé sous la forme du logos. Chez les Ioniens, l’exigence nouvelle de positivité était du premier coup portée à l’absolu dans le concept de la physis ; chez un Parménide, l’exigence nouvelle d’intelligibilité est portée à l’absolu dans le concept de l’Etre, immuable et identique. Déchirée entre ces deux exigences contradictoires, qui marquent l’une et l’autre également une rupture décisive avec le mythe, la pensée rationnelle s’engage, de système en système, dans une dialectique dont le mouvement engendre l’histoire de la philosophie grecque.

La naissance de la philosophie apparaît donc solidaire de deux grandes transformations mentales : une pensée positive, excluant toute forme de surnaturel et rejetant l’assimilation implicite établie par le mythe entre phénomènes physiques et agents divins ; une pensée abstraite, dépouillant la réalité de cette puissance de changement que lui prêtait le mythe, et récusant l’antique image de l’union des opposés au profit d’une formulation catégorique du principe d’identité.

Sur les conditions qui ont permis, dans la Grèce du vie siècle, cette double révolution, Cornford ne s’explique pas. Mais, dans le demi-siècle qui s’écoule entre la publication de ses deux ouvrages, le problème a été posé par d’autres auteurs. Dans YEssai sur la formation de la pensée grecque, M. P.-M. Schuhl, en introduction à l’étude de la philosophie positive des Milésiens, soulignait l’ampleur des transformations sociales et politiques qui précèdent le vie siècle ; il notait la fonction libératrice qu’ont dû remplir, pour l’esprit, des institutions comme la monnaie, le calendrier, l’écriture alphabétique ; le rôle de la navigation et du commerce dans l’orientation nouvelle de la pensée vers la pratique 2. De son côté, M. B. Farrington rattachait le rationalisme des premiers physiciens d’Ionie au progrès technique dans les riches cités grecques d’Asie Mineure 3. En substituant une interprétation mécanicienne et instrumentaliste de l’univers aux anciens schemes anthro- pomorphiques, la philosophie des Ioniens refléterait l’importance accrue du technique dans la vie sociale de l’époque. Le problème a été repris par M. G. Thomson, qui formule contre la thèse de Farrington une objection

1. Dans la religion, le mythe exprime une vérité essentielle ; il est savoir authentique, modèle de la réalité. Dans la pensée rationnelle, le rapport s’inverse. Le mythe n’est plus que l’image du savoir authentique, et son objet, la génésis, une simple imitation du modèle, l’Etre immuable et éternel. Le mythe définit alors le domaine du vraisemblable, de la croyance, ти<тс, par opposition à la certitude de la science. Pour être conforme au scheme mythique, le dédoublement de la réalité, par la philosophie, en modèle et image n’en a pas moins le sens d’une dévaluation du mythe, ravalé au niveau de l’image. Cf. en particulier Platon, Tintée, 29 sq. 2. P.-M. Schuhl, о. с, p. 151-175. 8. B. Farrington, Greek science, t. I, Londres, 1944, p. 36 sq.

191

ANNALES

décisive. Il est impossible d’établir un lien direct entre pensée rationnelle et développement technique. Sur le plan de la technique, la Grèce n’a rien inventé, rien innové. Tributaire de l’Orient en ce domaine, elle ne l’a jamais réellement dépassé. Et l’Orient, en dépit de son intelligence technique, n’a pas su se dégager du mythe et construire une philosophie rationnelle *. Il faut donc faire intervenir d’autres facteurs, — et M. G. Thomson insiste, à juste titre, sur deux grands groupes de faits : l’absence, en Grèce, d’une monarchie de type oriental, très tôt remplacée par d’autres formes politiques ; les débuts, avec la monnaie, d’une économie mercantile, l’apparition d’une classe de marchands pour lesquels les objets se dépouillent de leur diversité qualitative (valeur d’usage) et n’ont plus que la signification abstraite d’une marchandise semblable à toutes les autres (valeur d’échange). Cependant, si l’on veut serrer de plus près les conditions concrètes dans lesquelles a pu s’opérer la mutation de la pensée religieuse à la pensée rationnelle, il est nécessaire de faire un nouveau détour. La physique ionienne nous a éclairés sur le contenu de la première philosophie ; elle nous y a montré une transposition des mythes cosmogoniques, la « théorie » des phénomènes dont le roi possédait, aux temps anciens, la maîtrise et la pratique. L’autre courant de la pensée rationnelle, la philosophie de Grande-Grèce, va nous permettre de préciser les origines du philosophe lui-même, ses antécédents comme type de personnage humain.

II

A l’aube de l’histoire intellectuelle de la Grèce, on entrevoit toute une lignée de personnalités étranges sur lesquelles Rohde a attiré l’attention 2. Ces figures à demi légendaires, qui appartiennent à la classe des voyants extatiques et des mages purificateurs, incarnent le modèle le plus ancien du « Sage ». Certains sont étroitement associés à la légende de Pythagore, fondateur de la première secte philosophique. Leur genre de vie, leur recherche, leur supériorité spirituelle les placent en marge de l’humanité ordinaire. Au sens strict, ce sont des « hommes divins » ; eux-mêmes, parfois, se proclament des dieux.

Halliday déjà avait noté l’existence, dans une forme archaïque de man- tique enthousiaste, d’une catégorie de devins publics, de demiourgoi, qui présentent à la fois les traits du prophète inspiré, du poète, du musicien, chanteur et danseur, du médecin, purificateur et guérisseur 3. Ce type de devins, très différent du prêtre et opposé, souvent, au roi, jette une première lueur sur la lignée des Aristeas, Abaris, Hermotime, Epimé-

1. G. Thomson, о. c, p. 171-172. 2. E. Rohde, Psyché, Fribourg, 1894 ; éd. française par A. Reymond, Paris, 1952, p. 336 sq. 3. W. R. Halliday, Greek divination. A study of its methods and principles, Londres, 1918.

192

DU MYTHE A LA RAISON

nide et Phérécyde. Tous ces personnages cumulent en effet, eux aussi, les fonctions de devin, de poète et de sage, fonctions associées, qui reposent sur un même pouvoir mantique *. Devin, poète et sage ont en commun une faculté exceptionnelle de voyance au delà des apparences sensibles ; ils possèdent une sorte d’extra-sens qui leur ouvre l’accès à un monde normalement interdit aux mortels.

Le devin est un homme qui voit l’invisible. Il connaît par contact direct les choses et les événements dont il est séparé dans l’espace et dans le temps. Une formule le définit, de façon quasi-rituelle : un homme qui sait toutes choses passées, présentes et à venir 2. Formule qui s’applique aussi bien au poète inspiré, à cette nuance près que le poète tend à se spécialiser plutôt dans l’exploration des choses du passé 3. Dans le cas d’une poésie sérieuse, visant à l’instruction plus qu’au divertissement, les choses du passé que l’inspiration divine fait voir au chanteur, ne consistent pas, comme chez Homère, en un catalogue exact de personnages et d’événements humains, mais, comme chez Hésiode, dans le récit véridique des « origines » : généalogies divines, genèse du cosmos, naissance de l’humanité 4. En divulguant ce qui se cache dans les profondeurs du temps, le poète apporte, dans la forme même de l’hymne, de l’incantation et de l’oracle, la révélation d’une vérité essentielle qui a le double caractère d’un mystère religieux et d’une doctrine de sagesse. Cette ambiguïté, comment ne se retrouverait-elle pas dans le message du premier philosophe ? Il porte, lui aussi, sur une réalité dissimulée derrière les apparences et qui échappe à la connaissance vulgaire. La forme de poème dans laquelle s’exprime encore une doctrine aussi abstraite que celle de Parménide traduit cette valeur de révélation religieuse que garde la philosophie naissante 6. Au même titre que le devin et le poète, encore mêlé à eux, le Sage se définit à l’origine comme l’être exceptionnel qui a la puissance de voir et de faire voir l’invisible. Quand le philosophe cherche à préciser sa propre démarche, la nature de son activité spirituelle, l’objet de sa recherche, il utilise le vocabulaire religieux des sectes et des confréries : il se présente lui-même comme un élu, un бетос àvr[p, qui bénéficie d’une grâce divine ; il effectue dans l’au-delà un voyage mystique, par un chemin de recherche qui évoque la Voie des mystères et au terme duquel il obtient, par une sorte ďépoptie, cette Vision qui consacre le dernier degré de l’initiation e. Abandonnant la foule des « insensés », il entre dans le petit cercle

1. Cornford, o. c, p. 89 sq. 2. Iliade, I, 70 ; cf. Cornford, p. 73 sq. 3. C’est la même formule qu’HÉsiODE emploie dans Théogonie, 32 : les Muses l’ont inspiré pour chanter les choses qui furent et qui seront, . — et Ibid., 38 : elles disent les choses qui sont, qui seront, qui ont été. D’autre part, la divination ne concerne pas moins, dans le principe, le passé que le futur. Un prophète purificateur, comme Epiménide, pourra même restreindre sa compétence divinatoire exclusivement à la découverte des faits passés, demeurés inconnus (Aristote, Rhét. III ; 17 ; 10). 4. Hésiode, Théogonie, 43 sq. Cf. Cornford, o. c, p. 77. 5. Cf. L. Gernet, Les origines de la philosophie, l. c, p. 2. 6. Sur le rapport entre le vocabulaire, les images, les thèmes de pensée, chez un Parménide et dans une tradition de sectes mystiques, cf. L. Gernet, /. c, p. 2-6 ; G. Thomson, o. c, p. 289 sq.

193

Annales (12« année, avril-juin 1957, n« 2) 2

ANNALES

des initiés : ceux qui ont vu, oî «’go-kç, qui savent, ao?oi. Aux divers degrés d’initiation des mystères correspond, dans la confrérie pythagoricienne, la hiérarchie des membres suivant leur degré d’avancement 1 ; comme, chez Heraclite, la hiérarchie des trois types différents d’humanité : ceux qui entendent le logos (qui ont eu Yépopteia), ceux qui l’entendent pour la première fois, sans le comprendre encore (la myesis des nouveaux initiés), ceux qui ne l’ont pas entendu (les amyteoi) 2.

La vision divinatoire du poète inspiré se place sous le signe de la déesse Mnémosyne, Mémoire, mère des Muses. Mémoire ne confère pas la puissance d’évoquer des souvenirs individuels, de se représenter l’ordre des événements évanouis dans le passé. Elle apporte au poète — comme au devin — le privilège de voir la réalité immuable et permanente ; elle le met en contact avec l’être originel, dont le temps, dans sa marche, ne découvre aux humains qu’une infime partie, et pour la masquer aussitôt. Cette fonction révélatrice du réel, attribuée à une mémoire qui n’est pas, comme la nôtre, survol du temps, mais évasion hors du temps, nous la retrouvons transposée dans V anamnesis philosophique 3 : la réminiscence platonicienne permet de ге-connaître les vérités éternelles que l’âme a pu contempler dans un voyage où elle était libérée du corps. Chez Platon, apparaît en pleine lumière le lien entre une certaine notion de la Mémoire et une doctrine nouvelle de l’immortalité qui tranche fortement avec les conceptions helléniques de l’âme, depuis Homère jusqu’aux penseurs ioniens.

Suffit-il, pour comprendre cette innovation, qui donne à tout le courant mystique de la philosophie grecque son originalité, de faire intervenir, avec Rohde, l’influence du mouvement dionysiaque et de l’expérience qu’il est censé procurer, par ses pratiques extatiques, d’une séparation de l’âme d’avec le corps et de son union avec le divin 4 ? L’extase dionysiaque, délire collectif, brusque possession par un dieu qui s’empare de l’homme, est un état impersonnel passivement subi. Tout autre se présente la notion d’une âme individuelle, qui possède en elle-même et par elle-même le pouvoir inné de se libérer du corps et de voyager dans l’au-delà 5. Ce n’est pas dans le culte de Dionysos que cette croyance a pu s’enraciner ; elle trouve son origine dans les pratiques de ces íazpopávzuc qui préfigurent le philosophe, et dont la légende impose le rapprochement avec le personnage et le com-

1. L. Gernet, /. c, p. 4. M. Gernet souligne la valeur religieuse du terme beatus (eudaimôn) qui désigne le plus haut degré de la hiérarchie et qui se décompose en doctus, perfectus, et sapiens ; cf. aussi Cornford, o. c, p. 110. 2. Heraclite, fr. I; cf. Cornford, o. c, p. 113 ; G. Thomson, o. c, p. 274. 3. L. Gernet, l. c, p. 7 ; Cornford, o. c, p. 45-61 et 76 sq. 4. E. Rohde, o. c, p. 278-279. 5. La différence est très fortement soulignée par E. R. Dodds, The Greeks and the irrational, University of California Press, 1951, p. 140 sq.

194

DU MYTHE A LA RAISON

portement du shamane des civilisations d’Asie du Nord 1. Les Sages sont, dans le groupe social, des individualités en marge que singularise une discipline de vie ascétique : retraites au désert ou dans des cavernes ; végétarisme ; diète plus ou moins totale ; abstinence sexuelle ; règle de silence, etc. Leur âme possède l’extraordinaire pouvoir de quitter leur corps et de le réintégrer à volonté, après une descente au monde infernal, une pérégrination dans l’éther, ou un voyage à travers l’espace qui les fait apparaître à mille lieux de l’endroit où ils gisent, endormis dans une sorte de sommeil cataleptique. Certains détails accusent ces aspects de shamanisme : la flèche d’or, qu’Abaris porte partout avec lui, le thème du vol dans les airs, l’absence de nourriture. C’est dans ce climat religieux très spécial que prend corps une théorie de la métempsycose explicitement rattachée à l’enseignement des premiers sages. Cette doctrine prolonge la conception archaïque suivant laquelle la vie se renouvelle cycliquement dans la mort. Mais, dans ce milieu de mages, la vieille idée d’une circulation entre les morts et les vivants prend un sens autrement précis. La maîtrise de l’âme qui permet au sage, au terme d’une dure ascèse, de voyager dans l’autre monde, lui confère un nouveau type d’immortalité personnelle. Ce qui fait de lui un dieu parmi les hommes, c’est qu’il sait, grâce à une discipline de tension et de concentration spirituelles, dont M. Gernet a marqué le lien avec une technique de contrôle du souffle respiratoire, ramasser sur elle-même l’âme ordinairement dispersée en tous les points du corps 2. Ainsi rassemblée, l’âme peut se détacher du corps, s’évader des limites d’une vie où elle est momentanément enclose et retrouver le souvenir de tout le cycle de ses incarnations passées. Le rôle se comprend mieux des « exercices de mémoire » dont Pythagore avait institué la règle dans sa confrérie, quand on évoque le mot d’Empédocle à son sujet : « Cet homme qui, par la tension des forces de son esprit, voyait facilement chacune des choses qui sont en dix, en vingt vies humaines 3. » Entre la maîtrise de l’âme, son évasion hors du corps et la rupture du flux temporel par la remémoration des vies antérieures, il y a une solidarité qui définit ce qu’on a pu appeler le shamanisme grec et qui apparaît encore pleinement dans le pythagorisme ancien.

1. Le rapprochement est indiqué en passant par E. Rohde, о. c, p. 283. La thèse du shamanisme grec aété développée par Meuli, «Scythica»,//erm<?s, 1935, p. 121-177; cf.aussi, L. Gernet, /. c, p. 8 ; E. R. Dodds, o. c, dans le chapitre intitulé : « Le shamanisme grec et le puritanisme », Cornford, o. c, dans le chapitre « Shamanisme ». — Cornford suppose, avec N. Kershaw Chadwick (Poetry and prophecy, Cambridge, 1942, p. 12), que la Thrace a pu être pour la Grèce le maillon qui Га reliée, par ses contacts avec les Germains au Nord, les Celtes à l’Ouest, au système mantique apparenté au shamanisme d’Asie du Nord. Meuli et Dodds font une place, en dehors de la Thrace, à la Scythie avec laquelle la colonisation du littoral de la mer Noire a mis les Grecs en contact. On notera l’origine nordique des Mages, Aristeas, Abaris, Hermotime, et leur aceointance avec le monde hyperboréen. Il est vrai qu’Epiménide, lui, est Cretois. Mais, après sa mort, on constate que son cadavre est tatoué ; le tatouage était une pratique, nous dit Hérodote, en usage dans la noblesse thrace (V, 6, 3). On sait, d’autre part, la place de la Crète dans les légendes hyperboréennes. 2. Cf. L. Gernet, o. c, p. 8. Ernst Bickel a souligné le rapport entre une notion archaïque de l’âme et le souffle respiratoire (Homerischer Seelenglaube, Berlin, 1925). Cf. aussi, sur ce point, Onians, The origins o/ european thought about the body, the mind, the soul, the world, time and fate, Cambridge, 1951. 3. Cf. L. Gernet, /. c, p. 8.

195

ANNALES

Pourtant, le premier philosophe n’est plus un shamane. Son rôle est d’enseigner, de faire Ecole. Le secret du shamane, le philosophe se propose de le divulguer à un corps de disciples ; ce qui était le privilège d’une personnalité exceptionnelle, il l’étend à tous ceux qui demandent à entrer dans sa confrérie. A peine est-il besoin d’indiquer les conséquences de cette innovation. Divul*» guée, élargie, la pratique secrète devient objet d’enseignement et de discussion : elle s’organise en doctrine. L’expérience individuelle du shamane, qui croit réincarner un homme de Dieu, se généralise à l’espèce humaine sous la forme d’une théorie de la réincarnation.

Divulgation d’un secret religieux, extension à un groupe ouvert d’un privilège réservé, publicité d’un savoir auparavant interdit, telles sont donc les caractéristiques du tournant qui permet à la figure du philosophe de se dégager de la personne du mage. Ce tournant d’histoire, c’est celui que nous constatons sur toute une série de plans dans la période d’ébranlement social et d’effervescence religieuse qui prépare, vers le vne siècle, l’avènement de la Cité. On voit alors s’élargir, se populariser, et parfois s’intégrer entièrement à l’Etat, des prérogatives religieuses sur lesquelles des genè royaux et nobiliaires assuraient leur domination. Les anciens clans sacerdotaux mettent leur savoir sacré, leur maîtrise des choses divines au service de la Cité entière. Les idoles saintes, les vieux œoana, talismans gardés secrets dans le palais royal ou la maison du prêtre, émigrent vers le temple, demeure publique, et se transforment, sous le regard de la Cité, en images faites pour être vues. Les décisions de justice, les Ôé(j.i<mç, privilège des Eupatrides, sont rédigées et publiées. En même temps que s’opère cette confiscation des cultes privés au bénéfice d’une religion publique, se fondent, en marge du culte officiel de la Cité, autour d’individualités puissantes, des formes nouvelles de groupements religieux. Thiases, confréries et mystères ouvrent, sans restriction de rang ni d’origine, l’accès à des vérités saintes qui étaient autrefois l’apanage de lignées héréditaires. La création d’une secte religieuse comme celles appelées orphiques, la fondation d’un mystère, et l’institution d’une confrérie de « sages », comme celle de Pythagore, manifestent, dans des conditions et des milieux différents, le même grand mouvement social d’élargissement et de divulgation d’une tradition sacrée aristocratique.

La philosophie se constitue dans ce mouvement, au terme de ce mouvement, que, seule, elle pousse jusqu’au bout. Sectes et mystères restent, en dépit de leur élargissement, des groupes fermés et secrets. C’est cela même qui les définit. Aussi, malgré certains éléments de doctrine qui recoupent les thèmes de la philosophie naissante, la révélation mystérieuse garde-t-elle nécessairement le caractère d’un privilège qui échappe à la discussion. Au contraire, la philosophie, dans son progrès, brise le cadre de la confrérie dans

196

DU MYTHE A LA RAISON

lequel elle a pris naissance. Son message ne se limite plus à un groupe, à une secte. Par l’intermédiaire de la parole et de l’écrit, le philosophe s’adresse à toute la cité, à toutes les cités. Il livre ses révélations à une publicité pleine et entière. En portant le « mystère » sur la place, en plein agora, il en fait l’objet d’un débat public et contradictoire, où l’argumentation dialectique finira par prendre le pas sur l’illumination surnaturelle 1.

Ces remarques générales trouvent leur confirmation dans des constatations plus précises. M. G. Thomson 2 a fait observer que les fondateurs de la physique milésienne, Thaïes et Anaximandre, sont apparentés à un clan de haute noblesse sacerdotale, les Thelidai, qui descendent d’une famille thébaine de prêtres-rois, les Kadmeioi, venus de Phénicie. Les recherches des premiers philosophes en astronomie et en cosmologie ont ainsi pu transposer, en les divulguant dans la Cité, une ancienne tradition sacrée, d’origine orientale.

L’exemple d’Heraclite est plus suggestif encore. L’aspect heurté et antithétique d’un style où s’entrechoquent des expressions opposées, l’usage de calembours, une forme volontairement énigmatique, tout rappelle dans la langue d’Hér-aclite les formules liturgiques utilisées dans les mystères, en particulier à Eleusis. Or, Heraclite descend du fondateur d’Ephèse, Andro- klos, qui dirigea l’émigration ionienne et dont le père était Kodros, roi d’Athènes. Heraclite lui-même eût été roi, s’il n’avait renoncé en faveur de son frère. Il appartient à cette famille royale d’Ephèse qui avait gardé, avec le droit à la robe pourpre et au sceptre, le privilège du sacerdoce de Demeter Eleusinia. Mais le logos dont Heraclite apporte dans ses écrits l’obscure révélation, s’il prolonge les legomena d’Eleusis et les hieroi logoi orphiques, ne comporte plus d’exclusive à l’égard de personne ; il est au contraire ce qu’il y a de commun chez les hommes, cet « universel » sur quoi ils doivent tous également s’appuyer « comme la Cité fait sur la loi » 3.

ni ;

La solidarité que noua constatons entre la naissance du philosophe et l’avènement du citoyen n’est pas pour nous surprendre. La cité réalise, en effet, sur le plan des formes sociales, cette séparation de la nature et de la société

1. L. Gernet écrit : « Les Pythagoriciens n’ont pas de « mystères », il est vrai, mais c’est que la  » philosophie  » pour eux en est justement un » (l. c, p. 4). C’est à travers la discussion et la controverse, par la nécessité de répondre aux arguments de l’adversaire, que la philosophie se constitue comme une discipline intellectuelle spécifique. Même lorsqu’il ne polémique pas, le philosophe réfléchit en fonction des problèmes posés par ses devanciers et ses contemporains ; il pense par rapport à eux. La pensée morale prend la forme rationnelle du jour où Socrate discute publiquement sur l’agora avec tous les Athéniens de ce que sont le courage, la justice, la piété, etc. 2. G. Thomson, « From religion to philosophy », Journal of hellenic Studies, 1953, LXXIII, p. 77-84. L’auteur a repris son étude dans The first philosophers, p. 131-137, 3. « Pour parler avec intelligence, il faut se prévaloir de ce qui est universel, comme la Cité s’appuie sur la loi » (Heraclite, fr. 128, trad. Battistini).

197

ANNALES

que suppose, sur le plan des formes mentales, l’exercice d’une pensée rationnelle. Avec la Cité, l’ordre politique s’est détaché de l’organisation cosmique ; il apparaît comme une institution humaine qui fait l’objet d’une recherche inquiète, d’une discussion passionnée. Dans ce débat, qui n’est pas seulement théorique, mais où s’affronte la violence de groupes ennemis, la philosophie naissante intervient es qualité. La « sagesse » du philosophe le désigne pour proposer les remèdes à la subversion qu’ont provoqué les débuts d’une économie mercantile. Il lui est demandé de définir le nouvel équilibre politique propre à retrouver l’harmonie perdue, à rétablir l’unité et la stabilité sociales par Г « accord » entre des éléments dont l’opposition déchire la Cité. Aux premières formes de législation, aux premiers essais de constitution politique, la Grèce associe le nom de ses Sages. Là encore, on voit le philosophe prendre en charge les fonctions qui appartenaient au roi-prêtre au temps où, nature et société étant confondues, il ordonnait à la fois l’une et l’autre. Mais, dans la pensée politique du philosophe, la transformation mentale ne se marque pas moins que dans sa pensée cosmologique. Séparées, nature et société font également l’objet d’une réflexion plus positive et plus abstraite. L’ordre social, devenu humain, se prête à une élaboration rationnelle au même titre que l’ordre naturel, devenu physis. Il s’exprime, chez un Solon, dans le concept du Metron, de la juste mesure, que la décision du nomothète doit imposer aux factions rivales en fixant une « borne » à leur ambition excessive ; chez les pythagoriciens, dans celui de YHomonoia, accord numérique qui doit réaliser l’harmonie des contraires, leur fusion en une nouvelle unité г. La vieille idée d’un ordre social fondé sur une distribution, une répartition (nomos) des honneurs et des privilèges entre groupes étrangers qui s’opposent dans la communauté politique, comme les « puissances » élémentaires dans le cosmos, cette idée deviendra, après le vie siècle, la notion abstraite de Visonomia, égalité devant la loi entre des individus qui se définissent tous de façon semblable en tant que citoyens d’une même Cité 2.

Comme la philosophie se dégage du mythe, comme le philosophe sort du Mage, la cité se constitue à partir de l’ancienne organisation sociale : elle la détruit, mais elle en conserve en même temps le cadre ; elle transpose l’orga-

1. Cf. G. Thomson, o. c, p. 228 sq. 2. Cf. L. Gernet, Recherches sur le développement de la pensée juridique et morale en Grèce, p. 6 et 26, avec référence à Hirzel, Themis, Dike, und Verwandtes. E. Laroche a montré {Histoire de la racine nem en grec ancien, 1949) que nomos a d’abord un sens religieux et moral assez voisin de cosmos : ordre, arrangement, juste répartition. Il prendra, après les Pisistratides, à Athènes, celui de loi politique, en remplacement de thesmos, grâce à son association à l’idéal démocratique de l’isonomia. La loi (nomos), qu’elle s’appuie sur une égalité absolue ou proportionnelle, garde un caractère distributif. Un autre sens de nomos, affaibli par rapport au sens premier de règle, est celui qu’on rencontre, par exemple, chez Hérodote, de coutume, usage, sans valeur normative. Entre le sens de loi politique et de coutume, un glissement peut se produire dont la pensée philosophique, spécialement avec les Sophistes, tirera parti.

198

DU MYTHE A LA RAISON

nisation tribale dans une forme qui implique une pensée plus positive et plus abstraite. Pensons par exemple, à la réforme de Clisthène x : à la place des quatre tribus ioniennes d’Attique, dont nous savons par Aristote qu’elles correspondent aux quatre saisons de l’année, elle crée une structure artificielle permettant de résoudre des problèmes proprement politiques. Dix tribus, chacune groupant trois trittyes, lesquelles rassemblent plusieurs dèmes. Trittyes et dénies sont établis sur une base purement géographique; ils réunissent les habitants d’un même territoire, non des parents de même sang comme, en principe, les gène et les ‘phratries, qui subsistent intactes, mais en marge du cadre tribal, sur un autre plan désormais que la Cité. Les trois trittyes qui forment chaque tribu se recrutent, la première dans la région côtière, la seconde à l’intérieur des terres, la troisième dans la zone urbaine. Par cet amalgame délibéré, la tribu réalise V unification politique, le mélange, comme dit Aristote 2, des populations et des activités diverses qui composent la Cité. A cet artifice dans l’organisation administrative répond une division artificielle du temps civil. Le calendrier lunaire continue à régler la vie religieuse. Mais l’année administrative est divisée en dix périodes de trente-six ou trente-sept jours, correspondant aux dix tribus. Le conseil des Quatre Cents est élevé à cinq cents membres, cinquante par tribu, de façon qu’à tour de rôle, au cours des périodes de l’année, chaque tribu forme la commission permanente du conseil.

Par leur cohérence et la netteté de leur dessin, les réformes de Clisthène accusent les traits caractéristiques du nouveau type de pensée qui s’exprime dans la structure politique de la Cité. Ils sont, sur un autre plan, comparables à ceux qui nous ont paru définir, avec l’avènement de la philosophie, la transformation du mythe en raison. La promulgation d’un calendrier civil répondant aux exigences de l’administration humaine et entièrement distinct du temps lunaire, l’abandon de la correspondance entre le nombre des tribus dans le groupe social et celui des saisons dans le cosmos-, autant de faits qui supposent et qui renforcent à la fois la séparation de la société et de la nature. Un nouvel esprit positif inspire des réformes qui cherchent moins à mettre la Cité en harmonie avec l’ordre sacré de l’univers qu’à atteindre des objectifs politiques précis. L’effort d’abstraction se marque sur tous les plans : dans la division administrative fondée sur des secteurs territoriaux délimités et définis, non plus sur des liens de consanguinité ; dans le système des nombres arbitrairement choisis pour répartir de façon équitable, grâce à une correspondance mathématique, les responsabilités sociales, les groupes d’hommes, les périodes de temps ; dans la définition même de la Cité et du citoyen : la Cité ne s’identifie plus avec un personnage privilégié ; elle n’est solidaire d’aucune activité, d’aucune famille particulières ; elle est la forme que prend le groupe uni de tous les citoyens envi-

1. Cf. G. Thomson, в. с, p. 224 sq. 2. Constitution d’Athènes, 21, 3.

199

ANNALES

sages indépendamment de leur personne, de leur ascendance, de leur profession. L’ordre de la Cité, c’est celui dans lequel le rapport social, pensé abstraitement et dégagé des liens personnels ou familiaux, se définit en termes d’égalité, d’identité.

Mais ce n’est pas seulement dans les structures politiques que s’inscrivent des changements mentaux analogues à ceux qui paraissent constituer, dès lors qu’on les limite au seul domaine de la philosophie, l’incompréhensible avènement d’une raison étrangère à l’histoire. Sans parler du droit et de l’art, une institution économique comme la monnaie témoigne, dans son développement, de transformations qui ne sont pas sans rapport avec la naissance de la pensée rationnelle. Il suffira de rappeler l’étude de M. L. Gernet sur les implications mythiques de la valeur dans les anciens symboles prémonétaires en Grèce *. Uagalma, — vase, bijoux, trépieds, vêtements, — produit d’une industrie de luxe, remplit un rôle d’échange dans une forme de commerce noble : par son intermédiaire s’opère une circulation de richesses meubles. Mais, dans ce système prémonétaire, la fonction d’échange ne s’est pas encore dessinée comme catégorie indépendante, susceptible de faire l’objet d’une connaissance positive, dans une pensée proprement économique. La valeur de l’objet précieux reste intégrée aux vertus surnaturelles dont on l’imagine chargé. Uagalma véhicule, fondus dans un même symbolisme de richesse, des pouvoirs sacrés, des prestiges sociaux, des liens de dépendance entre les hommes ; sa circulation, à travers dons et échanges, engage les personnes et mobilise des forces religieuses, en même temps qu’elle transmet la possession de biens.

La monnaie au sens propre, monnaie titrée, estampillée, garantie par l’Etat, est une invention grecque du vne siècle 2. Elle a joué, sur toute une série de plans, un rôle révolutionnaire. Elle a accéléré le processus dont elle était elle-même l’effet : le développement, dans l’économie grecque, d’un secteur marchand s’étendant à une partie des produits de consommation courante. Elle a permis la création d’un nouveau type de richesse, radicalement différent de la richesse en terres et en troupeaux, et d’une nouvelle classe de riches dont l’action a été décisive dans la réorganisation politique de la Cité. Elle a produit, sur le plan psychologique et moral, un véritable effet de choc dont on perçoit l’écho dramatique dans la poésie d’un Théognis et d’un Solon 3. Si l’argent fait l’homme, si l’homme est désir insatiable de richesse, c’est toute l’image traditionnelle de Yaretè, de l’excellence humaine,

1. « La notion mythique de la valeur en Grèce », Journal de Psychologie, 1948, p. 415- 462. 2. D’après Hérodote, I, 94, la première monnaie frappée l’aurait été par les rois de Lydie. Cf. P.-M. Schuhx, о. с, p. 157-158, et G. Thomson, о. с, p. 194. 8. L. Gernet, Recherches, p. 21 sq. ; G. Thomson, о. с, p. 195.

200

DU MYTHE A LA RAISON

qui se trouve mise en question. Et la monnaie stricto sensu n’est plus comme en Orient, un lingot de métal précieux qu’on troque contre toute espèce de marchandise parce qu’il offre l’avantage de se conserver intact et de circuler aisément ; elle est devenue un signe social, l’équivalent et la mesure universelle de la valeur. L’usage général de la monnaie titrée conduit à dégager une notion nouvelle, positive, quantifiée et abstraite de la valeur.

Pour apprécier l’ampleur de cette novation mentale, il suffira de comparer deux attitudes extrêmes. Au départ, ce qu’évoque un terme comme to’xoç qui désigne l’intérêt de l’argent. Rattaché à la racine тех, « enfanter, engendrer », il assimile le produit du capital au croît du bétail qui se multiplie, à intervalle saisonnier, par une reproduction naturelle, de l’ordre de la physis 1. Mais, dans la théorie qu’en fait Aristote, la reproduction de l’argent par intérêt et usure devient le type même du phénomène contraire à la nature ; la monnaie est un artifice humain qui, pour la commodité des échanges, établit entre des valeurs en elles-mêmes toutes différentes l’apparence d’une commune mesure. Il y a, dans la forme de la monnaie plus encore que dans celle de la Cité, une rationalité qui, jouant sur le plan du pur artifice humain, permet de définir le domaine du nomos.

A-t-on le droit d’aller plus loin et de supposer, avec M. G. Thomson, un lien direct entre les plus importants concepts de la philosophie, l’Etre, l’Essence, la Substance, et, sinon la monnaie même, du moins la forme abstraite de marchandise qu’elle prête, à travers la vente et l’achat, à toute la diversité des choses concrètes échangées sur le marché 2 ? Une position théorique comme celle d’Aristote nous paraît devoir déjà mettre en garde contre la tentation de transposer trop mécaniquement les notions d’un plan de pensée à un autre 3.

Ce qui définit, pour Aristote, l’essence d’une chose, naturelle ou artificielle, c’est sa valeur d’usage, la fin pour laquelle elle a été produite. Sa valeur marchande ne relève pas de la réalité, de Vousia, mais d’une simple illusion sociale 4. Seul un sophiste comme Protagoras pourra accepter d’assi-

1. Cf. L. Gernet, « Le temps dans les formes archaïques du droit », Journal de Psychologie, 1956, p. 401. L. Gernet note que le paiement de l’intérêt devait se régler à chaque lunaison (cf. Aristophane, Nuées, 1659). 2. G. Thomson, o. c, p. 297, 300 et 315. L’auteur écrit, au sujet de Parménide : « Just as his universe of pure being, stripped of everything qualitative, is a mental reflex of the abstract labour embodied in commod’ties, so his pure reason, which rejects everything qualitative, is a fetish concept reflecting the money form of value. » 3. Sur le caractère spécifique des divers types ď œuvres et d’activités mentales, cf. I. Meyerson, « Discontinuités et cheminements autonomes dans l’histoire de l ‘esprit », Journal de Psychologie, 1948, p. 28 sq. ; « Problèmes d’histoire psychologique des œuvres », Hommage à Lucien Febvre, Paris, A. Colîn, 1954, I, p. 207 sq. 4. Marx a souligné que le point de vue de la valeur d’usage reste dominant dans toute l’Antiquité classique. Dans la perspective marxiste qui est la sienne, Thomson nous paraît commettre un anachronisme : c’est seulement quand le travail libre et salarié devient

201

ANNALES

miler la chose, dans sa réalité, avec la valeur conventionnelle que lui prête, à travers la forme de la monnaie, le jugement des hommes. Le relativisme de Protagoras, qui s’exprime dans une formule du type : « L’homme est la mesure de toutes choses », traduit cette constatation que l’argent, pur nomos, convention humaine, est la mesure de toutes les valeurs. Mais il est bien significatif que, chez Platon, dont la philosophie prolonge la pensée de Pythagore et de Parménide, le personnage du sophiste symbolise précisément l’homme qui reste au niveau du non-être, en même temps qu’il se définit comme un trafiquant livré à des occupations mercantiles x.

Il est vrai que le terme ousia, qui désigne, dans le vocabulaire philosophique, l’Etœ, la Substance, signifie également le patrimoine, la richesse. Mais, comme Га montré M. L. Gernet, l’analogie ne fait que souligner davantage les directions opposées dans lesquelles la pensée a travaillé dans la perspective des problèmes philosophiques et au niveau du droit et des réalités économiques 2. Au sens économique, Vousia est d’abord et avant tout le xXîjpoi, la terre, patrimoine longtemps inaliénable, qui constitue comme la substance visible d’une famille. A ce type de bien apparent, oû<na «pavepá, s’oppose, suivant une distinction usuelle, encore qu’un peu flottante, la catégorie de l’ouata àcpavrfç, du bien inapparent, qui comprend parfois, à côté des créances et des hypothèques, l’argent liquide, la monnaie. Dans cette dichotomie, il y a entre les deux termes différence de plan : l’argent est dévalorisé par rapport à la terre, bien visible, stable, permanent, substantiel, qui possède seul un statut de pleine réalité et dont le « prix » se nuance d’une valeur affective et religieuse. A ce niveau de la pensée sociale, l’Etre et la Valeur sont du côté du visible, alors que le non-apparent, l’abstrait, paraissent impliquer un élément purement humain d’illusion, sinon de désordre. Au contraire, dans la pensée philosophique la notion même ďousia s’élabore en contraste avec le monde visible. La réalité, la permanence, la substantialité passent du côté de ce qu’on ne voit pas ; le visible devient apparence, par opposition au réel véritable, à Vousia.

C’est en un autre terme que se reflète l’effort d’abstraction qui se poursuit à travers l’expérience commerciale et la pratique monétaire. Ta ipi\pxxa désigne à la fois les choses, la réalité en général et les biens, spécialement sous leur forme d’argent liquide. Aristote écrit : « Nous appelons biens (хрт{(хат:а) toutes choses dont la valeur est mesurée par la monnaie 3 ». On aperçoit ici la façon dont l’usage de la monnaie a pu substituer une notion abstraite, quantitative et économique, de la chose comme marchandise, au

lui-même marchandise que « la forme marchandise des produits devient la forme sociale dominante » (Capital, éd. Molitor, I, p. 231-232), et que le travail devient travail abstrait (Critique de V économie politique, p. 70). Cf. J. P. Vernant, « Travail et nature dans la Grèce ancienne », Journal de Psychologie, 1955, p. 11-38 ; « Les aspects psychologiques du travail dans la Grèce ancienne », La Pensée, 1956, n° 66, p. 80-86. 1. Cf. L. Gernet, « Choses visibles et choses invisibles », Revue philosophique, Janvier- Mars 1956, p. 85. 2. Ibid., p. 79-87. 3. Ethique à Nicomaque, IV, 9 b 26. Cité par L. Gernet, l. c, p. 82.

202

DU MYTHE A LA RAISON

concept ancien, qualitatif et dynamique, de la chose comme physis. Mais une double réserve s’impose. D’abord, une question de chronologie : ce témoignage de rationalisme mercantile date du ive siècle, non des débuts de la pensée philosophique. Il éclaire la réflexion de certains sophistes, plus que celle de Pythagore, d’Heraclite et de Parménide *. D’autre part, les хрг^ата appartiennent, pour utiliser une formule religieuse qui n’est pas déplacée dans la perspective philosophique, au monde d’ici-bas, au monde terrestre ; Yousia, qui constitue pour le philosophe la réalité, est d’un autre ordre. Elle ne se situe pas au niveau de la nature, ni non plus de l’abstraction monétaire. Elle prolonge, nous l’avons vu, le monde invisible que révèle la pensée religieuse, cette réalité stable et permanente qui a plus d’Etre et non, comme la monnaie, moins d’Etre, que la physis.

Devrons-nous dire, en dernière analyse, que la philosophie applique à la notion de l’Etre impérissable et invisible, héritée de la religion, une forme de réflexion rationnelle et positive, acquise dans la pratique de la monnaie ? Ce serait encore trop simple. L’Etre de Parménide n’est pas le reflet, dans la pensée du philosophe, de la valeur marchande ; il ne transpose pas, purement et simplement, dans le domaine du réel, l’abstraction du signe monétaire. L’Etre parménidien est Un ; et cette unicité, qui constitue un de ses traits essentiels, l’oppose à la monnaie non moins qu’à la réalité sensible.

Dans le langage des Ioniens, le réel s’exprime encore par un pluriel, та ovtoc, les choses qui existent, telles qu’elles nous sont données dans leur multiplicité concrète. Comme le note W. Jaeger, ce qui intéresse les physiciens et dont ils cherchent le fondement, ce sont les réalités naturelles, actuellement présentes 2. L’Etre revêt pour eux, quels qu’en soient l’origine et le principe, la forme visible d’une pluralité de choses. Au contraire, chez Parménide, l’Etre, pour la première fois, s’exprime par un singulier, то ô’v : il ne s’agit plus de tels êtres, mais de l’Etre en général, total et unique. Ce changement de vocabulaire traduit l’avènement d’une nouvelle notion de l’Etre : non plus les choses diverses que saisit l’expérience humaine, mais l’objet intelligible du logos, c’est-à-dire de la raison, s’ exprimant à travers le langage, conformément à ses exigences propres de non contradiction. Cette abstraction d’un Etre purement intelligible, excluant la pluralité, la division, le changement, se constitue en opposition avec le réel sensible et son perpétuel devenir ; mais elle ne fait pas moins contraste avec une réalité du type de la monnaie, qui non seulement comporte la multiplicité, au même

1. La formule célèbre d’Heraclite : « Le Tout est transmuté en feu, et le feu en toutes choses, comme les marchandises sont échangées contre l’or, et l’or contre les marchandises ». ne nous paraît pas se situer encore sur ce plan d’un rationalisme mercantile. 2. W. Jaeger, о. с, ch. II, п. 2, p. 197.

203

ANNALES

titre que les choses de la nature, mais qui implique même, dans le principe» une possibilité indéfinie de multiplication. L’Etre parménidien ne peut pas plus « se monnayer » qu’il n’est susceptible de devenir.

C’est dire que le concept philosophique de l’Etre ne s’est pas forgé à travers la pratique monétaire ou l’activité mercantile. Il traduit cette même aspiration vers l’unité, cette même recherche d’un principe de stabilité et de permanence dont nous avons vu le témoignage, à l’aube de la Cité, dans la pensée sociale et politique, et qu’on retrouve aussi dans certains courants de la pensée religieuse, comme l’orphisme. Mais cette aspiration vers l’Un et l’Identique s’exprime dans le cadre des problèmes nouveaux, proprement philosophiques, qui surgissent lorsque l’ancienne question : « Comment l’ordre émerge-t-il du chaos ? » s’est transforméeen un type différent d’apories r « Qu’y a-t-il d’immuable dans la nature ? Quel est le principe, àpyji, de la réalité ? Comment pouvons-nous l’atteindre et l’exprimer ? » Or l’appareil des notions mythiques que les physiciens d’Ionie avaient hérité de la religion : la genesis, l’amour, la haine, l’union et la lutte des opposés, ne répondait plus aux besoins d’une recherche visant à définir, dans un langage purement profane, ce qui constitue le fond permanent de l’Etre. La doctrine de Parménide marque le moment où la contradiction est proclamée entre le devenir du monde sensible, — ce monde ionien de la physis et de la genesis, — et les exigences logiques de la pensée. La réflexion mathématique a joué к cet égard un rôle décisif. Par sa méthode de démonstration et par le caractère idéal de ses objets, elle a pris valeur de modèle. En s’efforçant d’appliquer le nombre à l’étendue, elle a rencontré, dans son domaine, le problème des rapports de l’un et du multiple, de l’identique et du divers ; elle l’a posé avec rigueur en termes logiques. Elle a conduit à dénoncer l’irrationalité du mouvement et de la pluralité, et à formuler clairement les difficultés théoriques du jugement et de l’attribution. La pensée philosophique a pu ainsi se déprendre des formes spontanées du langage dans lesquelles elle s’exprimait, les soumettre à une première analyse critique : au delà des mots, Ijceoc, tels que les emploie le vulgaire, il y a, selon Parménide, une raison immanente au discours, un Хбуо;, qui consiste en une exigence absolue de non contradiction : l’être est, le non-être n’est pas *. Sous cette forme catégorique, le nouveau principe, qui préside à la pensée rationnelle, consacre la rupture avec l’ancienne logique du mythe. Mais, du même coup, la pensée se trouve séparée, comme à la hache, de la réalité physique : la Raison ne peut avoir d’autre objet que l’Etre, immuable et identique. Après Parménide, la tâche de la philosophie grecque consistera à rétablir, par une définition plus précise et plus nuancée du principe de contradiction, le lien entre l’univers rationnel du discours et le monde sensible de la nature 2.

1. Cf. Parménide, 18 В 8, v. 38-39 et 50-53 ; sur les rapports des mots et du logos» chez Parménide, cf. P. M. Schuhx, o. c, p. 283 et 290, et la note 3 de la p. 290. 2. Ibid., p. 293 sq.

204

DU MYTHE A LA RAISON

Nous avons indiqué les deux traits qui caractérisent la nouvelle pensée grecque, dans la philosophie. D’une part le rejet, dans l’explication des phénomènes, du surnaturel et du merveilleux ; d’autre part la rupture avec la logique de l’ambivalence, la recherche, dans le discours, d’une cohérence interne, par une définition rigoureuse des concepts, une nette délimitation des plans du réel, une stricte observance du principe d’identité. Ces innovations, qui apportent une première forme de rationalité, ne constituent pas un miracle. Il n’y a pas d’immaculée conception de la Raison. L’avènement de la philosophie, Cornford l’a montré, est un fait d’histoire, enraciné dans le passé, se formant à partir de lui en même temps que contre lui. Cette mutation mentale apparaît solidaire des transformations qui se produisent, entre le vne et le vie siècle, à tous les niveaux des sociétés grecques : dans les institutions politiques de la Cité, dans le droit, dans la vie économique, dans la monnaie. Mais solidarité ne signifie pas simple reflet. La philosophie, si elle traduit des aspirations générales, pose des problèmes qui n’appartiennent qu’à elle : nature de l’Etre, rapports de l’Etre et de la pensée. Pour les résoudre, il lui faut élaborer elle-même ses concepts, construire sa propre rationalité. Dans cette tâche, elle s’est peu appuyée sur le réel sensible ; elle n’a pas beaucoup emprunté à l’observation des phénomènes naturels ; elle n’a pas fait d’expériences. La notion même d’expérimentation lui est demeurée étrangère. Sa raison n’est pas encore notre raison, cette raison expérimentale de la science contemporaine, orientée vers les faits et leur systématisation théorique. Elle a bien édifié une mathématique, première formalisation de l’expérience sensible ; mais, précisément, elle n’a pas cherché à l’utiliser dans l’exploration du réel physique. Entre le mathématique et le physique, le calcul et l’expérience, la connexion a manqué ; la mathématique est restée solidaire de la logique 1. Pour la pensée grecque, la nature représente le domaine de l’à-peu-près, auquel ne s’appliquent ni exacte mesure, ni raisonnement rigoureux 2. La raison ne se découvre pas dans la nature, elle est immanente au langage. Elle ne se forme pas à travers les techniques qui opèrent sur les choses ; elle se constitue par la mise au point et l’analyse des

1. Cf. La préface de L. Brunschvicg à l’ouvrage d’Arnold Reymond, Histoire des sciences exactes et naturelles dans V Antiquité greco-romaine, 2e édit., Paris, 1955, p. vi et vu. La théorie des Idées-Nombres, chez Platon, illustre cette intégration du mathématique dans le logique. Reprenant une formule de J. Stenzel, A. Lautman note que les Idées-Nombres constituent les principes qui à la fois ordonnent les unités arithmétiques à leur place dans le système et explicitent les différents degrés de la division progressive des Idées :  » Les schemes de division des Idées dans le Sophiste, écrit-il, s’organisent ainsi selon les mêmes plans que les schemes de génération des nombres  » (Essai sur les notions de structure et d’existence en mathématiques, Paris, 1937, p. 152). 2. Cf. A. Koyré, a Du monde de Га peu près à l’univers de la précision », Critique, 1948, p. 806-883.

205

ANNALES

divers moyens d’action sur les hommes, de toutes ces techniques dont le langage est l’instrument commun : l’art de l’avocat, du professeur, du rhéteur, de l’homme politique *. La raison grecque, c’est celle qui permet d’agir de façon positive, réfléchie, méthodique, sur les hommes, non de transformer la nature. Dans ses limites, comme dans ses innovations, elle apparaît bien fille de la Cité.

Jean-Pierre Vernant.

1. Sur le passage de la rhétorique et de la sophistique à la logique, cf. J. de Romilly, Histoire et raison chez Thucydide, Paris, 1956, p. 181-239. La pratique des discours antithétiques, des antilogies, conduira, par l’établissement des « lieux communs » du discours, l’analyse des structures de la démonstration, la mesure et l’arithmétique des argumente opposés, à une science du raisonnement pur.

206

Mis en avant

Incitation à la lecture

Qustions:

— Pourquoi doit-on lire ?

C’est pourquoi doit-on lire !

— Quand doit-on lire ?

— Que doit_on lire ?

العوامل النفسية المؤثرة في الأداء الدر

ça me rappelle mon enseignant d’arabe au lycée ibn Bajja, Mr Iraqui à Fes Maroc

Des questions banales , auxquelles on ne fait pas attention , on pense qu’on doit lire juste par habitude , ou parce que les autres lises, alors nous même on doit lire , ou bien justement , c’est la mission confié à l’école, faire apprendre aux enfants: la lecture , l’écriture et la calcul.

Là, se sent des souvenirs d’enfance , en grandissant on commence à s’intéresser , à d’autre choses : notre corps, la santé , la religion , les loisirs , le voyage , l’insertion sociale . . .

Après , on se sent que pour interagir et faire réussir certains relations sociale , on a besoin de connaissances, de bien communiquer , de méthodes et stratégies pour convaincre et influencer l’autre , avoir plus d’impact et de connaissance.

Au départ, comme d’habitude , on choisit , est la méthode la plus simple , avoir des idoles, les observer et essayer de les imiter .

mais, après une période d’essai , on s’aperçoit que les résultats obtenus sont au delà des objectifs prévu . Peut être ce qui marche avec les autres ne marche pas avec nous , nous ne sont pas de bon comédien , les gens s’aperçoivent que ce qu’on fait ne marche pas avec notre personnalité , simplement parce que ces gens ont des qualité qu’ils ont développer tout au long de leurs apprentissages , selon leurs expériences de la vie et les objectifs qu’ils espèrent réaliser et atteindre.

Donc, on a tous besoin de lire et d’apprendre , bon disant que le besoin est est un facteur déterminant , mais de quoi attend besoin , développer notre presonalité ? , c’est quoi la personnalité ? , selon les psychologues la personnalité à trois composantes : la composante sociale , la composante affective et la composante psycho-motrice -les habiletés-

Alors, pour atteindre ces fins , on doit lire et apprendre pour mettre ces trois composantes en harmonie et atteindre les objectifs qu’on a fixé , avant d’entamerun long processus de lecture.

C’est pourquoi on doit un diagnostique de notre personnalité, et dégager nos points forts et nos points faibles -médecin de soi même-

Par quoi doit-on commencer après , s(informer sur les ressources : documents écrit , livres , supports audiovisuels , interagir avec les autres . . . pour ne pas citer que ces moyens.

Qui dit lire , dit choisir , cela suppose qu’on est suffisamment informer et que nous disposons d’assez de ressources pour réaliser cette tache

Sinon , on fait ce que font la plupart , juste pour faire passer le temps-tuer le temps , comme on a l’habitude de dire-.

Malheureusement cet argument ne tient pas assez . Rapidement on se sent ennuyer et on abandonne , ce qui nous fait retourner à nos habitudes -ne pas lire-.

Bon, donc on doit avoir une forte ambition , des résultats et des profits à atteindre, qui peuvent nous empêcher de s’arrêter de lire.

à la fin, n’oubliez pas que notre entourage influence beaucoup sur notre volonté à lire , c’est pourquoi, on doit accompagner les gens avec qui nous partageons les mêmes valeurs , on dit que le meilleur accompagnant est le livre , n’est-ce pas ?

L’Intelligence Verbo-Linguistique ,d’Howard Gardner, Des Intelligences : Family tree by Alain FOULLON (foullon) – Geneanet

Avec l’intelligence logico-mathématique, c’est sans doute la plus mise en avant dans nos écoles – notamment au niveau du fondamental.

L’intelligence verbo-linguistique, c’est l’aptitude à manipuler le langage pour comprendre et exprimer des idées complexes, c’est l’habileté à utiliser efficacement les mots, tant oralement que par écrit.

Elle permet d’appréhender facilement la syntaxe, la phonétique, la sémantique – et ce, même dans des langues étrangères.

https://gw.geneanet.org/foullon?lang=en&n=des+intelligences&oc=0&p=l+intelligence+verbo+linguistique+d+howard+gardner