Mis en avant

Communication interpersonnelle – améliorez vos talents de communicant

La compréhension est la clé d’une bonne communication
Autism and communication
La lecture contribue à l’amélioration de notre vision

Pour comprendre le rôle de la communication dans la construction de la personnalité lisez l’article du lien ci-dessous

https://www.manager-go.com/efficacite-professionnelle/communication-interpersonnelle.htm

La communication interpersonnelle
La communication interpersonnelle
Soft Skills la communication interpersonnelle

Communication interpersonnelle : communiquez efficacement avec autrui !

 Maj le 19/08/2021 par  Raphaële GRANGER

Toute relation, quelle qu’elle soit, est basée sur la communication. Qu’est-ce que la communication interpersonnelle ? Quels en sont les principes ? Quels sont les différents types de communication ? Comment communiquer efficacement ?NOUVEAU

Les clés pour mieux communiquer avec autruiVoir la fiche pratique

Navigation rapide

Communiquer efficacement requiert ainsi une certaine connaissance du fonctionnement des relations interpersonnelles, ainsi que méthodes et entrainement.

Nous communiquons dès lors que nous entrons en relation avec autrui : saluer, échanger sur un sujet particulier, poser une question , présenter un projet, etc.

En entreprise, la communication interpersonnelle a toute son importance, qu’il s’agisse pour un manager de faire passer ses messages, diriger ses troupes, les motiver ou bien simplement pour les individus d’une même entité de travailler ensemble en toute sérénité. Toutes les conversations, même les plus anodines, participent à ce bien-être et ce bien-vivre ensemble .

Contrairement à de nombreuses idées reçues, communiquer n’est pas si naturel qu’il n’y paraît. Si tout le monde est plus ou moins capable d’échanger avec ses pairs, la communication ainsi amorcée n’est pas pour autant toujours efficace. Elle peut même parfois s’avérer véritablement défavorable si l’un des protagonistes ne fait que projeter son message selon ses propres valeurs, sa personnalité, son mode de fonctionnement, sans se préoccuper de savoir si la personne en face est réceptive ou capable d’entendre réellement son message, ni même se soucier de l’impact de ce dernier sur son interlocuteur.

Qu’est-ce que la communication interpersonnelle ?

L’absence de communication, prix à payer

La communication interpersonnelle est la base de toute relation humaine, essentielle à la vie – la survie parfois – en société. Il s’agit de l’ interaction entre au moins 2 individus entrant en relation pour échanger des informations, des émotions, etc. Transmettre, partager, dire, reformuler, expliquer, se mettre au niveau de son interlocuteur, s’assurer qu’il a bien entendu et bien compris, voilà l’essence même de la communication interpersonnelle.

La communication peut être verbale ou  non-verbale , orale ou écrite.

Communiquer efficacement a de nombreux avantages et permet, entre autres, de :

Les 5 principes de l’Ecole de Palo-Alto

Les 7 habitudes de la réussite

Dans une approche systémique et interactionniste, Paul Watzlawick, théoricien et membre fondateur de l’Ecole de Palo-Alto en Californie , a étudié et modelé avec ses camarades la communication interpersonnelle pour en faire ressortir 5 postulats .

On ne peut pas ne pas communiquer

Communiquer ne se fait pas qu’au travers des mots. Loin de là. La communication non-verbale – nos comportements, gestes, postures, attitudes, regards, etc. – ainsi que para-verbale – l’intonation de notre voix, notre débit, etc. – parlent autant que nos mots – et même bien plus. Un individu, quel qu’il soit, ne peut pas ne pas avoir de comportement.

Il a ainsi été établi qu’ il est tout-à-fait impossible pour un être vivant – qui plus est pour un individu – de ne pas communiquer, que ce soit consciemment ou non.

Toute communication revêt 2 aspects : le contenu et la relation

Selon le courant de pensée de Palo Alto, le message – l’information – transmis par l’émetteur est le contenu La façon dont ce message est reçu – compris et entendu – est la relation . C’est cette dernière – ou tout du moins la manière dont le récepteur s’implique dans celle-ci – qui fait que le message passe convenablement ou bien, à l’inverse, est parasité et reçu de façon biaisée. 

Chacun interprète les informations qu’il reçoit en fonction de ses propres références. Dans le cadre d’une relation saine et de confiance, les protagonistes se concentrent sur l’information qui sera convenablement transmise. A l’inverse, celle-ci sera déformée, rejetée ou bien ignorée si la relation n’est pas sereine.

Ainsi, la relation – nos comportements, les divers éléments du para et non-verbal – est une méta-communication, représentant tout ce que l’on transmet en communiquant.

La nature de la relation dépend de la ponctuation des séquences de communication 

Le mode de communication de l’émetteur influe sur le récepteur et vice versa. La relation est donc en partie basée sur le para-verbal et le non-verbal, bien plus que sur les mots en tant que tels.

Chacun interprète les messages transmis et reçus selon ses propres références : sa personnalité, son vécu, ses expériences passées, etc. ainsi que selon le lien de pouvoir – hiérarchique ou non – ressenti face à autrui et les réactions – comportements – de ce dernier.

Pour qu’une communication soit fluide et efficace, il est ainsi primordial de méta-communiquer afin d’émettre, recevoir, entendre et comprendre pleinement les messages et non se contenter de les interpréter.

communication interpersonnelle

La communication est simultanément digitale et analogique

Les échanges entre plusieurs individus sont basés sur deux modes : 

  •  le mode digital : c’est la communication verbale. Chaque mot a un sens bien précis, les phrases sont structurées. Il s’agit en quelque sorte d’un code accessible à tout individu en possédant la clé (pour comprendre verbalement ce que dit une personne de langue étrangère, il est nécessaire de maîtriser les codes linguistiques de cette dernière). C’est le mode des conversations informelles.
  •  le mode analogique : c’est la communication para et non-verbale . Les gestes, attitudes, regards, etc. – comportements primitifs universels – sont perçus et interprétés de manière intuitive par les protagonistes. Utilisé seul, ce mode peut toutefois induire des interprétations biaisées, faussant par là la communication interpersonnelle.

L’être humain utilise constamment ces deux modes pour communiquer. Ainsi, pour que la communication entre 2 personnes soit fluide, il est essentiel que ces 2 modes soient utilisés simultanément et de manière cohérente.

Tout échange de communication est symétrique ou complémentaire selon qu’il repose sur l’égalité ou la différence

التلفزيون وآليات التلاعب بالعقول، بيير بورديو

Lors d’un échange entre deux personnes, chacun des protagonistes se positionne dans la relation : d’égal à égal – communication symétrique, les différences sont atténuées – ou de manière complémentaire – en position haute ou basse, les différences sont exacerbées.

La différence de positionnement peut être de différentes natures : statut social, position hiérarchique, degré d’éducation, âge, niveau de compétences, etc. ; explicite ou implicite. 

Pour qu’une communication soit positive, chacun des protagonistes doit comprendre et accepter ce positionnement. Si tel n’est pas le cas, la communication a toutes les chances d’être de mauvaise qualité.

Symétrie et complémentarité sont, par ailleurs, les concepts de base de l’Analyse Transactionnelle.

Contrairement aux idées reçues, la position de dominant n’est pas la plus facile à tenir…

Les différents types de communication

Méthodes de communication écrite et orale

Il existe de nombreuses façons de communiquer, plus ou moins consciemment : par les mots, les gestes, les attitudes, les regards… Dans tous les cas, il s’agit d’un échange entre au moins 2 individus. Qui dit échange, dit compréhension. Toute communication doit ainsi être soigneusement préparée afin d’être efficace, notamment dans le cadre du management où les échanges entre collaborateurs se doivent d’être fluides pour une efficacité accrue.

Communication écrite

E-mails, notes de service, propositions commerciales, campagnes publicitaires, lettres officielles, etc. la communication écrite est essentielle en entreprise. Si les mots ont ici leur importance, le « décor » est également essentiel et doit être travaillé avec soin. Couleurs, type et taille de police, visuels illustratifs ou encore longueur des phrases sont le premier contact avec le lecteur et doivent refléter le sens de l’écrit tout en étant lisibles et attractifs.

Communication orale

Les mots ont, bien entendu, ici aussi leur importance. Il est essentiel de bien les choisir en fonction de son/ses interlocuteur.s et d’adapter son vocabulaire.

Cependant, tout orateur le sait : pour faire passer un message de manière efficace lors d’une prise de parole et se faire entendre de son auditoire, les mots ne suffisent pas à eux seuls. Le langage corporel – ou langage para et non verbal – transmet à lui seul environ 95% de l’information. Il est donc crucial de le connaitre, savoir le décrypter et l’utiliser pour en faire un allié de taille pour sa communication.

Communication para-verbale

Il s’agit de tout ce qui habille les mots et les rend plus vivants : l’intonation de notre voix, notre timbre, le débit auquel nous parlons, le volume sonore que nous employons, etc.

Communication non verbale 

Elle représente ces gestes, mimiques, mouvements, postures et autres qui transmettent nos émotions de manière totalement inconsciente et trahissent parfois nos paroles.

communication interpersonnelle2

Comment communiquer efficacement ?

Comment oser dire que l’on ne comprend pas son interlocuteur ? Comment dire non ? Comment savoir si la personne qui vous fait face vous manipule ou si elle est sincère ? Comment mieux se comprendre ? Comment communiquer de façon constructive ?

Les techniques de communication sont nombreuses. Toutes ont leurs particularités et leurs atouts. Elles sont à privilégier selon le contexte, l’objectif, le/les interlocuteur.s en face, etc. Dans le cadre de sa mission, le manager doit les connaitre et être capable de les utiliser à bon escient. La communication managériale étant un pilier de la réussite et de l’ efficacité collective .

Ecoute active

La capacité d’écoute est une compétence essentielle à une bonne communication. Reformulation, empathie, bienveillance, disponibilité, etc. sont autant d’éléments clés de l’ écoute active  permettant d’instaurer un climat de confiance , et induire ainsi une communication sereine et positive.

Cohérence entre communication verbale, para-verbale et non-verbale

L’essentiel de notre communication passant par le para et non verbal, il est essentiel que ces deux aspects soient totalement en phase avec notre verbal, sans quoi le message envoyé à nos interlocuteurs sonnera faux.

Confiance en soi et assertivité

Communiquer avec autrui induit une exposition plus ou moins consciente de notre personnalité et de notre représentation de celle d’autrui . C’est ce qui qualifie la relation. Il est ainsi important d’avoir une excellente connaissance de soi ainsi qu’ une bonne estime de soi afin de communiquer intelligemment et positivement. 

Par ailleurs, savoir et oser prendre sa place et oser dire non lorsque la situation le demande permet également de se positionner adéquatement dans la relation.

Mis en avant

L’État d’Équilibre d’un Système Chimique

Position du probléme les équilibres chimiques

Question 1 : comment mettre un système chimique hors d’équilibre !?

Question 2: l’évolution d’un système chimique vers un état d’équilibre est-il spontané ou forcé !?

L’équilibre chimique est-il une notion de la thermodynamique ou bien de la cinétique ? Est-il statique ou dynamique ?

Pour connaître plus sur l’équilibre des systèmes chimiques, suivez le lien ci-dessous

https://www.superprof.fr/ressources/scolaire/physique-chimie/terminale-s/statut-equilibre-experience-chimie.html

Définition les équilibres chimiques

Les équilibres chimiques s’établissent lorsque deux réactions du même système chimique se produisent simultanément dans les mêmes condition , ces équilibres sont dynamiques par opposition aux équilibres physiques qui sont statiques , voir cours sur le lien ci-dessus , comme vous pouvez consulter la leçon sur la page des leçons de physique chimie terminale science du site.

Un équilibre chimique est le résultat de deux réactions chimiques simultanées dont les effets s’annulent mutuellement. Une réaction telle que la combustion du propane avec l’oxygène, s’arrêtant lorsque l’un des réactifs est totalement épuisé, est qualifiée de réaction totale, complète ou irréversible.
Équilibre chimique – Wikipédia

Bâtisseurs sahraouis du Maroc profond

Objectifs : connaître le quotient de la réaction chimique, définir la constante d’équilibre d’un système chimique, connaître que l’équilibre chimique est dynamique, pŕévoir le sens d’évolution d’un système chimique. Définir le taux d’avancement final

Exercices état d’équilibre d’un système chimique

Soyez généreux, la vie est courte

Chemical Equilibrium english leson


  • 5.1: Defining Equilibrium
    A reaction is at equilibrium when the amounts of reactants or products no longer change. Chemical equilibrium is a dynamic process, meaning the rate of formation of products by the forward reaction is equal to the rate at which the products re-form reactants by the reverse reaction.
  • 5.2: The Equilibrium ConstantThe law of mass action describes a system at equilibrium in terms of the concentrations of the products and the reactants. For a system involving one or more gases, either the molar concentrations of the gases or their partial pressures can be used. The equilibrium constant can be defined in terms of forward and reverse rate constants via the law of mass action.
  • 5.3: Heterogeneous EquilibriaAn equilibrated system that contains products and reactants in a single phase is a homogeneous equilibrium; a system whose reactants, products, or both are in more than one phase is a heterogeneous equilibrium.
  • 5.4: Predicting Reaction DirectionThe reaction Quotient (\(Q\) or \(Q_p\)) has the same form as the equilibrium constant expression, but it is derived from concentrations obtained at any time. When a reaction system is at equilibrium, \(Q = K\). Graphs derived by plotting a few equilibrium concentrations for a system at a given temperature and pressure can be used to predict the direction in which a reaction will proceed. Points that do not lie on the line or curve are nonequilibrium states.QQ or QpQp) has the same form as the equilibrium constant expression, but it is derived from concentrations obtained at any time. When a reaction system is at equilibrium, Q=KQ=K. Graphs derived by plotting a few equilibrium concentrations for a system at a given temperature and pressure can be used to predict the direction in which a reaction will proceed. Points that do not lie on the line or curve are nonequilibrium states.
  • 5.5: Solving Equilibrium ProblemsVarious methods can be used to solve the two fundamental types of equilibrium problems: (1) those in which we calculate the concentrations of reactants and products at equilibrium and (2) those in which we use the equilibrium constant and the initial concentrations of reactants to determine the composition of the equilibrium mixture. When an equilibrium constant is calculated from equilibrium concentrations, concentrations or partial pressures are use into the equilibrium constant expression.
  • 5.6: Le Chatelier’s PrincipleSystems at equilibrium can be disturbed by changes to temperature, concentration, and, in some cases, volume and pressure; volume and pressure changes will disturb equilibrium if the number of moles of gas is different on the reactant and product sides of the reaction. The system’s response to these disturbances is described by Le Châtelier’s principle: The system will respond in a way that counteracts the disturbance. Adding a catalyst affects the reaction rates but does not alter equilibrium.
Mis en avant

matieresscientifiques.fr

Question : quel critère qui nous permet de qualifier une discipline de scientifique !?

Position du problème

Les matières scientifiques se distingue des sciences humaines par la rigueur et la méthode, ils ont pour habitude la justification des résultats élaboré à la fin de chaque étude. Si, les matières scientifiques enrichissent les connaissances des gens et les aides à comprendre et prendre des décisions pour résoudre un ensemble de problèmes qu’ils rencontrent dans leur vie, si, cela est compréhensible pour les gens normaux, pour les gens qui ont choisi de faire des études scientifiques, alors les matières scientifiques doivent être une occasion pour acquérir une démarche bâti sur la raison, qui peut être appliquée en classe comme dans la vie courante

Définition les matières scientifiques

Les disciplines scientifiques (aussi appelées « sciences » ou « domaines scientifiques ») sont des parties de la science et sont communément divisées en deux groupes majeurs, distincts de par la nature de leur objet, de leurs méthodes, et de leur finalité : les sciences fondamentales et les sciences appliquées.

Les sciences fondamentales constituent l’ensemble des connaissances rationnelles sur le fonctionnement et l’histoire du monde, indépendamment des considérations pratiques pouvant en résulter. Elles s’opposent aux sciences appliquées qui sont elles-aussi un ensemble de connaissances rationnelles, mais qui visent en ce qui les concerne la réalisation d’objectifs pratiques : cette volonté pratique assimile ainsi souvent les sciences appliquées à la technique.

La science fondamentale et les sciences fondamentales complètent la science appliquée et les sciences appliquées, qui précisément concernent leurs applications. Le corpus de connaissances fondamentales s’amplifie principalement grâce à la recherche fondamentale, mais aussi à la recherche appliquée par sérendipité, de même que la science appliquée bénéficie de la recherche appliquée mais régulièrement aussi de la recherche fondamentale.

La catégorisation précise des différentes branches de la science est un exercice délicat en raison de l’interdisciplinarité de certaines et aux mutations continues de ces domaines. Ainsi la typologie des sciences proposée est forcément non exhaustive et peut ne pas saisir certaines interdisciplinarités.

Sciences fondamentales

17 معادلة غيرت العالم

La science fondamentale (ou science pure) est l’ensemble des connaissances rationnelles sur le fonctionnement et l’histoire du monde physiquebiologique et humain, indépendamment des considérations pratiques pouvant en résulter. Le corpus de connaissances fondamentales s’amplifie principalement grâce à la recherche fondamentale, mais aussi à la recherche appliquée par sérendipité. On distingue au sein des sciences fondamentales deux grandes familles :

  • Les sciences formelles (aussi appelées sciences exactes, en anglais Formal sciences) qui se concentrent sur l’observation de systèmes formels arbitrairement définis pour étudier leurs propriétés. À l’inverse des autres sciences (dites empiriques), les sciences formelles ne se basent pas sur des observations du monde réel pour en déduire des théories. Les « mondes » observés sont fabriqués (abstraits) et les règles qui les régissent sont choisies comme point de départ « admis » (appelés axiomes). Les systèmes étudiés peuvent donc décrire le réel ou aller jusqu’à être des univers parfaitement hypothétiques n’ayant aucune application concrète encore connue.
  • Les sciences empiriques (en anglais Empirical sciences) qui décrivent le monde réel en utilisant la méthodologie de la recherche empirique. Elles consistent plus concrètement en la réalisation d’expériences ou d’observations sur la réalité afin de produire des modèles, des lois, qui expliqueraient le fonctionnement du monde réel tel qu’il est observé durant lesdites expérimentations et observations. La méthodologie empirique passe également par l’évaluation par les pairs : les travaux des chercheurs sont confrontés aux autres chercheurs, à leur critique, de manière in fine à ne retenir que des modèles solides. Les sciences empiriques peuvent être divisées en deux famille en fonction de leur objet d’étude : les sciences naturelles qui étudient le monde naturel ; et les sciences sociales qui a contrario étudient le monde social. Wikipédia
Théorie de l’évolution , c’est pas sorcier
Icons, un pseudocode de la physique

Pour plus d’informations, je vous invite à suivre le lien ci-dessous . . .

https://franceonline.fr/domaine/5dc06e86ee18d15969223f7a

site physagreg , cours de physique chimie cycle qualifiant
https://www.physagreg.fr/terminale.php
Ce n’est pas une coincidence
Faire du sport c’est physique et chimique , c’est pas sorcier
Muscles et souplesse , c’est pas sorcier
lumière et illusion , c’est pas sorcier
Mystères de l’univers , c’est pas sorcier
Comprendre la physique quantique
L’origine de la matière , c’est pas sorcier
Les référentiels à connaitre
Remettons les pendules à l’heure , c’est pas sorcier
Formules de certains produits chimiques usuels
Le nombre d’électrons de la couche externe de certains éléments chimiques

Mis en avant

Evolution spontanée d’un système chimique vers l’état d’équilibre

Position de problème : évolution spontanée d’un système chimique

Comme tout système physique ou chimique, tous évoluent spontanément vers un état d’équilibre où leurs énergies est minimale. Le système ne peut être mis hors d’équilibre que par un apport d’énergie.

Question : Comment prévoir une réaction chimique ? Comment une transformation chimique donne une énergie électrique ?

Objectifs : évolution spontanée d’u système chimique

Objectifs : savoir le quotient de la réaction, définir la constante d’équilibre, connaître et appliquer le critère d’évolution spontané, prévoir le sens d’évolution spontané, déterminer la composition molaire du système chimique à l’équilibre

Pour connaître plus sur ces objectifs, suivre le lien ci-dessous

http://montblancsciences.free.fr/terms/chimie/cours/c10.htm

Cours exercices évolution spontanée d’un système chimique

Vidéos évolution spontanée d’un système chimique

évolution système chimique
Quotient de réaction et constante d’équilibre
Mis en avant

Dosage par titrage pH-métrique – Physique Chimie

Position du problème : les acides et les bases

Problème : pourquoi le citron est-il amer !!??

Produits acido-basique dans la vie courante
citron est un aliment acide riche en vitamine C
Citron, citronnier

L’étude quantitative d’une réaction chimique exige le choix d’une méthode de suivi, qui permet de mesurer au moins la quantité de matière d’un des constituants du système chimique. Il y a deux familles de méthodes, les méthodes physiques qualifiés de non destructive et qui utilisent de petites quantités de matières, des méthodes chimiques qualifiés de destructive car elles utilisent de bon quantités de matières, de même elles demandent pas mal de temps vis à vis des premières . Le suivi pH-metrique fait partie de ces méthodes chimiques. Pour le suivi d’un dosage acido-basique il y a deux techniques, dosage colorimetrque relativement rapide mais moins précis, il y le dosage par suivi pH-metrique relativement lent mais plus précis, l’utilisation de matériels informatiques dans le cadre de l’EXAO à permet de rendre cette deuxième méthode beaucoup plus convivial.

Pour avoir une idée sur cette méthode, suivi le lien ci-dessous

https://physique-chimie.discip.ac-caen.fr/spip.php?article916

Cours et exercices les acides et les bases terminale science

Un acide est un corps capable de céder un ou des protons (une particule fondamentale chargée d’électricité positive) et une base est un corps capable de capter un ou des protons. … Par exemple, l’acide chlorhydrique concentré (acide fort) a un pH proche de 0 ; la soude, base très forte, a un pH proche de 14.

Exemples d’acides et de bases fortes
Formule chimique de l’indicateur coloré phenolphtaléine

Vidéos les acides et les bases terminale sience

Réaction acide base
cours acide base , calcul de pH
Dosage conductimètrique
Dosage acide base direct
acide base diagramme de prédominance
Dosage pH-mètrique

Acid-Base Equilibria

Acids and Basies
Acid base titrations
Weak acid strong base titration

  • 6.1: Review: Defining Acids and Bases
    In chemistry, acids and bases have been defined differently by three sets of theories: One is the Arrhenius definition defined above, which revolves around the idea that acids are substances that ionize (break off) in an aqueous solution to produce hydrogen (H+) ions while bases produce hydroxide (OH-) ions in solution. The other two definitions are discussed in detail alter in the chapter and include the Brønsted-Lowry definition and the Lewis theory.
  • 6.2: Brønsted–Lowry Acids and Bases A compound that can donate a proton (a hydrogen ion) to another compound is called a Brønsted-Lowry acid. The compound that accepts the proton is called a Brønsted-Lowry base. The species remaining after a Brønsted-Lowry acid has lost a proton is the conjugate base of the acid. The species formed when a Brønsted-Lowry base gains a proton is the conjugate acid of the base. Thus, an acid-base reaction occurs when a proton is transferred from an acid to a base.
  • 6.3: The pH Scale The concentration of hydronium ion in a solution of an acid in water is greater than 1.0×10−7M1.0×10−7M at 25 °C. The concentration of hydroxide ion in a solution of a base in water is greater than 1.0×10−7M1.0×10−7M at 25 °C. The concentration of H3O+ in a solution can be expressed as the pH of the solution; pH=−logH3O+pH=−log⁡H3O+. The concentration of OH− can be expressed as the pOH of the solution: pOH=−log[OH−]pOH=−log⁡[OH−]. In pure water, pH = 7 and pOH = 7.
  • 6.4: Acid-Base Strength The strengths of Brønsted-Lowry acids and bases in aqueous solutions can be determined by their acid or base ionization constants. Stronger acids form weaker conjugate bases, and weaker acids form stronger conjugate bases. Thus strong acids are completely ionized in aqueous solution because their conjugate bases are weaker bases than water. Weak acids are only partially ionized because their conjugate bases are strong enough to compete successfully with water for possession of protons.
  • 6.5: Solving Acid-Base ProblemsThe strengths of Brønsted-Lowry acids and bases in aqueous solutions can be determined by their acid or base ionization constants. Stronger acids form weaker conjugate bases, and weaker acids form stronger conjugate bases. Thus strong acids are completely ionized in aqueous solution because their conjugate bases are weaker bases than water. Weak acids are only partially ionized because their conjugate bases are strong enough to compete successfully with water for possession of protons.
  • 6.6: Acidic and Basic Salt Solutions The characteristic properties of aqueous solutions of Brønsted-Lowry acids are due to the presence of hydronium ions; those of aqueous solutions of Brønsted-Lowry bases are due to the presence of hydroxide ions. The neutralization that occurs when aqueous solutions of acids and bases are combined results from the reaction of the hydronium and hydroxide ions to form water. Some salts formed in neutralization reactions may make the product solutions slightly acidic or slightly basic.
  • 6.7: Lewis Acids and Bases The Brønsted-Lowry proton donor-acceptor concept has been one of the most successful theories of Chemistry. But as with any such theory, it is fair to ask if this is not just a special case of a more general theory that could encompass an even broader range of chemical science. In 1916, G.N. Lewis of the University of California proposed that the electron pair is the dominant actor in acid-base chemistry.
Mis en avant

Le dipôle RL , dipôle RC , circuit RLC libre et forcée et modulation d’amplitude

Question : c’est quoi un oscillateur électrique ? Pourquoi doit-on moduler un signal avant de l’envoyer ??

En terminale science, les leçons d’électricité ont pour but de familiariser les élèves avec les phénomènes de régime transitoire, des oscillations électriques libre et forcées, puis leurs permettre de comprendre la modulation et la démodulation dans le cadre des signaux analogique.

Objectifs : définir un condensateur, établir la relation entre la charge du consommateur et de la tension entre ses bornes, définir la capacité d’un condensateur, trouver et résoudre une équation différentielle du premier ordre , la constante du temps, équation aux dimensions, connaître le régime permanent, Faraday, connaître une bobine, connaître l’inductance, écrire la loi d’ohm dans le cas de la convention récepteur. Définir un oscillateur électrique, oscillations électriques sinusoïdale libres et forcées, équation différentielle du second ordre, période propre, pulsation propre, définir la fréquence, Hertz, impedance, bande passante, facteur de qualité, puissance active, puissance apparente, intensité efficace, intensité maximale, différence de phase, résonance, détecteur d’enveloppe, multiplieur

Secret de la vie dans une œuf

Pour connaître plus sur ce sujet, suivez le lien ci-dessous

https://www.alloschool.com/section/5364

Cet articles contient tout les cours de l’électricité du terminale SM , PC et SVT , ainsi que des fiches d’exercices et des vidéos d’illustration

Cliquez sur le lien au dessous de chaque image pour consulter son contenu

https://www.coursuniversel.com/le-dipole-rc3-electrique/

resistor–capacitor circuit (RC circuit), or RC filter or RC network, is an electric circuit composed of resistors and capacitors. It may be driven by a voltage or current source and these will produce different responses. A first order RC circuit is composed of one resistor and one capacitor and is the simplest type of RC circuit.

RC circuits can be used to filter a signal by blocking certain frequencies and passing others. The two most common RC filters are the high-pass filters and low-pass filtersband-pass filters and band-stop filters usually require RLC filters, though crude ones can be made with RC filters.

leçon complet du circuit RLC
https://www.coursuniversel.com/circuit-rlc/

he first evidence that a capacitor could produce electrical oscillations was discovered in 1826 by French scientist Felix Savary.[23][24] He found that when a Leyden jar was discharged through a wire wound around an iron needle, sometimes the needle was left magnetized in one direction and sometimes in the opposite direction. He correctly deduced that this was caused by a damped oscillating discharge current in the wire, which reversed the magnetization of the needle back and forth until it was too small to have an effect, leaving the needle magnetized in a random direction.

American physicist Joseph Henry repeated Savary’s experiment in 1842 and came to the same conclusion, apparently independently.[25][26] British scientist William Thomson (Lord Kelvin) in 1853 showed mathematically that the discharge of a Leyden jar through an inductance should be oscillatory, and derived its resonant frequency.[23][25][26]

British radio researcher Oliver Lodge, by discharging a large battery of Leyden jars through a long wire, created a tuned circuit with its resonant frequency in the audio range, which produced a musical tone from the spark when it was discharged.[25] In 1857, German physicist Berend Wilhelm Feddersen photographed the spark produced by a resonant Leyden jar circuit in a rotating mirror, providing visible evidence of the oscillations.[23][25][26] In 1868, Scottish physicist James Clerk Maxwell calculated the effect of applying an alternating current to a circuit with inductance and capacitance, showing that the response is maximum at the resonant frequency.[23]

The first example of an electrical resonance curve was published in 1887 by German physicist Heinrich Hertz in his pioneering paper on the discovery of radio waves, showing the length of spark obtainable from his spark-gap LC resonator detectors as a function of frequency.[23]

One of the first demonstrations of resonance between tuned circuits was Lodge’s « syntonic jars » experiment around 1889[23][25] He placed two resonant circuits next to each other, each consisting of a Leyden jar connected to an adjustable one-turn coil with a spark gap. When a high voltage from an induction coil was applied to one tuned circuit, creating sparks and thus oscillating currents, sparks were excited in the other tuned circuit only when the inductors were adjusted to resonance. Lodge and some English scientists preferred the term « syntony » for this effect, but the term « resonance » eventually stuck.[23]

The first practical use for RLC circuits was in the 1890s in spark-gap radio transmitters to allow the receiver to be tuned to the transmitter. The first patent for a radio system that allowed tuning was filed by Lodge in 1897, although the first practical systems were invented in 1900 by Anglo Italian radio pioneer Guglielmo Marconi.[23]

https://www.coursuniversel.com/circuit-serie-en-regime-sinusoidal-force/
https://www.coursuniversel.com/transmission-des-informations-par-ondes-electromagnetiques/
https://www.coursuniversel.com/modulation-et-demodulation-damplitude/
Musiciennes populaire, Maroc profond

resistor–inductor circuit (RL circuit), or RL filter or RL network, is an electric circuit composed of resistors and inductors driven by a voltage or current source. A first-order RL circuit is composed of one resistor and one inductor and is the simplest type of RL circuit.

A first order RL circuit is one of the simplest analogue infinite impulse response electronic filters. It consists of a resistor and an inductor, either in series driven by a voltage source or in parallel driven by a current source.

Mis en avant

Découvrir & Comprendre – Les 4 interactions fondamentales

Actuellement, il y a quatre types d’interactions qui sont utilisés pour expliquer les liaisons dans la matière :

Interaction universelle gravitationnelle qui s’exerce entre les corps ayant une masse, il de longue portée, mais, c’est la plus faible il demande des masses énormes, de l’ordre des masses des planètes, étoiles, lunes

Merci mon père

Interaction électromagnétique qu’exerce entre les corps chargés électriquement, de longue portée, il est quarante fois plus forte que la première Interaction.

— Interaction forte, de petite portée, de l’ordre du diamètre d’un noyau atomique, il permet d’expliquer la cohésion des noyaux atomiques, il s’exerce entre les nucléons, il est de type attractive.

— Interaction faible, de faible portée, de l’ordre du diamètre d’un noyau atomique, il permet d’expliquer la transformation d’un neutron en proton et d’un proton en neutron, des transformations qui ne sont observées qu’à l’intérieur des noyaux, l’énergie mise en jeu est faite, d’où son nom

Pour plus d’informations sur les quatre interactions fondamentales dans la matière, suivez le lien ci-dessous

https://www.cea.fr/comprendre/Pages/matiere-univers/essentiel-sur-4-interactions-fondamentales.aspx#:~:text=%E2%80%8BQuatre%20interactions%20fondamentales%20r%C3%A9gissent,forte%20et%20l’interaction%20gravitationnelle.&text=Quelles%20sont%20les%20propri%C3%A9t%C3%A9s%20de%20chacune%20de%20ces%20interactions%20%3F

quatre in,teractions fondamentales

Quelles sont les interactions fondamentales ?

Tous les processus physiques, chimiques ou biologiques connus peuvent être expliqués à l’aide de seulement quatre interactions fondamentales :

La théorie qui décrit la gravitation est la relativité générale, celle qui décrit les trois autres est le modèle standard.

Néanmoins, ce dernier modèle explique les masses de tous les fermions élémentaires comme le résultat d’une nouvelle interaction, entre ces fermions et le boson BEH. Comme ce boson n’a été observé que très récemment, il est encore difficile de dire si cette nouvelle interaction existe telle qu’imaginée. Si c’était le cas, cela signifierait qu’il existe une cinquième interaction fondamentale.


Qu’est-ce que l’interaction gravitationnelle ?

L’interaction gravitationnelle est une force toujours attractive qui agit sur toute forme d’énergie, mais avec une intensité extrèmement faible (c’est l’interaction la plus faible des quatre interactions fondamentales). Ainsi, ses effets ne sont perceptibles que lorsque des objets très massifs (la masse est une forme d’énergie) sont en jeu, c’est le cas pour les objets astronomiques.

L’énorme masse des étoiles, des planètes ou des galaxies les rend donc très sensibles à la gravitation et c’est la seule interaction en jeu pour expliquer les mouvements de ces objets.

De même, l’énorme masse de la Terre (6 1024kg, soit six mille milliards de millards de tonnes !) la rend très attractive pour des objets moins massifs. Ainsi, la pesanteur et donc le poids des objets sur Terre sont le résultat de l’attraction gravitationnelle de la Terre sur ces objets. C’est pourquoi, le poids d’un objet est plus faible sur la Lune que sur Terre, puisque la masse de la Lune est plus faible que celle de la Terre.

Enfin, c’est l’attraction gravitationnelle de la Lune sur l’eau des océans (dont la masse totale est importante) qui permet d’expliquer le phénomène des marées.

Le premier à avoir compris que la pesanteur terrestre et les mouvements astronomiques étaient le résultat d’une seule et même interaction est Isaac Newton, qui publia en 1687 un livre dans lequel il a établi les lois de la gravitation. Il fallut ensuite attendre 1915 pour que Albert Einstein développe la théorie de la relativité générale, qui permet d’expliquer la gravitation par une théorie géométrique mais non quantique. La gravitation n’est donc pas du tout prise en compte par la physique des particules, mais son intensité est totalement négligeable à l’échelle des particules élémentaires.


Qu’est-ce que l’interaction électromagnétique ?

L’interaction électromagnétique est une force répulsive ou attractive qui agit sur les objets ayant une charge électrique. Deux objets de charges électriques de même signes se repoussent alors que deux objets de charges électriques de signes opposés s’attirent. Comme les atomes sont électriquement neutres, il y a peu d’effet de cette interaction à grande échelle.

L’interaction électromagnétique est bien sûr à l’origine de tous les phénomènes électriques et magnétiques.

L’interaction électromagnétique permet aussi la cohésion des atomes en liant les électrons (charge électrique négative) et le noyau des atomes (charge électrique positive). Cette même liaison permet de combiner les atomes en molécules et l’interaction électromagnétique est donc responsable des réactions chimiques. Enfin, la chimie de certaines classes de molécules permet d’expliquer la biologie.

Cette interaction peut, dans certaines conditions, créer des ondes électromagnétiques, parmi lesquelles on distingue la lumière, les ondes radio, les ondes radar, les rayons X

En bref, l’interaction électromagnétique permet d’expliquer presque tous les phénomènes de la vie quotidienne (mis à part la pesanteur)…

La première grande étape dans la compréhension de l’électromagnétisme vient de l’unification de l’électrodynamique et du magnétisme en une seule et même interaction par J. C. Maxwell en 1860. Puis, en 1864, Maxwell comprit que la lumière était une onde électromagnétique. Enfin, en 1887, H. Hertz montre l’existence d’ondes électromagnétiques autres que la lumière.

Quelques années plus tard, la mécanique quantique se développe et la théorie de l’électromagnétisme est quantifiée, la nature quantique de cette interaction (l’existence du photon) ayant déjà été découverte par Einstein en 1905. Finalement, après la résolution de problèmes techniques, la première théorie à la fois quantique et relativiste est achevée dans les annéees 1948-49 par Tomonaga, Schwinger et Feynman, c’est l’électrodynamique quantique ou QED.

Mais, comment fonctionne QED ?


Qu’est-ce que l’interaction forte ?

L’interaction forte est une force qui agit sur les quarks et par extension sur les hadrons. Les leptons y sont totalement insensibles.

L’interaction forte permet la cohésion des noyaux atomiques en liant les protons et les neutrons entre eux au sein de ce noyau. Si cette interaction n’existait pas, les noyaux ne pourraient pas être stables et seraient dissociés sous l’effet de la répulsion électrostatique des protons entre eux.

L’interaction forte est aussi responsable des réactions nucléaires, source d’énergie des étoiles et donc du Soleil.

L’histoire des interactions fortes commence en 1911 avec la découverte du noyau atomique par Rutherford. En effet, il fallut trouver une nouvelle force pour expliquer que les noyaux atomiques ne se disloquent pas sous l’effet électrique répulsif des protons entre eux. Néanmoins, il fallut attendre 1967-70 et le développement du modèle des quarks pour que la théorie de l’interaction forte soit élaborée, c’est à dire la chromodynamique quantique ou QCD.

Mais, comment fonctionne QCD ?


Qu’est-ce que l’interaction faible ?

L’interaction faible est une force qui agit sur toutes les particules. En particulier, c’est la seule force à laquelle sont sensibles les neutrinos.

L’interaction faible est responsable de la radio-activité β qui permet les réactions nucléaires qui sont la source d’énergie du Soleil. La radio-activité naturelle est probablement aussi une source d’énergie importante pour maintenir le magma en fusion sous la croûte terrestre.

L’histoire de l’interaction faible commence bien sûr en 1896 avec la découverte de la radio-activité par Becquerel. Il faut ensuite attendre 1933 pour que E. Fermi élabore le premier modèle des interactions faibles en incorporant l’existence non encore démontrée du neutrino. Puis, en 1961, S. L. Glashow tente d’unifier l’interaction faible et l’électromagnétisme en une seule interaction électrofaible. Cette unification prédit l’existence d’une interaction faible par courant neutre qui est découverte en 1973. Elle prédit aussi l’existence de vecteurs de cette interaction, les W+, W et Z0, qui sont à leur tour découverts en 1983.

Mais, comment agissent les W et le Z0 ?


Interaction et échange de particules

Les interactions sont expliquées en physique des particules comme l’échange entre particules de matière de particules de rayonnement.

Le dessin ci-dessous montre deux barques qui s’éloignent l’une de l’autre car leurs occupants échangent un ballon (par le principe d’action-réaction bien connu). Il y a donc interaction à distance entre les deux barques par échange d’un objet intermédiaire (le ballon). Cet objet est appelé le vecteur de l’interaction.

Ainsi, en physique des particules, on explique toute interaction entre particules par l’échange entre ces particules de vecteurs (qui sont eux-même des particules).Echange d'une particule
Exemple d’interaction entre deux barques par l’échange d’un ballon.

On peut aussi imaginer que plus le ballon est lourd, plus il sera difficile aux occupants du bateau de le lancer loin. Ainsi, si le ballon est trop lourd, les bateaux ne pourront plus interagir au-delà d’une certaine distance.

De même, en physique des particules, plus la particule vecteur d’une interaction sera lourde, plus cette interaction sera de courte portée.


Existe-t-il une cinquième (ou sixième) force ?

Le modèle standard prédit l’existence d’une nouvelle interaction, dont le boson serait le boson BEH, afin d’expliquer l’existence de la masse. Si cette prédiction se confirmait, il s’agirait bien d’une cinquième force.

Les théoriciens ayant beaucoup d’imagination, il y a régulièrement des nouvelles théories qui prédisent une nouvelle force, qui serait donc la sixième interaction fondamentale. Néanmoins, ces théories ne résistent en général pas aux expériences mises en oeuvre pour vérifier leurs prédictions…

De même, il arrive parfois qu’une expérience observe un phénomène pouvant laisser croire à l’existence d’une nouvelle interaction. Mais, ces résultats ne sont en général pas confirmés par d’autres expériences et il s’avère souvent que le phénomène nouveau était simplement un effet non compris d’un phénomène déjà connu.

Finalement, à l’heure actuelle, tous les phénomènes connus sont explicables à l’aide des quatre (ou cinq) interactions fondamentales connues… Il n’existe donc pas de manifestation connue d’une sixième force.

Four fondamental interactions

Four Fundamental Interactions The forces of gravity and electromagnetism are familiar in everyday life. Two new forces are introduced when discussing nuclear phenomena: the strong and weak interactions. When two protons encounter each other, they experience all four of the fundamental forces of nature simultaneously. The weak force governs beta decay and neutrino interactions with nuclei. The strong force, which we generally call the nuclear force, is actually the force that binds quarks together to form baryons (3 quarks) and mesons (a quark and an anti-quark). The nucleons of everyday matter, neutrons and protons consist of the quark combinations uud and udd, respectively. The symbol u represents a single up quark, while the symbol d represents a single down quark. The force that holds nucleons together to form an atomic nucleus can be thought to be a residual interaction between quarks inside each individual nucleon. This is analogous to what happens in a molecule. The electrons in an atom are bound to its nucleus by electromagnetism: when two atoms are relatively near, there is a residual interaction between the electron clouds that can form a covalent bond. The nucleus can thus be thought of as a “strong force molecule.” The force between two objects can be described as the exchange of a particle. The exchange particle transfers momentum and energy between the two objects, and is said to mediate the interaction. A simple analogue of this is a ball being thrown back and forth between two people. The momentum imparted to the ball by one person gets transferred to the other person when she catches the ball. The potential energy associated with each force acting between two protons is characterized by both the strength of the interaction and the range over which the interaction takes place. In each case the strength is determined by a coupling constant, Table 4-1. Strength and range of the four fundamental forces between two protons. Note that the strong force acts between quarks by an exchange of gluons. The residual strong force between two protons can be described by the exchange of a neutral pion. Note the W± is not included as an exchange particle for the weak interaction because it is not exchanged in the simplest proton-proton interaction. Interaction Gravity Weak Electromagnetism Exchange particle Graviton Z0 Photon Strong Residual Mass Pion 0 mc2 (eV) 91×109 0 135 x 106 Coupling constant C2 (J · m) 1.87×10-64 3.22×10-31 2.31×10-28 2.5 x10-27 Range (m) ∞ 2 x 10-18 ∞ 1.5 x 10-15 4-1 Chapter 4—Four Fundamental Interactions and the range is characterized by the mass of the exchanged particle. The potential energy, U, between two protons a distance r apart is written as 2 =− U Crr R ( exp / ) where R is the range of the interaction, and C2, is the strength of the interaction. In each case the interaction is due to the exchange of some particle whose mass determined the range of the interaction, R = h/mc. The exchanged particle is said to mediate the interaction. Table 4-1 shows a comparison between the coupling constants and ranges of the four forces acting between two protons. Although the graviton has not yet been observed, it is thought that there is an exchange particle associated with gravity and that eventually gravity will be described in a unified theory with the other three forces of nature. Fig. 4-1. A representation of the strong force. Depending on the complexity of the problem, scientists use different formulations. The range of the gravitational and electromagnetic forces is infinite, while the ranges of the strong and weak forces are very short. Also, the strength of the interaction depends on the separation between the two protons. Both gravitation and electromagnetism are of infinite range and their strengths decrease as the separation, r, increases—falling off as 1/r2. On the other hand, because the exchange particles for the strong and weak forces have a large mass, the force associated with them is zero outside of a short range. 4-2 Chapter 4—Four Fundamental Interactions Note that the strong force between two protons is a residual interaction. The quarks inside the nucleons interact through the exchange of gluons that carry a quantum number called “color” (i.e., a “color-neutral” object does not feel the strong force, like an electrically neutral object does not feel electromagnetism). Figure 4-1 shows three different ways that the strong force can be viewed. The theory of strong interactions among quarks and gluons is called Quantum Chromodynamics (QCD). A very successful model of describing this residual force is by the exchange of the π (pi) meson, or pion. This description, dating back to the work of Yukawa in the 1930s, works extremely well except at very short distances, and is generally used to describe most of the properties of complex nuclei. Exactly at what distance inside the nucleus, or correspondingly at what values of momentum transferred between the nucleons, the pion exchange model breaks down is the subject of much current research in nuclear physics. It is presently thought that this transition occurs somewhere around momentum transfers of 1 GeV/c. Books and Articles: James O’Connell, Comparison of the Four Fundamental Interactions of Physics, The Physics Teacher 36, 27 (1998). Richard A. Carrigan and W. Petter Trower (Ed.), Particles and Forces: At the Heart of Matter: Readings from Scientific American Magazine, W.H. Freeman Co., 1989. 4-3

Mis en avant

Fission nucléaire et fusion nucléaire : quelle différence ? | Dossier Radioactivity

Pour consulter ce dossier, cliquez sur le lien ci-dessous.

L’énergie atomique à la portée de l’humanité

La fission et la fusion sont deux grandes classes de transformation nucléaire provoquée, c’est à dire qu’elles ne se produisent qu’après une intervention extérieure.

Les réactions de fission résultent du bombardment d’un noyau lourd par un neutron.

Œuvres artisanale

Les réactions de fusion résultent de l’assemblage de noyaux légers pour donner naissance à un noyau plus lourd qu’eux-mêmes

Pour plus d’informations sur la fission et la fusion, cliquez sur le lien ci-dessous

https://www.futura-sciences.com/sciences/dossiers/physique-energie-nucleaire-a-z-126/page/5/

Avec la découverte de la radioactivité, les physiciens sont confrontés à un problème de taille : lors des réactions de désintégration, la masse des éléments produits est toujours plus faible que celle des éléments au départ. Mais où est passée cette masse manquante ?
La réponse est donnée en 1905 par le physicien EINSTEIN quand sa théorie de la relativité restreinte l’amène à formuler la formule E = m c2. Mettant ainsi en évidence, l’équivalence entre la masse m et l’énergie E.
Cette formule va véritablement révolutionner le monde et permettre le développement de l’industrie nucléaire militaire puis civile. Il recevra le prix Nobel de physique en 1921 pour ses contributions à la physique théorique, spécialement pour la loi de l’effet photoélectrique

Frédéric and Irène Joliot Curie

Frédéric and Irène Joliot-Curie, original names (until 1926) Jean-Frédéric Joliot and Irène Curie, (respectively, born March 19, 1900, Paris, France—died Aug. 14, 1958, Arcouest; born Sept. 12, 1897, Paris—died March 17, 1956, Paris), French physical chemists, husband and wife, who were jointly awarded the 1935 Nobel Prize for Chemistry for their discovery of new radioactive isotopes prepared artificially. They were the son-in-law and daughter of Nobel Prize winners Pierre and Marie Curie.

Irène and Frédéric Joliot-Curie.
Irène and Frédéric Joliot-Curie.Bettmann/Corbis

Irène Curie from 1912 to 1914 prepared for her baccalauréat at the Collège Sévigné and in 1918 became her mother’s assistant at the Institut du Radium of the University of Paris. In 1925 she presented her doctoral thesis on the alpha rays of polonium. In the same year she met Frédéric Joliot in her mother’s laboratory; she was to find in him a mate who shared her interest in science, sports, humanism, and the arts.

Marie Curie
Marie CurieMarie Curie (far right) and her daughter Irène (second from right) posing with their pupils from the American Expeditionary Forces at the Institut du Radium, Paris, 1919.© Photos.com/Jupiterimages

Joliot simultaneously pursued new studies to obtain his licence ès sciences in 1927, taught at the École d’Électricité Industrielle Charliat in order to augment his finances, and learned laboratory techniques under the guidance of Irène Curie. Beginning in 1928 they signed their scientific work jointly.Get a Britannica Premium subscription and gain access to exclusive content.Subscribe Now

In the course of their researches they bombarded boron, aluminum, and magnesium with alpha particles; and they obtained radioactive isotopes of elements not ordinarily radioactive, namely, nitrogenphosphorus, and aluminum. These discoveries revealed the possibility of using artificially produced radioactive isotopes to follow chemical changes and physiological processes, and such applications were soon successful; the absorption of radioiodine by the thyroid gland was detected, and the course of radiophosphorus (in the form of phosphates) was traced in the metabolism of the organism. The production of these unstable atomic nuclei afforded further means for the observation of changes in the atom as these nuclei broke down. The Joliot-Curies observed also the production of neutrons and positive electrons in the changes that they studied; and their discovery of artificial radioactive isotopes constituted an important step toward the solution of the problem of releasing the energy of the atom, since the method of Enrico Fermi, using neutrons instead of alpha particles for the bombardments which led to the fission of uranium, was an extension of the method developed by the Joliot-Curies for producing radioelements artificially.

In 1935 Frédéric and Irène Joliot-Curie were awarded the Nobel Prize for Chemistry for the synthesis of new radioactive isotopes. The Joliot-Curies then moved into a home at the edge of the Parc de Sceaux. They left it only for visits to their house in Brittany at Pointe de l’Arcouest, where university families had been meeting together since the time of Marie Curie. And, for the sake of Irène’s lungs, they visited the mountains of Courchevel during the 1950s.

Frédéric, appointed professor at the Collège de France in 1937, devoted a part of his activities to preparing new sources of radiation. He then supervised the construction of electrostatic accelerators at Arcueil-Cachan and at Ivry and a cyclotron of seven million electron volts at the Collège de France, the second (after the Soviet Union) installation of equipment of this type in Europe.

Irène then devoted her time largely to the upbringing of their children, Hélène and Pierre. But both she and Frédéric had a lofty idea of their human and social responsibilities. They had joined the Socialist Party in 1934 and the Comité de Vigilance des Intellectuels Antifascistes (Vigilance Committee of Anti-Fascist Intellectuals) in 1935. They also took a stand in 1936 on the side of Republican Spain. Irène was one of three women to participate in the Popular Front government of 1936. As undersecretary of state for scientific research, she helped to lay the foundations, with Jean Perrin, for what would later become the Centre National de la Recherche Scientifique (National Centre for Scientific Research).

Pierre and Marie Curie had decided to publish everything. This was also the attitude adopted by the Joliot-Curies for the discovery of artificial radioactive isotopes. But anxiety resulting from the rise of Nazism and the awareness of the dangers that could result from the application of chain reactions led them to cease publication. On Oct. 30, 1939, they recorded the principle of nuclear reactors in a sealed envelope, which they deposited at the Académie des Sciences; it remained secret until 1949. Frédéric chose to remain in occupied France with his family and to make certain that the Germans who came into his laboratory could not use his work or his equipment, whose removal to Germany he prevented. The Joliot-Curies continued their research, notably in biology; after 1939, Frédéric demonstrated, with Antoine Lacassagne, the use of radioactive iodine as a tracer in the thyroid gland. He became a member of the Académie de Médecine in 1943.

But the struggle against the occupying forces began to require more and more of his attention. In November of 1940 he denounced the imprisonment of Paul Langevin. In June of 1941 he took part in the founding of the National Front Committee, of which he became the president. In the spring of 1942, after the execution by the Nazis of the theoretical physicist J. Solomon, Frédéric joined the French Communist Party, of which in 1956 he became a member of the central committee. He created the Société d’Études des Applications des Radio-éléments Artificiels, an industrial company that gave work certificates to scientists and thus prevented their being sent to Germany. In May 1944, Irène and their children took refuge in Switzerland, and Frédéric lived in Paris under the name of Jean-Pierre Gaumont. His laboratory at the Collège de France, at which he organized the production of explosives, served as an arsenal during the battle for the liberation of Paris. In recognition, he was designated a commander of the Legion of Honour with a military title and was decorated with the Croix de Guerre.

In France, after the liberation in 1944, Frédéric was elected to the Académie des Sciences and was entrusted with the position of director of the Centre National de la Recherche Scientifique.

Then, in 1945 General de Gaulle authorized Frédéric and the minister of armaments to create the Commissariat à l’Energie Atomique to ensure for France the applications of the discoveries made in 1939. Irène devoted her scientific experience and her abilities as an administrator to the acquisition of raw materials, the prospecting for uranium, and the construction of detection installations. In 1946 she was also appointed director of the Institut du Radium. Frédéric’s efforts culminated in the deployment, on Dec. 15, 1948, of ZOE (zéro, oxyde d’uranium, eau lourde), the first French nuclear reactor, which, though only moderately powerful, marked the end of the Anglo-Saxon monopoly. In April 1950, however, during the climax of the cold war and anticommunism, Prime Minister Georges Bidault removed him without explanation from his position as high commissioner, and a few months later Irène was also deprived of her position as commissioner in the Commissariat à l’Energie Atomique. They devoted themselves henceforth to their own laboratory work, to teaching, and to various peace movements. Irène wrote the entry on polonium for the 1949 printing of the 14th edition of the Encyclopædia Britannica.

During the 1950s, following several operations, Irène’s health began to decline. In May of 1953 Frédéric had the first attack of hepatitis from which he was to suffer for five years, with a serious relapse in 1955. In 1955 Irène drew up plans for the new nuclear physics laboratories at the Université d’Orsay, south of Paris, where teams of scientists could work with large particle accelerators under conditions less cramped than in the Parisian laboratories. Early in 1956 Irène was sent into the mountains, but her condition did not improve. Wasted away by leukemia as her mother had been, she again entered the Curie Hospital, where she died in 1956.

Ill and knowing that his days were also numbered, Frédéric decided to carry on Irène’s unfinished work. In September 1956 he accepted the position of professor at the University of Paris left vacant by Irène, at the same time occupying his own chair at the Collège de France. He successfully completed the establishment of the Orsay laboratories and saw the start of research there in 1958.

Radioactivity

radioactivity, property exhibited by certain types of matter of emitting energy and subatomic particles spontaneously. It is, in essence, an attribute of individual atomic nuclei.

An unstable nucleus will decompose spontaneously, or decay, into a more stable configuration but will do so only in a few specific ways by emitting certain particles or certain forms of electromagnetic energy. Radioactive decay is a property of several naturally occurring elements as well as of artificially produced isotopes of the elements. The rate at which a radioactive element decays is expressed in terms of its half-life; i.e., the time required for one-half of any given quantity of the isotope to decay. Half-lives range from more than 1024 years for some nuclei to less than 10−23 second (see below Rates of radioactive transitions). The product of a radioactive decay process—called the daughter of the parent isotope—may itself be unstable, in which case it, too, will decay. The process continues until a stable nuclide has been formed.

The nature of radioactive emissions

The emissions of the most common forms of spontaneous radioactive decay are the alpha (α) particle, the beta (β) particle, the gamma (γ) ray, and the neutrino. The alpha particle is actually the nucleus of a helium-4 atom, with two positive charges 4/2He. Such charged atoms are called ions. The neutral helium atom has two electrons outside its nucleus balancing these two charges. Beta particles may be negatively charged (beta minus, symbol e), or positively charged (beta plus, symbol e+). The beta minus [β] particle is actually an electron created in the nucleus during beta decay without any relationship to the orbital electron cloud of the atom. The beta plus particle, also called the positron, is the antiparticle of the electron; when brought together, two such particles will mutually annihilate each other. Gamma rays are electromagnetic radiations such as radio waves, light, and X-rays. Beta radioactivity also produces the neutrino and antineutrino, particles that have no charge and very little mass, symbolized by ν and ν, respectively.

In the less common forms of radioactivity, fission fragments, neutrons, or protons may be emitted. Fission fragments are themselves complex nuclei with usually between one-third and two-thirds the charge Z and mass A of the parent nucleus. Neutrons and protons are, of course, the basic building blocks of complex nuclei, having approximately unit mass on the atomic scale and having zero charge or unit positive charge, respectively. The neutron cannot long exist in the free state. It is rapidly captured by nuclei in matter; otherwise, in free space it will undergo beta-minus decay to a proton, an electron, and an antineutrino with a half-life of 12.8 minutes. The proton is the nucleus of ordinary hydrogen and is stable.Get a Britannica Premium subscription and gain access to exclusive content.Subscribe Now

Types of radioactivity

The early work on natural radioactivity associated with uranium and thorium ores identified two distinct types of radioactivity: alpha and beta decay.

Alpha decay

In alpha decay, an energetic helium ion (alpha particle) is ejected, leaving a daughter nucleus of atomic number two less than the parent and of atomic mass number four less than the parent. An example is the decay (symbolized by an arrow) of the abundant isotope of uranium238U, to a thorium daughter plus an alpha particle:Depiction of the products of a radioactive decay.

Given for this and subsequent reactions are the energy released (Q) in millions of electron volts (MeV) and the half-life (t1⁄2). It should be noted that in alpha decays the charges, or number of protons, shown in subscript are in balance on both sides of the arrow, as are the atomic masses, shown in superscript.

Beta-minus decay

In beta-minus decay, an energetic negative electron is emitted, producing a daughter nucleus of one higher atomic number and the same mass number. An example is the decay of the uranium daughter product thorium-234 into protactinium-234:Depiction of the products of a radioactive decay.

In the above reaction for beta decay, ν represents the antineutrino. Here, the number of protons is increased by one in the reaction, but the total charge remains the same, because an electron, with negative charge, is also created.

Gamma decay

A third type of radiation, gamma radiation, usually accompanies alpha or beta decay. Gamma rays are photons and are without rest mass or charge. Alpha or beta decay may simply proceed directly to the ground (lowest energy) state of the daughter nucleus without gamma emission, but the decay may also proceed wholly or partly to higher energy states (excited states) of the daughter. In the latter case, gamma emission may occur as the excited states transform to lower energy states of the same nucleus. (Alternatively to gamma emission, an excited nucleus may transform to a lower energy state by ejecting an electron from the cloud surrounding the nucleus. This orbital electron ejection is known as internal conversion and gives rise to an energetic electron and often an X-ray as the atomic cloud fills in the empty orbital of the ejected electron. The ratio of internal conversion to the alternative gamma emission is called the internal-conversion coefficient.)

Isomeric transitions

There is a wide range of rates of half-lives for the gamma-emission process. Usually dipole transitions (see below Gamma transition), in which the gamma ray carries off one ℏ unit of angular momentum, are fast, less than nanoseconds (one nanosecond equals 10−9 second). The law of conservation of angular momentum requires that the sum of angular momenta of the radiation and daughter nucleus is equal to the angular momentum (spin) of the parent. If the spins of initial and final states differ by more than one, dipole radiation is forbidden, and gamma emission must proceed more slowly by a higher multipole (quadrupole, octupole, etc.) gamma transition. If the gamma-emission half-life exceeds about one nanosecond, the excited nucleus is said to be in a metastable, or isomeric, state (the names for a long-lived excited state), and it is customary to classify the decay as another type of radioactivity, an isomeric transition. An example of isomerism is found in the protactinium-234 nucleus of the uranium-238 decay chain:Depiction of the products of a radioactive decay.

The letter m following the mass number stands for metastable and indicates a nuclear isomer.

Beta-plus decay

During the 1930s new types of radioactivity were found among the artificial products of nuclear reactions: beta-plus decay, or positron emission, and electron capture. In beta-plus decay an energetic positron is created and emitted, along with a neutrino, and the nucleus transforms to a daughter, lower by one in atomic number and the same in mass number. For instance, carbon-11 (Z = 6) decays to boron-11 (Z = 5), plus one positron and one neutrino:Depiction of the products of a radioactive decay.

Electron capture

Electron capture (EC) is a process in which decay follows the capture by the nucleus of an orbital electron. It is similar to positron decay in that the nucleus transforms to a daughter of one lower atomic number. It differs in that an orbital electron from the cloud is captured by the nucleus with subsequent emission of an atomic X-ray as the orbital vacancy is filled by an electron from the cloud about the nucleus. An example is the nucleus of beryllium-7 capturing one of its inner electrons to give lithium-7:Depiction of the products of a radioactive decay.

The main features of radioactive decay of a nuclear species are often displayed in a decay scheme. Figure 1 shows the decay scheme of beryllium-7. Indicated are the half-life of the parent and that of the excited daughter state, as well as its energy 0.4774 MeV. The spins and parities of all three states are provided on the upper left-hand side of the level. The multipolarity of the gamma ray (magnetic dipole, M1, plus 0.005 percent electric quadrupole, E2) is indicated above the vertical arrow symbolizing the gamma transition. The slanted arrows symbolize the electron-capture decay with labels giving the percentage of decay directly to ground state (89.7 percent) and the percentage of EC decay going via the excited state (10.3 percent). The boldface numbers following the percentages are so-called log ft values, to be encountered below in connection with beta-decay rates. The overall energy release, QEC, is indicated below. The QEC is necessarily a calculated value because there is no general practical means of measuring the neutrino energies accompanying EC decay. With a few electron-capturing nuclides, it has been possible to measure directly the decay energy by measurement of a rare process called inner bremsstrahlung (braking radiation). In this process the energy release is shared between the neutrino and a gamma ray. The measured distribution of gamma-ray energies indicates the total energy release. Usually there is so much ordinary gamma radiation with radioactive decay that the inner bremsstrahlung is unobservable.

decay of beryllium-7
decay of beryllium-7Figure 1: Radioactive decay of beryllium-7 to lithium-7 by electron capture (EC; see text).Encyclopædia Britannica, Inc.

Spontaneous fission

Yet another type of radioactivity is spontaneous fission. In this process the nucleus splits into two fragment nuclei of roughly half the mass of the parent. This process is only barely detectable in competition with the more prevalent alpha decay for uranium, but for some of the heaviest artificial nuclei, such as fermium-256, spontaneous fission becomes the predominant mode of radioactive decay. Kinetic-energy releases from 150 to 200 MeV may occur as the fragments are accelerated apart by the large electrical repulsion between their nuclear charges. The reaction is as follows:Depiction of the products of a radioactive decay.

Only one of several product sets is shown. A few neutrons are always emitted in fission of this isotope, a feature essential to chain reactions. Spontaneous fission is not to be confused with induced fission, the process involved in nuclear reactors. Induced fisson is a property of uranium-235, plutonium-239, and other isotopes to undergo fission after absorption of a slow neutron. Other than the requirement of a neutron capture to initiate it, induced fission is quite similar to spontaneous fission regarding total energy release, numbers of secondary neutrons, and so on (see nuclear fission).

Proton radioactivity

Proton radioactivity, discovered in 1970, is exhibited by an excited isomeric state of cobalt-53, 53mCo, 1.5 percent of which emits protons:Depiction of the products of a radioactive decay.

Special beta-decay processes

In addition to the above types of radioactivity, there is a special class of rare beta-decay processes that gives rise to heavy-particle emission. In these processes the beta decay partly goes to a high excited state of the daughter nucleus, and this state rapidly emits a heavy particle.

One such process is beta-delayed neutron emission, which is exemplified by the following reaction:Depiction of the products of a radioactive decay.

(Note: the asterisk denotes the short-lived intermediate excited states of oxygen-17, and Emax n denotes the maximum energy observed for emitted neutrons.) There is a small production of delayed neutron emitters following nuclear fission, and these radioactivities are especially important in providing a reasonable response time to allow control of nuclear fission reactors by mechanically moved control rods.

Among the positron emitters in the light-element region, a number beta decay partly to excited states that are unstable with respect to emission of an alpha particle. Thus, these species exhibit alpha radiation with the half-life of the beta emission. Both the positron decay from boron-8 and electron decay from lithium-8 are beta-delayed alpha emission, because ground as well as excited states of beryllium-8 are unstable with respect to breakup into two alpha particles. Another example, sodium-20 (20Na) to give successively neon-20 (20Ne; the asterisk again indicating the short-lived intermediate state) and finally oxygen-16 is listed below:Depiction of the products of a radioactive decay.

In a few cases, positron decay leads to an excited nuclear state not able to bind a proton. In these cases, proton radiation appears with the half-life of the beta transition. The combination of high positron-decay energy and low proton-binding energy in the daughter ground state is required. In the example given below, tellurium-111 (111Te) yields antimony-111 (111Sb) and then tin-110 (110Sn) successively:Depiction of the products of a radioactive decay.

Heavy-ion radioactivity

In 1980 A. Sandulescu, D.N. Poenaru, and W. Greiner described calculations indicating the possibility of a new type of decay of heavy nuclei intermediate between alpha decay and spontaneous fission. The first observation of heavy-ion radioactivity was that of a 30-MeV, carbon-14 emission from radium-223 by H.J. Rose and G.A. Jones in 1984. The ratio of carbon-14 decay to alpha decay is about 5 × 10−10. Observations also have been made of carbon-14 from radium-222, radium-224, and radium-226, as well as neon-24 from thorium-230, protactinium-231, and uranium-232. Such heavy-ion radioactivity, like alpha decay and spontaneous fission, involves quantum-mechanical tunneling through the potential-energy barrier. Shell effects play a major role in this phenomenon, and in all cases observed to date the heavy partner of carbon-14 or neon-24 is close to doubly magic lead-208 (see below Nuclear models).

Occurrence of radioactivity

Some species of radioactivity occur naturally on Earth. A few species have half-lives comparable to the age of the elements (about 6 × 109 years), so that they have not decayed away after their formation in stars. Notable among these are uranium-238, uranium-235, and thorium-232. Also, there is potassium-40, the chief source of irradiation of the body through its presence in potassium of tissue. Of lesser significance are the beta emitters vanadium-50, rubidium-87, indium-115, tellurium-123, lanthanum-138, lutetium-176, and rhenium-187, and the alpha emitters cerium-142, neodymium-144, samarium-147, gadolinium-152, dysprosium-156, hafnium-174, platinum-190, and lead-204. Besides these approximately 109-year species, there are the shorter-lived daughter activities fed by one or another of the above species; e.g., by various nuclei of the elements between lead (Z = 82) and thorium (Z = 90).

Another category of natural radioactivity includes species produced in the upper atmosphere by cosmic ray bombardment. Notable are 5,720-year carbon-14 and 12.3-year tritium (hydrogen-3), 53-day beryllium-7, and 2,700,000-year beryllium-10. Meteorites are found to contain additional small amounts of radioactivity, the result of cosmic ray bombardments during their history outside the Earth’s atmospheric shield. Activities as short-lived as 35-day argon-37 have been measured in fresh falls of meteorites. Nuclear explosions since 1945 have injected additional radioactivities into the environment, consisting of both nuclear fission products and secondary products formed by the action of neutrons from nuclear weapons on surrounding matter.

The fission products encompass most of the known beta emitters in the mass region 75–160. They are formed in varying yields, rising to maxima of about 7 percent per fission in the mass region 92–102 (light peak of the fission yield versus atomic mass curve) and 134–144 (heavy peak). Two kinds of delayed hazards caused by radioactivity are recognized. First, the general radiation level is raised by fallout settling to Earth. Protection can be provided by concrete or earth shielding until the activity has decayed to a sufficiently low level. Second, ingestion or inhalation of even low levels of certain radioactive species can pose a special hazard, depending on the half-life, nature of radiations, and chemical behaviour within the body. For a detailed discussion on the biological effects of radiation, see radiation: Biological effects of ionizing radiation.

Nuclear reactors also produce fission products but under conditions in which the activities may be contained. Containment and waste-disposal practices should keep the activities confined and eliminate the possibility of leaching into groundwaters for times that are long compared to the half-lives. A great advantage of thermonuclear fusion power over fission power, if it can be practically realized, is not only that its fuel reserves, heavy hydrogen and lithium, are vastly greater than uranium, but also that the generation of radioactive fission product wastes can be largely avoided. In this connection, it may be noted that a major source of heat in the interior of both the Earth and the Moon is provided by radioactive decay. Theories about the formation and evolution of the Earth, Moon, and other planets must take into account these large heat production sources.

Desired radioactivities other than natural activities and fission products may be produced either by irradiation of certain selected target materials by reactor neutrons or by charged particle beams or gamma ray beams of accelerators.

Energetics and kinetics of radioactivity

Energy release in radioactive transitions

Consideration of the energy release of various radioactive transitions leads to the fundamental question of nuclear binding energies and stabilities. A much-used method of displaying nuclear-stability relationships is an isotope chart, those positions on the same horizontal row corresponding to a given proton number (Z) and those on the same vertical column to a given neutron number (N). Such a map is shown in Figure 2. The irregular bold line surrounds the region of presently known nuclei. The area encompassed by this is often referred to as the valley of stability because the chart may be considered a map of a binding energy surface, the lowest areas of which are the most stable. The most tightly bound nuclei of all are the abundant iron and nickel isotopes. Near the region of the valley containing the heaviest nuclei (largest mass number A; i.e., largest number of nucleons, N + Z), the processes of alpha decay and spontaneous fission are most prevalent; both these processes relieve the energetically unfavourable concentration of positive charge in the heavy nuclei.

Along the region that borders on the valley of stability on the upper left-hand side are the positron-emitting and electron-capturing radioactive nuclei, with the energy release and decay rates increasing the farther away the nucleus is from the stability line. Along the lower right-hand border region, beta-minus decay is the predominant process, with energy release and decay rates increasing the farther the nucleus is from the stability line.

The grid lines of the graph are at the nucleon numbers corresponding to extra stability, the “magic numbers” (see below Nuclear models). The circles labeled “deformed regions” enclose regions in which nuclei should exhibit cigar shapes; elsewhere the nuclei are spherical. Outside the dashed lines nuclei would be unbound with respect to neutron or proton loss and would be exceedingly short-lived (less than 10−19 second).

Calculation and measurement of energy

By the method of closed energy cycles, it is possible to use measured radioactive-energy-release (Q) values for alpha and beta decay to calculate the energy release for unmeasured transitions. An illustration is provided by the cycle of four nuclei below:Cycle of four nuclei undergoing two beta decays, and two alpha decays.

In this cycle, energies from two of the alpha decays and one beta decay are measurable. The unmeasured beta-decay energy for bismuth-211, Qβ−(Bi), is readily calculated because conservation of energy requires the sum of Q values around the cycle to be zero. Thus, Qβ−(Bi) + 7.59 − 1.43 − 6.75 = 0. Solving this equation gives Qβ−(Bi) = 0.59 MeV. This calculation by closed energy cycles can be extended from stable lead-207 back up the chain of alpha and beta decays to its natural precursor uranium-235 and beyond. In this manner the nuclear binding energies of a series of nuclei can be linked together. Because alpha decay decreases the mass number A by 4, and beta decay does not change A, closed α−β-cycle calculations based on lead-207 can link up only those nuclei with mass numbers of the general type A = 4n + 3, in which n is an integer. Another, the 4n series, has as its natural precursor thorium-232 and its stable end product lead-208. Another, the 4n + 2 series, has uranium-238 as its natural precursor and lead-206 as its end product.READ MORE ON THIS TOPICatom: Radioactive decayThe nuclei of most everyday atoms are stable—that is, they do not change over time. This statement is somewhat misleading, however, because…

In early research on natural radioactivity, the classification of isotopes into the series cited above was of great significance because they were identified and studied as families. Newly discovered radioactivities were given symbols relating them to the family and order of occurrence therein. Thus, thorium-234 was known as UX1, the isomers of protactinium-234 as UX2 and UZ, uranium-234 as UII, and so forth. These original symbols and names are occasionally encountered in more recent literature but are mainly of historical interest. The remaining 4n + 1 series is not naturally occurring but comprises well-known artificial activities decaying down to stable thallium-205.

To extend the knowledge of nuclear binding energies, it is clearly necessary to make measurements to supplement the radioactive-decay energy cycles. In part, this extension can be made by measurement of Q values of artificial nuclear reactions. For example, the neutron-binding energies of the lead isotopes needed to link the energies of the four radioactive families together can be measured by determining the threshold gamma-ray energy to remove a neutron (photonuclear reaction); or the energies of incoming deuteron and outgoing proton in the reaction can be measured to provide this information.

Further extensions of nuclear-binding-energy measurements rely on precision mass spectroscopy (see spectroscopy). By ionizing, accelerating, and magnetically deflecting various nuclides, their masses can be measured with great precision. A precise measurement of the masses of atoms involved in radioactive decay is equivalent to direct measurement of the energy release in the decay process. The atomic mass of naturally occurring but radioactive potassium-40 is measured to be 39.964008 amu. Potassium-40 decays predominantly by β-emission to calcium-40, having a measured mass 39.962589. Through Einstein’s equation, energy is equal to mass (m) times velocity of light (c) squared, or E = mc2, the energy release (Q) and the mass difference, Δm, are related, the conversion factor being one amu, equal to 931.478 MeV. Thus, the excess mass of potassium-40 over calcium-40 appears as the total energy release Qβ in the radioactive decay Qβ− = (39.964008 − 39.962589) × 931.478 MeV = 1.31 MeV. The other neighbouring isobar (same mass number, different atomic number) to argon-40 is also of lower mass, 39.962384, than potassium-40. This mass difference converted to energy units gives an energy release of 1.5 MeV, this being the energy release for EC decay to argon-40. The maximum energy release for positron emission is always less than that for electron capture by twice the rest mass energy of an electron (2m0c2 = 1.022 MeV); thus, the maximum positron energy for this reaction is 1.5 − 1.02, or 0.48 MeV.

To connect alpha-decay energies and nuclear mass differences requires a precise knowledge of the alpha-particle (helium-4) atomic mass. The mass of the parent minus the sum of the masses of the decay products gives the energy release. Thus, for alpha decay of plutonium-239 to uranium-235 and helium-4 the calculation goes as follows:Calculation showing the 5.24 MeV of energy released in the alpha decay of plutonium-239 to uranium-235 and helium-4.

By combining radioactive-decay-energy information with nuclear-reaction Q values and precision mass spectroscopy, extensive tables of nuclear masses have been prepared. From them the Q values of unmeasured reactions or decay may be calculated.

Alternative to the full mass, the atomic masses may be expressed as mass defect, symbolized by the Greek letter delta, Δ (the difference between the exact mass M and the integer A, the mass number), either in energy units or atomic mass units.

Absolute nuclear binding energy

The absolute nuclear binding energy is the hypothetical energy release if a given nuclide were synthesized from Z separate hydrogen atoms and N (equal to A − Z) separate neutrons. An example is the calculation giving the absolute binding energy of the stablest of all nuclei, iron-56:Calculation showing that the binding energy of iron-56 is 492.58 MeV.

A general survey of the average binding energy per nucleon (for nuclei of all elements grouped according to ascending mass) shows a maximum at iron-56 falling off gradually on both sides to about 7 MeV at helium-4 and to about 7.4 MeV for the most massive nuclei known. Most of the naturally occurring nuclei are thus not stable in an absolute nuclear sense. Nuclei heavier than iron would gain energy by degrading into nuclear products closer to iron, but it is only for the elements of greatest mass that the rates of degradation processes such as alpha decay and spontaneous fission attain observable rates. In a similar manner, nuclear energy is to be gained by fusion of most elements lighter than iron. The coulombic repulsion between nuclei, however, keeps the rates of fusion reactions unobservably low unless the nuclei are subjected to temperatures of greater than 107 K. Only in the hot cores of the Sun and other stars or in thermonuclear bombs or controlled fusion plasmas are these temperatures attained and nuclear-fusion energy released.

Nuclear models

The liquid-drop model

The average behaviour of the nuclear binding energy can be understood with the model of a charged liquid drop. In this model, the aggregate of nucleons has the same properties of a liquid drop, such as surface tensioncohesion, and deformation. There is a dominant attractive-binding-energy term proportional to the number of nucleons A. From this must be subtracted a surface-energy term proportional to surface area and a coulombic repulsion energy proportional to the square of the number of protons and inversely proportional to the nuclear radius. Furthermore, there is a symmetry-energy term of quantum-mechanical origin favouring equal numbers of protons and neutrons. Finally, there is a pairing term that gives slight extra binding to nuclei with even numbers of neutrons or protons.

The pairing-energy term accounts for the great rarity of odd–odd nuclei (the terms odd–odd, even–even, even–odd, and odd–even refer to the evenness or oddness of proton numberZ, and neutron number, N, respectively) that are stable against beta decay. The sole examples are deuterium, lithium-6, boron-10, and nitrogen-14. A few other odd–odd nuclei, such as potassium-40, occur in nature, but they are unstable with respect to beta decay. Furthermore, the pairing-energy term makes for the larger number of stable isotopes of even-Z elements, compared to odd-Z, and for the lack of stable isotopes altogether in element 43, technetium, and element 61, promethium.

The beta-decay energies of so-called mirror nuclei afford one means of estimating nuclear sizes. For example, the neon and fluorine nuclei, 19/10Ne9 and 19/9F10, are mirror nuclei because the proton and neutron numbers of one of them equal the respective neutron and proton numbers of the other. Thus, all binding-energy terms are the same in each except for the coulombic term, which is inversely proportional to the nuclear radius. Such calculations along with more direct determinations by high-energy electron scattering and energy measurements of X-rays from muonic atoms (hydrogen atoms in which the electrons are replaced by negative muons) establish the nuclear charge as roughly uniformly distributed in a sphere of radius 1.2 A1⁄3 × 10−13 centimetre. That the radius is proportional to the cube root of the mass number has the great significance that the average density of all nuclei is nearly constant.

Careful examination of nuclear-binding energies reveals periodic deviations from the smooth average behaviour of the charged-liquid-drop model. An extra binding energy arises in the neighbourhood of certain numbers of neutrons or protons, the so-called magic numbers (2, 8, 20, 28, 50, 82, and 126). Nuclei such as 4/2He216/8O840/20Ca2048/20Ca28, and 208/82Pb126 are especially stable species, doubly magic, in view of their having both proton and neutron numbers magic. These doubly magic nuclei are situated at the intersections of grid lines on Figure 2 above.

The shell model

In the preceding section, the overall trends of nuclear binding energies were described in terms of a charged-liquid-drop model. Yet there were noted periodic binding-energy irregularities at the magic numbers. The periodic occurrence of magic numbers of extra stability is strongly analogous to the extra electronic stabilities occurring at the atomic numbers of the noble-gas atoms. The explanations of these stabilities are quite analogous in atomic and nuclear cases as arising from filling of particles into quantized orbitals of motion. The completion of filling of a shell of orbitals is accompanied by an extra stability. The nuclear model accounting for the magic numbers is, as previously noted, the shell model. In its simplest form, this model can account for the occurrence of spin zero for all even–even nuclear ground states; the nucleons fill pairwise into orbitals with angular momenta canceling. The shell model also readily accounts for the observed nuclear spins of the odd-mass nuclei adjacent to doubly magic nuclei, such as 208/82Pb. Here, the spins of 1/2 for neighbouring 207/81Tl and 207/82Pb are accounted for by having all nucleons fill pairwise into the lowest energy orbits and putting the odd nucleon into the last available orbital before reaching the doubly magic configuration (the Pauli exclusion principle dictates that no more than two nucleons may occupy a given orbital, and their spins must be oppositely directed); calculations show the last available orbitals below lead-208 to have angular momentum 1/2. Likewise, the spins of 9/2 for 209/82Pb and 209/83Bi are understandable because spin-9/2 orbitals are the next available orbitals beyond doubly magic lead-208. Even the associated magnetization, as expressed by the magnetic dipole moment, is rather well explained by the simple spherical-shell model.

The orbitals of the spherical-shell model are labeled in a notation close to that for electronic orbitals in atoms. The orbital configuration of calcium-40 has protons and neutrons filling the following orbitals: 1s1/2, 1p3/2, 1p1/2, 1d5/2, and 1d3/2. The letter denotes the orbital angular momentum in usual spectroscopic notation, in which the letters spdfghi, etc., represent integer values of l running from zero for s (not to be confused with spins) through six for i. The fractional subscript gives the total angular momentum j with values of l + 1/2 and l − 1/2 allowed, as the intrinsic spin of a nucleon is 1/2. The first integer is a radial quantum number taking successive values 1, 2, 3, etc., for successively higher energy values of an orbital of given l and j. Each orbital can accommodate a maximum of 2j + 1 nucleons. The exact order of various orbitals within a shell differs somewhat for neutrons and protons (see table for the orbitals comprising each shell). The parity associated with an orbital is even (+) if l is even (sdgi) and odd (−) if l is odd (pfh).

shell closure number
21s1/2
81p3/2, 1p
201d5/2, 2s1/2, 1d3/2
281f7/2
502p3/2, 1f5/2, 2p1/2, 1g9/2
821g7/2, 2d5/2, 1h11/2, 2d3/2, 3s1/2
1262f7/2, 1h9/2, 1i13/2, 3p3/2, 2f5/2, 3p1/2
184 (?)2g9/2, 1i11/2, 1j15/2, 3d5/2, 2g7/2, 4s1/2, 3d3/2

An example of a spherical-shell-model interpretation is provided by the beta-decay scheme of 2.2-minute thallium-209 shown below, in which spin and parity are given for each state. The ground and lowest excited states of lead-209 are to be associated with occupation by the 127th neutron of the lowest available orbitals above the closed shell of 126. From the last line of the table, it is to be notedImage showing the beta-decay scheme of 2.2-minute thallium-209.that there are available g9/2d5/2, and s1/2 orbitals with which to explain the ground and first two excited states. Low-lying states associated with the i11/2 and j15/2 orbitals are known from nuclear-reaction studies, but they are not populated in the beta decay.

The 2.13-MeV state that receives the primary beta decay is not so simply interpreted as the other states. It is to be associated with the promotion of a neutron from the 3p1/2 orbital below the 126 shell closure. The density (number per MeV) of states increases rapidly above this excitation, and the interpretations become more complex and less certain.

By suitable refinements, the spherical-shell model can be extended further from the doubly magic region. Primarily, it is necessary to drop the approximation that nucleons move independently in orbitals and to invoke a residual force, mainly short-range and attractive, between the nucleons. The spherical-shell model augmented by residual interactions can explain and correlate around the magic regions a large amount of data on binding energies, spins, magnetic moments, and the spectra of excited states.

The collective model

For nuclei more removed from the doubly magic regions, the spherical-shell model encounters difficulty in explaining the large observed electric quadrupole moments indicating cigar-shaped nuclei. For these nuclei a hybrid of liquid-drop and shell models, the collective model, has been proposed. (See the circular regions of Figure 2 for occurrence of cigar-shaped nuclei.)

Nucleons can interact with one another in a collective fashion to deform the nuclear shape to a cigar shape. Such large spheroidal distortions are usual for nuclei far from magic, notably with 150 ≲ A ≲ 190, and 224 ≲ A (the symbol < denotes less than, and ∼ means that the number is approximate). In these deformed regions the collective model prescribes that orbitals be computed in a cigar-shaped potential and that the relatively low-energy rotational excitations of the tumbling motion of the cigar shape be taken into account. The collective model has been highly successful in correlating and predicting nuclear properties in deformed regions. An example of a nuclear rotational band (a series of adjacent states) is provided by the decay of the isomer hafnium-180m, in Figure 3, through a cascade of gamma rays down the ground rotational band (see below Gamma transition for explanation of M2, E1, E2, and E3).

decay of hafnium-180
decay of hafnium-180Figure 3: The decay scheme of hafnium-180m (see text).Encyclopædia Britannica, Inc.

Rates of radioactive transitions

There is a vast range of the rates of radioactive decay, from undetectably slow to unmeasurably short. Before considering the factors governing particular decay rates in detail, it seems appropriate to review the mathematical equations governing radioactive decay and the general methods of rate measurement in different ranges of half-life.

Exponential-decay law

Radioactive decay occurs as a statistical exponential rate process. That is to say, the number of atoms likely to decay in a given infinitesimal time interval (dN/dt) is proportional to the number (N) of atoms present. The proportionality constant, symbolized by the Greek letter lambda, λ, is called the decay constant. Mathematically, this statement is expressed by the first-order differential equation,Equation.

This equation is readily integrated to giveEquation.in which N0 is the number of atoms present when time equals zero. From the above two equations it may be seen that a disintegration rate, as well as the number of parent nuclei, falls exponentially with time. An equivalent expression in terms of half-life t1⁄2 isEquations.

It can readily be shown that the decay constant λ and half-life (t1⁄2) are related as follows: λ = loge2/t1⁄2 = 0.693/t1⁄2. The reciprocal of the decay constant λ is the mean life, symbolized by the Greek letter tau, τ.

For a radioactive nucleus such as potassium-40 that decays by more than one process (89 percent β−, 11 percent electron capture), the total decay constant is the sum of partial decay constants for each decay mode. (The partial half-life for a particular mode is the reciprocal of the partial decay constant times 0.693.) It is helpful to consider a radioactive chain in which the parent (generation 1) of decay constant λ1 decays into a radioactive daughter (generation 2) of decay constant λ2. The case in which none of the daughter isotope (2) is originally present yields an initial growth of daughter nuclei followed by its decay. The equation giving the number (N2) of daughter nuclei existing at time t in terms of the number N1(0) of parent nuclei present when time equals zero isEquation.in which e represents the logarithmic constant 2.71828.

The general equation for a chain of n generations with only the parent initially present (when time equals zero) is as follows:Special Composition: Atomsin which e represents the logarithmic constant 2.71828.Equations.

These equations can readily be modified to the case of production of isotopes in the steady neutron flux of a reactor or in a star. In such cases, the chain of transformations might be mixed with some steps occurring by neutron capture and some by radioactive decay. The neutron-capture probability for a nucleus is expressed in terms of an effective cross-sectional area. If one imagines the nuclei replaced by spheres of the same cross-sectional area, the rate of reaction in a neutron flux would be given by the rate at which neutrons strike the spheres. The cross section is usually symbolized by the Greek letter sigma, σ, with the units of barns (10−24 cm2) or millibarns (10−3 b) or microbarns (10−6 b). Neutron flux is often symbolized by the letters nv (neutron density, n, or number per cubic centimetre, times average speed, v) and given in neutrons per square centimetre per second.

The modification of the transformation equations merely involves substituting the product nvσi in place of λi for any step involving neutron capture rather than radioactive decay. Reactor fluxes nv even higher than 1015 neutrons per square centimetre per second are available in several research reactors, but usual fluxes are somewhat lower by a factor of 1,000 or so. Tables of neutron-capture cross sections of the naturally occurring nuclei and some radioactive nuclei can be used for calculation of isotope production rates in reactors.

Measurement of half-life

The measurement of half-lives of radioactivity in the range of seconds to a few years commonly involves measuring the intensity of radiation at successive times over a time range comparable to the half-life. The logarithm of the decay rate is plotted against time, and a straight line is fitted to the points. The time interval for this straight-line decay curve to fall by a factor of 2 is read from the graph as the half-life, by virtue of equations (1) and (2). If there is more than one activity present in the sample, the decay curve will not be a straight line over its entire length, but it should be resolvable graphically (or by more sophisticated statistical analysis) into sums and differences of straight-line exponential terms. The general equations (4) for chain decays show a time dependence given by sums and differences of exponential terms, though special modified equations are required in the unlikely case that two or more decay constants are identically equal.

For half-lives longer than several years it is often not feasible to measure accurately the decrease in counting rate over a reasonable length of time. In such cases, a measurement of specific activity may be resorted to; i.e., a carefully weighed amount of the radioactive isotope is taken for counting measurements to determine the disintegration rate, D. Then by equation (1) the decay constant λi may be calculated. Alternately, it may be possible to produce the activity of interest in such a way that the number of nuclei, N, is known, and again with a measurement of D equation (1) may be used. The number of nuclei, N, might be known from counting the decay of a parent activity or from knowledge of the production rate by a nuclear reaction in a reactor or accelerator beam.

Half-lives from 100 microseconds to one nanosecond are measured electronically in coincidence experiments. The radiation yielding the species of interest is detected to provide a start pulse for an electronic clock, and the radiation by which the species decays is detected in another device to provide a stop pulse. The distribution of these time intervals is plotted semi-logarithmically, as discussed for the decay-rate treatment, and the half-life is determined from the slope of the straight line.

Half-lives in the range of 100 microseconds to one second must often be determined by special techniques. For example, the activities produced may be deposited on rapidly rotating drums or moving tapes, with detectors positioned along the travel path. The activity may be produced so as to travel through a vacuum at a known velocity and the disintegration rate measured as a function of distance; however, this method usually applies to shorter half-lives in or beyond the range of the electronic circuit.

Species with half-lives shorter than the electronic measurement limit are not considered as separate radioactivities, and the various techniques of determining their half-lives will hence not be cited here.

Decay-rate considerations for various types of radioactivity are given here in the same order as listed above in Types of radioactivity.

Alpha decay

Alpha decay, the emission of helium ions, exhibits sharp line spectra when spectroscopic measurements of the alpha-particle energies are made. For even–even alpha emitters the most intense alpha group or line is always that leading to the ground state of the daughter. Weaker lines of lower energy go to excited states, and there are frequently numerous lines observable.

The main decay group of even–even alpha emitters exhibits a highly regular dependence on the atomic numberZ, and the energy release, Qα. (Total alpha energy release, Qα, is equal to alpha-particle energy, Eα, plus daughter recoil energy needed for conservation of momentum; Erecoil = (mα/[mα + Md])Eα, with mα equal to the mass of the alpha particle and Md the mass of the daughter product.) As early as 1911 the German physicist Johannes Wilhelm Geiger, together with the British physicist John Mitchell Nuttall, noted the regularities of rates for even–even nuclei and proposed a remarkably successful equation for the decay constant, log λ = a + b log r, in which r is the range in air, b is a constant, and a is given different values for the different radioactive series. The decay constants of odd alpha emitters (odd A or odd Z or both) are not quite so regular and may be much smaller. The values of the constant b that were used by Geiger and Nuttall implied a roughly 90th-power dependence of λ on Qα. There is a tremendous range of known half-lives from the 2 × 1015 years of 144/60Nd (neodymium) with its 1.83-MeV alpha-particle energy (Eα) to the 0.3 microsecond of 212/84Po (polonium) with Eα = 8.78 MeV.

The theoretical basis for the Geiger–Nuttall empirical rate law remained unknown until the formulation of wave mechanics. A dramatic early success of wave mechanics was the quantitative theory of alpha-decay rates. One curious feature of wave mechanics is that particles may have a nonvanishing probability of being in regions of negative kinetic energy. In classical mechanics a ball that is tossed to roll up a hill will slow down until its gravitational potential energy equals its total energy, and then it will roll back toward its starting point. In quantum mechanics the ball has a certain probability of tunneling through the hill and popping out on the other side. For objects large enough to be visible to the eye, the probability of tunneling through energetically forbidden regions is unobservably small. For submicroscopic objects such as alpha particles, nucleons, or electrons, however, quantum mechanical tunneling can be an important process—as in alpha decay.

The logarithm of tunneling probability on a single collision with an energy barrier of height B and thickness D is a negative number proportional to thickness D, to the square root of the product of B and particle mass m. The size of the proportionality constant will depend on the shape of the barrier and will depend inversely on Planck’s constant h.

In the case of alpha decay, the electrostatic repulsive potential between alpha particle and nucleus generates an energetically forbidden region, or potential barrier, from the nuclear radius out to several times this distance. The maximum height (B) of this alpha barrier is given approximately by the expression B = 2Ze2/R, in which Z is the charge of the daughter nucleus, e is the elementary charge in electrostatic units, and R is the nuclear radius. Numerically, B is roughly equal to 2Z/A1⁄3, with A the mass number and B in energy units of MeV. Thus, although the height of the potential barrier for 212/84Po decay is nearly 28 MeV, the total energy released is Qα = 8.95 MeV. The thickness of the barrier (i.e., distance of the alpha particle from the centre of the nucleus at the moment of recoil) is about twice the nuclear radius of 8.8 × 10−13 centimetre. The tunneling calculation for the transition probability (P) through the barrier gives approximatelyEquation.in which M is the mass of the alpha particle and ℏ is Planck’s constant h divided by 2π. By making simple assumptions about the frequency of the alpha particle striking the barrier, the penetration formula (5) can be used to calculate an effective nuclear radius for alpha decay. This method was one of the early ways of estimating nuclear sizes. In more sophisticated modern techniques the radius value is taken from other experiments, and alpha-decay data and penetrabilities are used to calculate the frequency factor.

The form of equation (5) suggests the correlation of decay rates by an empirical expression relating the half-life (t1⁄2) of decay in seconds to the release energy (Qα) in MeV:Equation.

Values of the constants a and b that give best fits to experimental rates of even–even nuclei with neutron number greater than 126 are given in the table. The nuclei with 126 or fewer neutrons decay more slowly than the heavier nuclei, and constants a and b must be readjusted to fit their decay rates.

ab
98 californium (Cf)152.86−52.9506
96 curium (Cm)152.44−53.6825
94 plutonium (Pu)146.23−52.0899
92 uranium (U)147.49−53.6565
90 thorium (Th)144.19−53.2644
88 radium (Ra)139.17−52.1476
86 radon (Rn)137.46−52.4597
84 polonium (Po)129.35−49.9229
*From correlation of ground-state decay rates of even-even nuclei with N > 126.

The alpha-decay rates to excited states of even–even nuclei and to ground and excited states of nuclei with odd numbers of neutrons, protons, or both may exhibit retardations from equation (6) rates ranging to factors of thousands or more. The factor by which the rate is slower than the rate formula (6) is the hindrance factor. The existence of uranium-235 in nature rests on the fact that alpha decay to the ground and low excited states exhibits hindrance factors of over 1,000. Thus the uranium-235 half-life is lengthened to 7 × 108 years, a time barely long enough compared to the age of the elements in the solar system for uranium-235 to exist in nature today.

The alpha hindrance factors are fairly well understood in terms of the orbital motion of the individual protons and neutrons that make up the emitted alpha particle. The alpha-emitting nuclei heavier than radium are considered to be cigar-shaped, and alpha hindrance factor data have been used to infer the most probable zones of emission on the nuclear surface—whether polar, equatorial, or intermediate latitudes.

Beta decay

The processes separately introduced at the beginning of this section as beta-minus decay, beta-plus decay, and orbital electron capture can be appropriately treated together. They all are processes whereby neutrons and protons may transform to one another by weak interaction. In striking contrast to alpha decay, the electrons (minus or plus charged) emitted in beta-minus and beta-plus decay do not exhibit sharp, discrete energy spectra but have distributions of electron energies ranging from zero up to the maximum energy release, Qβ . Furthermore, measurements of heat released by beta emitters (most radiation stopped in surrounding material is converted into heat energy) show a substantial fraction of the energy, Qβ , is missing. These observations, along with other considerations involving the spins or angular momenta of nuclei and electrons, led Wolfgang Pauli to postulate the simultaneous emission of the neutrino (1931). The neutrino, as a light and uncharged particle with nearly no interaction with matter, was supposed to carry off the missing heat energy. Today, neutrino theory is well accepted with the elaboration that there are six kinds of neutrinos, the electron neutrino, mu neutrino, and tau neutrino and corresponding antineutrinos of each. The electron neutrinos are involved in nuclear beta-decay transformations, the mu neutrinos are encountered in decay of muons to electrons, and the tau neutrinos are produced when a massive lepton called a tau breaks down.

Although in general the more energetic the beta decay the shorter is its half-life, the rate relationships do not show the clear regularities of the alpha-decay dependence on energy and atomic number.

The first quantitative rate theory of beta decay was given by Enrico Fermi in 1934, and the essentials of this theory form the basis of modern theory. As an example, in the simplest beta-decay process, a free neutron decays into a proton, a negative electron, and an antineutrino: n → p + e + ν. The weak interaction responsible for this process, in which there is a change of species (n to p) by a nucleon with creation of electron and antineutrino, is characterized in Fermi theory by a universal constantg. The sharing of energy between electron and antineutrino is governed by statistical probability laws giving a probability factor for each particle proportional to the square of its linear momentum (defined by mass times velocity for speeds much less than the speed of light and by a more complicated, relativistic relation for faster speeds). The overall probability law from Fermi theory gives the probability per unit time per unit electron energy interval, P(W), as follows:Equation.in which W is the electron energy in relativistic units (W = 1 + E/m0c2) and W0 is the maximum (W0 = 1 + Qβ/m0c2), m0 the rest mass of the electron, c the speed of light, and h Planck’s constant. This rate law expresses the neutron beta-decay spectrum in good agreement with experiment, the spectrum falling to zero at lowest energies by the factor W and falling to zero at the maximum energy by virtue of the factor (W0 − W)2.

In Fermi’s original formulation, the spins of an emitted beta and neutrino are opposing and so cancel to zero. Later work showed that neutron beta decay partly proceeds with the 1/2 ℏ spins of beta and neutrino adding to one unit of ℏ. The former process is known as Fermi decay (F) and the latter Gamow–Teller (GT) decay, after George Gamow and Edward Teller, the physicists who first proposed it. The interaction constants are determined to be in the ratio gGT2/gF2 = 1.4. Thus, g2 in equation (7) should be replaced by (gF2 + gGT2).

The scientific world was shaken in 1957 by the measurement in beta decay of maximum violation of the law of conservation of parity. The meaning of this nonconservation in the case of neutron beta decay considered above is that the preferred direction of electron emission is opposite to the direction of the neutron spin. By means of a magnetic field and low temperature it is possible to cause neutrons in cobalt-60 and other nuclei, or free neutrons, to have their spins set preferentially in the up direction perpendicular to the plane of the coil generating the magnetic field. The fact that beta decay prefers the down direction for spin means that the reflection of the experiment as seen in a mirror parallel to the coil represents an unphysical situation: conservation of parity, obeyed by most physical processes, demands that experiments with positions reversed by mirror reflection should also occur. Further consequences of parity violation in beta decay are that spins of emitted neutrinos and electrons are directed along the direction of flight, totally so for neutrinos and partially so by the ratio of electron speed to the speed of light for electrons.

The overall half-life for beta decay of the free neutron, measured as 12 minutes, may be related to the interaction constants g2 (equal to gF2 + gGT2) by integrating (summing) probability expression (7) over all possible electron energies from zero to the maximum. The result for the decay constant isEquation.in which W0 is the maximum beta-particle energy in relativistic units (W0 = 1 + Qβ/m0c2), with m0 the rest mass of the electron, c the speed of light, and h Planck’s constant. The best g value from decay rates is approximately 10−49 erg per cubic centimetre. As may be noted from equation (8), there is a limiting fifth-power energy dependence for highest decay energies.

In the case of a decaying neutron not free but bound within a nucleus, the above formulas must be modified. First, as the nuclear charge Z increases, the relative probability of low-energy electron emission increases by virtue of the coulombic attraction. For positron emission, which is energetically impossible for free protons but can occur for bound protons in proton-rich nuclei, the nuclear coulomb charge suppresses lower energy positrons from the shape given by equation (7). This equation can be corrected by a factor F(Z,W) depending on the daughter atomic number Z and electron energy W. The factor can be calculated quantum mechanically. The coulomb charge also affects the overall rate expression (8) such that it can no longer be expressed as an algebraic function, but tables are available for analysis of beta decay rates. The rates are analyzed in terms of a function f(Z,Qβ) calculated by integration of equation (7) with correction factor F(Z,W).

Approximate expressions for the f functions usable for decay energies Q between 0.1 MeV and 10 MeV, in which Q is measured in MeV, and Z is the atomic number of the daughter nucleus, are as follows (the symbol ≈ means approximately equal to):Equations.

For electron capture, a much weaker dependence on energy is found:Equation.

The basic beta decay rate expression obeyed by the class of so-called superallowed transitions, including decay of the neutron and several light nuclei isEquation.

Like the ground-to-ground alpha transitions of even–even nuclei, the superallowed beta transitions obey the basic rate law, but most beta transitions go much more slowly. The extra retardation is explained in terms of mismatched orbitals of neutrons and protons involved in the transition. For the superallowed transitions the orbitals in initial and final states are almost the same. Most of them occur between mirror nuclei, with one more or less neutron than protons; i.e., beta-minus decay of hydrogen-3, electron capture of beryllium-7 and positron emission of carbon-11, oxygen-15, neon-19, . . . titanium-43.

The nuclear retardation of beta decay rates below those of the superallowed class may be expressed in a fundamental way by multiplying the right side of equation (9) by the square of a nuclear matrix element (a quantity of quantum mechanics), which may range from unity down to zero depending on the degree of mismatch of initial and final nuclear states of internal motion. A more usual way of expressing the nuclear factor of the beta rate is the log ft value, in which f refers to the function f(Z,Qβ). Because the half-life is inversely proportional to the decay constant λ, the product fβt1⁄2 will be a measure of (inversely proportional to) the square of the nuclear matrix element. For the log ft value, the beta half-life is taken in seconds, and the ordinary logarithm to the base 10 is used. The superallowed transitions have log ft values in the range of 3 to 3.5. Beta log ft values are known up to as large as ∼ 23 in the case of indium-115. There is some correlation of log ft values with spin changes between parent and daughter nucleons, the indium-115 decay involving a spin change of four, whereas the superallowed transitions all have spin changes of zero or one.

Gamma transition

The nuclear gamma transitions belong to the large class of electromagnetic transitions encompassing radio-frequency emission by antennas or rotating molecules, infrared emission by vibrating molecules or hot filaments, visible light, ultraviolet light, and X-ray emission by electronic jumps in atoms or molecules. The usual relations apply for connecting frequency ν, wavelength λ, and photon quantum energy E with speed of light c and Planck’s constant h; namely, λ = c/ν and E = hv. It is sometimes necessary to consider the momentum (p) of the photon given by p = E/c.

Classically, radiation accompanies any acceleration of electric charge. Quantum mechanically there is a probability of photon emission from higher to lower energy nuclear states, in which the internal state of motion involves acceleration of charge in the transition. Therefore, purely neutron orbital acceleration would carry no radiative contribution.

A great simplification in nuclear gamma transition rate theory is brought about by the circumstance that the nuclear diameters are always much smaller than the shortest wavelengths of gamma radiation in radioactivity—i.e., the nucleus is too small to be a good antenna for the radiation. The simplification is that nuclear gamma transitions can be classified according to multipolarity, or amount of spin angular momentum carried off by the radiation. One unit of angular momentum in the radiation is associated with dipole transitions (a dipole consists of two separated equal charges, plus and minus). If there is a change of nuclear parity, the transition is designated electric dipole (E1) and is analogous to the radiation of a linear half-wave dipole radio antenna. If there is no parity change, the transition is magnetic dipole (M1) and is analogous to the radiation of a full-wave loop antenna. With two units of angular momentum change, the transition is electric quadrupole (E2), analogous to a full-wave linear antenna of two dipoles out-of-phase, and magnetic quadrupole (M2), analogous to coaxial loop antennas driven out-of-phase. Higher multipolarity radiation also frequently occurs with radioactivity.

Transition rates are usually compared to the single-proton theoretical rate, or Weisskopf formula, named after the American physicist Victor Frederick Weisskopf, who developed it. The table gives the theoretical reference rate formulas in their dependence on nuclear mass number A and gamma-ray energy Eγ (in MeV).

transition typepartial half-life tγ (seconds)illustrative tγ values for A = 125, E = 0.1 MeV (seconds)
E15.7 × 10−15 E −3 A−2/32 × 10−13
E26.7 × 10−9 E −5 A−4/31 × 10−6
E31.2 × 10−2 E −7 A−28
E43.4 × 104 E −9 A−8/39 × 107
E51.3 × 1011 E −11 A−10/31 × 1015
M12.2 × 10−14 E −32 × 10−11
M22.6 × 10−8 E −5 A−2/31 × 10−4
M34.9 × 10−2 E −7 A−4/38 × 102
M41.3 × 105 E −9 A−28 × 109
M55.0 × 1011 E −11 A−8/31 × 1017
*The energies E are expressed in MeV. The nuclear radius parameter r0 has been taken as 1.3 fermis. It is to be noted that tγ is the partial half-life for γ emission only; the occurrence of internal conversion will always shorten the measured half-life.

It is seen for the illustrative case of gamma energy 0.1 MeV and mass number 125 that there occurs an additional factor of 107 retardation with each higher multipole order. For a given multipole, magnetic radiation should be a factor of 100 or so slower than electric. These rate factors ensure that nuclear gamma transitions are nearly purely one multipole, the lowest permitted by the nuclear spin change. There are many exceptions, however; mixed M1–E2 transitions are common, because E2 transitions are often much faster than the Weisskopf formula gives and M1 transitions are generally slower. All E1 transitions encountered in radioactivity are much slower than the Weisskopf formula. The other higher multipolarities show some scatter in rates, ranging from agreement to considerable retardation. In most cases the retardations are well understood in terms of nuclear model calculations.

Though not literally a gamma transition, electric monopole (E0) transitions may appropriately be mentioned here. These may occur when there is no angular momentum change between initial and final nuclear states and no parity change. For spin-zero to spin-zero transitions, single gamma emission is strictly forbidden. The electric monopole transition occurs largely by the ejection of electrons from the orbital cloud in heavier elements and by positron–electron pair creation in the lighter elements.

Applications of radioactivity

In medicine

Radioisotopes have found extensive use in diagnosis and therapy, and this has given rise to a rapidly growing field called nuclear medicine. These radioactive isotopes have proven particularly effective as tracers in certain diagnostic procedures. As radioisotopes are identical chemically with stable isotopes of the same element, they can take the place of the latter in physiological processes. Moreover, because of their radioactivity, they can be readily traced even in minute quantities with such detection devices as gamma-ray spectrometers and proportional counters. Though many radioisotopes are used as tracers, iodine-131, phosphorus-32, and technetium-99m are among the most important. Physicians employ iodine-131 to determine cardiac outputplasma volume, and fat metabolism and particularly to measure the activity of the thyroid gland where this isotope accumulates. Phosphorus-32 is useful in the identification of malignant tumours because cancerous cells tend to accumulate phosphates more than normal cells do. Technetium-99m, used with radiographic scanning devices, is valuable for studying the anatomic structure of organs.

Such radioisotopes as cobalt-60 and cesium-137 are widely used to treat cancer. They can be administered selectively to malignant tumours and so minimize damage to adjacent healthy tissue.

In industry

In science

Research in the Earth sciences has benefited greatly from the use of radiometric-dating techniques, which are based on the principle that a particular radioisotope (radioactive parent) in geologic material decays at a constant known rate to daughter isotopes. Using such techniques, investigators have been able to determine the ages of various rocks and rock formations and thereby quantify the geologic time scale (see geochronology: Absolute dating). A special application of this type of radioactivity age method, carbon-14 dating, has proved especially useful to physical anthropologists and archaeologists. It has helped them to better determine the chronological sequence of past events by enabling them to date more accurately fossils and artifacts from 500 to 50,000 years old.

Radioisotopic tracers are employed in environmental studies, as, for instance, those of water pollution in rivers and lakes and of air pollution by smokestack effluents. They also have been used to measure deep-water currents in oceans and snow-water content in watersheds. Researchers in the biological sciences, too, have made use of radioactive tracers to study complex processes. For example, thousands of plant metabolic studies have been conducted on amino acids and compounds of sulfur, phosphorus, and nitrogen.John O. RasmussenEllis P. Steinberg

Mis en avant

Plante médicinale

Le thé des jardins, aussi appelé thé de Moldavie, ou dracocephalum en latin, est une plante qui appartient à la grande famille des sauges. On la cultive en annuelle, car elle ne survit pas à l’hiver, même doux. Les intérêts de cette lamiacée sont nombreux. Elle attire au jardin les pollinisateurs grâce à ses superbes fleurs violines qui apparaissent en été. Les feuilles et les fleurs peuvent être consommées en infusion, dont le goût citronné est assez proche de celui de la verveine citronnelle. Ses vertus médicinales sont également intéressantes à découvrir, notamment ses propriétés digestives, antiseptiques et immunostimulantes.

Pour avoir une ample idée sur les plantes aromatiques, suivez le lien ci-dessous

Plante médicinale
valeur de la santé
Faite attention à votre santé avant que ça ne soit tard

Photos de quelques plantes aromatiques, de la zone méditerranée, utiliser comme additifs dans la cuisine

Mis en avant

Education — Le petit monde de fanfan la rêveuse

L’éducation est l’arme la plus puissante qu’on puisse utiliser pour changer le monde. Nelson Mendela La jeunesse, comme la verdure, pare la terre; mais l’éducation la couvre de moissons. Rivarol L’éducation, c’est la boussole de la vie Franck Somkine. Bonjour les amis, Quelques petites phrases pour cette semaine, de banals mots, mais avec tant de […]

Education — Le petit monde de fanfan la rêveuse
Mis en avant

De la relativité des réputations : Einstein ou Poincaré ?

Question : qu’est-ce que la relativité ? Qui l’a inventé : Poincaré ou Einstein ? Ou bien le deuxième a fini ce que le premier a commencé ?

Les libraires des sous-préfectures ont de la chance : les Œuvres complètes d’Albert Einstein seront bientôt disponibles en langue française, grâce au CNRS et aux éditions du Seuil. Quant à ceux, parmi leurs clients, qui souhaiteraient aussi acquérir les ouvrages de Louis de Broglie ou de Henri Poincaré, ils devront attendre que le Centre national […]

Pour consulter tout l’article, cliquez sur le lien ci-dessous

De la relativité des réputations : Einstein ou Poincaré ?
Mis en avant

Apprendre autrement , repenser l’apprentissage

La plupart, qui ont fait leurs études en lycée et en université se plaignent de la physique chimie, ils trouvent ses matières difficile et ne comprennent pas la méthode selon laquelle elles fonctionnent . Pourtant la physique et la chimie sont trés proche de nous , beaucoup plus que les autres matières, même les sentiments et l’émotion sont de la chimie , un ensemble d’hormones et d’influx électrique qui régissent nos comportements.

théatre comme moyens de formation de la culture scientifique

peut être que notre société, qualifié de conservative et notre façon de penser , abstraite , à qui manquait la production et du concret. Autant de valeurs qui font que notre façon de vivre est en discorde avec la réalité physique , basé sur des principes de causalité , de logique , de raisonnement , d’observation , d’interprétation , d’analyse et de synthèse.

La majorité des élèves ne connaissent rien des phénomènes et des idées physico-chimique et ils vont à l’école sans rien connaitre de ce qu’on va leurs faire enseigner , parfois des sujets de leurs environnements et parfois des idées dont ils n’ont jamais écouté parler.

C’est cette ignorance qui crée un fossé entre les apprenants et la physique chimie ; pour faire face à ce problème , les sociétés développées ont mis en oeuvre un ensemble de moyens pour diffuser la culture scientifique auprès d’un grand public : la production de support audio-visuels de vulgarisation de la science , musées qui montre l’évolution logique et progressive des idées et des théories -obstacles et avancés – , les livres qui traitent de la connaissance scientifique d’une façon simple pour l’approcher du grand public , le théâtre scientifique , oui du théâtre !

Ainsi , les élèves de ces pays en arrivant à l’école , ils ont déjà une idée , peut être sommaire , mais suffisante pour qu’ils puissent comprendre les leçons de la science.

C’est cette démarche qui part du commune au spécifique , qui peut faciliter l’apprentissage de la science et contribuer à combattre l’échec et la pensée mythique qui prédomine notre façon de penser.

Voir ce document vidéà , ça va vous étonné. !

https://www.canal-u.tv/video/cerimes/changements_d_etat.9081

L’enseignement pour battre l’ignorance
Mis en avant

La pensée mythique (1)

Il faut surpasser les imbéciles

pour définir la pensée mythique , on peut dire que c’est une façon de pensée qui s’oppose à la pensée scientifique – irrationnel – , j’écrivais un blog sur la pensée scientifique.

Un marocain , comme tout les citoyens des pays sous-développés et quelques habitants des pays occidentaux – on ne citera pas les indigènes qui vivent encore une vie primaire – portaient des éléments de la pensée mythique et croyaient aux miracles sans distinction entre les analphabètes et ceux qui ont pu suivre leurs enseignements et qui ont pu obtenir des diplômes universitaires de haut niveau.

sorcellerie

Bien sùr , en général , il n’ y a pas de grande relation entre le niveau d’enseignement est la raison , juste parce que la méthode d’enseignement et la vie sociale ne favorise pas l’émergence de la pensée scientifique qui relie les conséquences à leurs causes.

Aux écoles , la méthode la plus utilisé est la méthode dogmatique , même si certains enseignants utilisent les nouvelles technologies de l’information et de communication , c’est pour la forme et pour accélérer le débit des connaissances transmises et gagner du temps pour terminer le programme trop chargé dans les délais fixé.

Face à des élèves, qui sont habitués à entendre et ne pas discuter ce qu’on leurs faits avaler , qui n’ont pas les moyens intellectuels de le faire , et des examens -indicateurs de réussite scolaire et sociale – qui incitent les élèves à reproduire les connaissances et les méthodes qu’ils ont appris par cœur , par les professeurs des différentes matières.

Même les disciplines qualifiées de scientifique se limitent à présenter des connaissances toutes faite , sans parler de leurs origines , sans invoquer les problèmes qui ont induit ses lois enseigner dans le programme . Après le professeur distribue des séries d’exercices pour montrer aux apprenants comment on peut appliquer les lois présentés dans la leçon et faire des calculs dépourvu de tout sens – la plupart des élèves et des familles considère que faire beaucoup d’exercices et le moment le plus important dans l’enseignement des sciences -.

Ce type d’enseignement ne favorise pas les capacités pas les capacités intellectuelles supérieures comme l’analyse , synthèse , critique et jugement , mais incitent les élèves à apprendre par cœur et sans comprendre , et favorise l’apparition des attitudes négatives comme le sentiment de faiblesse envers l’autre et surtout les étrangers , encouragent à pratiquer la triche à l’intérieur de l’école et à l’extérieur.

Ce type d’enseignements est renforcé à l’extérieur de l’école , d’abord à l’intérieur de la famille où l’autorité du père empêche toute discussion et impose ses décisions à tout les membres de la famille- lorsque les grands parles les petits doivent se contenter d’écouter – , prés ils viennent les autres institutions qui doivent encadrer le citoyen pour favoriser la domination de l’état , le plus importants de ces institutions citons les médias sous ces différentes formes , qui représentent les informations d’une façon superficielle , sans aucune analyse ni discussion , qui interdisent à l’opinion opposé de se manifester et à apparaître . Les émissions que diffusent ces médias touchent essentiellement le coté sentimentale et ne font pas éveiller chez le spectateur l’ambition de comprendre et d’analyser les événements et ne l’aide pas à construire un opinion propre.

Cet environnement ne peut que faire répandre la pensée mythique à l’intérieur de la société , lui permet de se manifester sous différente forme et d’habité à l’intérieur de l’inconscient des gens.

Comme le malheur des uns fait le bonheur des autres , il y en a qui tirent profits de cette situation et décident d’exploiter les gens et leurs prendre de l’argent en les considérant comme des proie faciles , ces derniers sont considérés faible et croient à tous ce qu’on leurs dits et ne distingue pas ce qui le bien du mal et se laissent emporter par les premiers – les dominants et les dominés-.

Les premiers civilisations , pour interpréter certains phénomènes qui perturbent leurs vie et dépasse leurs capacités de comprendre on inventé des dieux qui se charge de chaque coté de leurs vies -comme les grecs- et qui commandent chaque chose dans l’univers.

Les habitants des forets et qui habitent lions de toute civilisations ont des sourciers qui se charge de résoudre leurs problèmes physique et psychique .

Dans les pays arabes et musulmans , il y en a ce qu’ont appelle les « Fquihs » ou des « chrifs » , une sorte de gens qui mélange la région islamique -vue que la plupart des habitants de ces régions sont des musulmans – et des pratiques sorcières ancestrales qui puisent leurs origines dans les pensées primaires des premières civilisations qui ont habités cette région du monde , et qui se transmettent de génération au génération à cause de l’ignorance et les idées sombrent qu’ils ont adopté.

dépourvu de tous moyens de raison, en plus de la pauvreté et de la précarité de leurs situations sociales , ces gens sont livrés entre des mains qui les exploitent et font graver leurs situations en leurs proposant des promesses trompeuses en ce qui concerne leurs maladies psychique et organique .

Ce qui a comme conséquence de retarder l’accès des gens au soins auprès des personnes qualifiées , comme les médecins et les psychologues , et ils ne vont que lorsque leurs situations est désespérer. ces promesses ont aussi pour conséquence d’empêcher les gens à faire travailler leurs esprits et de recourir à des stratégies propre pour résoudre leurs problèmes.

à cela s’ajoute l’ignorance et un milieu décourageant toute initiative positive capable de faire évoluer la société , et contribuer au développement de la société.

Malgré les apparences de la modernité, et l’amélioration de la situation matériels de certains couches sociales, les croyances mythiques n’épargne personne , et la facture des pratiques mythiques est proportionnel à la situation financière de la personne.

ETUDES

Du mythe à la raison

LA FORMATION DE LA PENSÉE POSITIVE DANS LA GRÈCE ARCHAÏQUE

La pensée rationnelle a un état civil ; on connaît sa date et son lieu de naissance. C’est au VIé siècle avant notre ère, dans les cités grecques d’Asie Mineure, que surgit une forme de réflexion nouvelle, toute positive, sur la nature. Burnet exprime l’opinion courante quand il remarque à ce sujet : « Les philosophes ioniens ont ouvert la voie, que la science, depuis, n’a eu qu’à suivre * ». La naissance de la philosophie, en Grèce, marquerait ainsi le début de la pensée scientifique, — on pourrait dire : de la pensée tout court. Dans l’Ecole de Milet, pour la première fois, le logos se serait libéré du mythe comme les écailles tombent des yeux de l’aveugle. Plus que d’un changement d’attitude intellectuelle, d’une mutation mentale, il s’agirait d’une révélation décisive et définitive : la découverte de l’esprit 2. Aussi serait-il vain de rechercher dans le passé les origines de la pensée rationnelle. La pensée vraie ne saurait avoir d’autre origine qu’elle-même. Elle est extérieure à l’histoire, qui ne peut rendre raison, dans le développement de l’esprit, que des obstacles, des erreurs et des illusions successives. Tel est le sens du « miracle » grec : à travers la philosophie des Ioniens, on reconnaît, s’incarnant dans le temps, la Raison intemporelle. L’avènement du logos introduirait donc dans l’histoire une discontinuité radicale. Voyageur sans bagages, la philosophie viendrait au monde sans passé, sans parents, sans famille ; elle serait un commencement absolu.

Du même coup, l’homme grec se trouve, dans cette perspective, élevé au-dessus de tous les autres peuples, prédestiné ; en lui le logos s’est fait chair. « S’il a inventé la philosophie, dit encore Burnet, c’est par ses qualités d’intelligence exceptionnelles : l’esprit d’observation joint à la puissance du raisonnement 3 ». Et, par-delà la philosophie grecque, cette supériorité quasi providentielle se transmet à toute la pensée occidentale, issue de l’hellénisme.

1. Early greek philosophy, 3e éd., Londres, 1920, p. v. L’ouvrage a été traduit en français sous le titre : L’aurore de la philosophie grecque. 2. On trouve encore cette interprétation chez Bruno Snklx, dont la perspective, pourtant, est historique. Cf. Die Entdeckung des Geistes. Studien zur Entstehung des europaischen Denkens bei den Griechen, Hambourg, 1948. 3. Greek philosophy from Thaïes to Plato, Londres, 1914, p. 10. Comme l’écrit Mlle Clémence Ramnoux, la physique ionienne, selon Burnet, sauve l’Europe de l’esprit religieux d’Orient : c’est le Marathon de la vie spirituelle ( « Les interprétations modernes d’Anaxi- mandre », Revue de Métaphysique et de Morale, n° 3, juil.-sept. 1954).

183

ANNALES

Au cours des cinquante dernières années, cependant, la confiance de l’Occident en ce monopole de la Raison a été entamée. La crise de la physique et de la science contemporaines a ébranlé les fondements, — qu’on croyait définitifs, — de la logique classique. Le contact avec les grandes civilisations spirituellement différentes de la nôtre, comme l’Inde et la Chine, a fait éclater le cadre de l’humanisme traditionnel. L’Occident ne peut plus aujourd’hui prendre sa pensée pour la pensée, ni saluer dans l’aurore de la philosophie grecque le lever du soleil de l’Esprit. La pensée rationnelle, dans le temps qu’elle s’inquiète de son avenir et qu’elle met en question ses principes, se tourne vers ses origines ; elle interroge son passé pour se situer, pour se comprendre historiquement.

Deux dates jalonnent cet effort. En 1912, Cornford publie From religion to philosophy, où il tente, pour la première fois, de préciser le lien qui unit la pensée religieuse et les débuts de la connaissance rationnelle. Il ne reviendra à ce problème que beaucoup plus tard, au soir de sa vie. Et c’est en 1952 — neuf ans après sa mort — que paraissent, groupées sous le titre Princi- pium sapientiae. The origins of greek philosophical thought, les pages où il établit l’origine mythique et rituelle de la première philosophie grecque.

Contre Burnet, Cornford montre que la « physique » ionienne n’a rien de commun avec ce que nous appelons science ; elle ignore tout de l’expérimentation ; elle n’est pas non plus le produit de l’intelligence observant directement la nature. Elle transpose, dans une forme laïcisée et sur un plan de pensée plus abstraite, le système de représentation que la religion a élaboré. Les cosmologies des philosophes reprennent et prolongent les mythes cosmogoniques. Elles apportent une réponse au même type de question : comment un monde ordonné a-t-il pu émerger du chaos ? Elles utilisent un matériel conceptuel analogue : derrière les « éléments » des Ioniens, se profile la figure d’anciennes divinités de la mythologie. En devenant « nature », les éléments ont dépouillé l’aspect de dieux individualisés ; mais ils restent es puissances actives, animées et impérissables, encore senties comme divines. Le monde d’Homère s’ordonnait par une répartition entre les dieux des domaines et des honneurs : à Zeus, le ciel « éthéré » (aithèr, le feu) ; à Hadès, l’ombre « brumeuse » (aèr, l’air) ; à Poseidon la mer; à tous les trois en commun, Gaia, la terre, où vivent et meurent les hommes 1. Le cosmos des Ioniens s’organise par une division des provinces, une répartition des saisons entre des puissances opposées qui s’équilibrent réciproquement.

Il ne s’agit pas d’une analogie vague. Entre la philosophie d’un Anaxi- mandre et la Théogonie d’un poète inspiré comme Hésiode, Cornford montre que les structures se correspondent jusque dans le détail 2. Bien plus, le

1. Iliade, XV, 189-194. 2. Principium sapientiae, p. 150 à 224. La démonstration est reprise par G. Thomson, Studies in ancient greek society, Vol. П, The first philosophers, Londres, 1955, p. 140 à 172.

184

DU MYTHE A LA RAISON

processus d’élaboration conceptuelle qui aboutit à la construction naturaliste du philosophe est déjà à l’œuvre dans l’hymne religieux de gloire à Zeus que célèbre le poème hésiodique. Le même thème mythique de mise en. ordre du monde s’y répète en effet sous deux formes qui traduisent des niveaux différents d’abstraction.

Dans une première version, le récit met en scène les aventures de person» nages divins 1 : Zeus lutte pour la souveraineté contre Typhon, dragon aux mille voix, puissance de confusion et de désordre. Zeus tue le monstre, dont le cadavre donne naissance aux vents qui soufflent dans l’espace séparant le ciel de la terre. Puis, pressé par les dieux de prendre le pouvoir et le trône des immortels, Zeu? répartit entre eux les « honneurs ». Sous cette forme, le mythe reste très proche du drame rituel dont il est l’illustration, et dont on trouverait le modèle dans la fête royale de création de la Nouvelle Année, au mois Nisan, à Babylone 2. A la fin d’un cycle temporel, — une grande année, — le roi doit réaffirmer sa puissance de souveraineté, mise en question en ce tournant du temps où le monde revient à son point de départ 8. L’épreuve et la victoire royales, rituellement mimées par une lutte contre un dragon, ont la valeur d’une recréation de l’ordre cosmique, saisonnier, sociaL

Le roi est au centre du monde, comme il est au centre de son peuple. Chaque année, il répète l’exploit accompli par Marduk et que célèbre un hymne, VEnuma élis, chanté au quatrième jour de la fête : la victoire du dieu sur Tiamat, monstre femelle, incarnant les puissances de désordre, le retour à l’informe, le chaos. Proclamé roi des dieux, Marduk tue Tiamat, avec l’aide des vents qui s’engouffrent à l’intérieur du monstre. La bête morte, Marduk l’ouvre en deux comme une huître, en jette une moitié en l’air et l’immobilise pour former le ciel. Il règle alors la place et le mouvement des astres, fixe l’année et les mois, crée la race humaine, répartit les privilèges et les destins. A travers rite et mythe babyloniens, s’exprime une pensée qui n’établit pas encore entre l’homme, le monde et les dieux une nette distinction de plan. La puissance divine se concentre dans la personne du roi. La mise en ordre du monde et la régulation du cycle saisonnier apparaissent intégrées à l’activité royale : ce sont des aspects de la fonction de souveraineté. Nature et société sont confondues.

1. ELésiode, Théogonie, 820-871. 2. Comme le note M. E.R. Dodds, qui a revu et publié le manuscrit de Cornford, l’hyv pothèse d’une filiation entre les mythes cosmologiques de la Théogonie d’Hésiode et un ensemble mythico-rituel babylonien a été renforcée par la publication récente d’un texte hittite, l’épopée de Kumarbi, qui fait le lien entre les deux versions (Principium sapientiae* p. 249, n. 1). M. G. Thomson insiste aussi sur le rôle d’intermédiaire qu’a pu jouer une version phénicienne du mythe, dont on trouve l’écho, à date tardive, chez Philon de Byblos, о. с, p. 141 et 153. 8. A Babylone, le rite se célèbre tous les ans, durant les onze jours qui, ajoutés à la fin ďune année lunaire, permettent de la faire coïncider avec l’année solaire, et assurent ainsi, avec la connaissance exacte des saisons, la possibilité de prévoir et d’organiser l’échelonnement des travaux agricoles. Le moment choisi pour intercaler dans l’année les onze jours, t hors temps » était celui de l’équinoxe de printemps, avant le début des labours. Sur les rapports entre la fonction royale, le développement de l’agriculture, le contrôle du temps saisonnier grâce à l’invention du calendrier solaire ou luni-solaire, on trouvera des indications intéressantes dans G. Thomson, о. с, p. 105-130.

ANNALES

Par contre, dans un autre passage du poème d’Hésiode \ le récit de la création de l’ordre se présente dépouillé de toute imagerie mythique, et les noms des protagonistes sont assez transparents pour révéler le caractère « naturel » du processus qui aboutit à l’organisation du cosmos. A l’origine, se trouve Chaos, gouffre sombre, vide aérien où rien n’est distingué. Il faut que Chaos s’ouvre comme une gueule (Xaoç est associé étymologiquement à Х<хст|ла : ouverture béante, \atvw, Xáaxw, Xaa{ifiî|xai : s’ouvrir, béer, bâiller) pour que la Lumière (aithèr) et le Jour, succédant à la Nuit, y pénètrent, illuminant l’espace entre Gaia (la terre) et Ouranos (le ciel), désormais désunis. L’émergence du monde se poursuit avec l’apparition de Pontos (la mer), issu, à son tour, de Gaia. Toutes ces naissances successives se sont opérées, souligne Hésiode, sans Eros (amour) 2 : non par union, mais par ségrégation. Eros est le principe qui rapproche les opposés — comme le mâle et le femelle — et qui les lie ensemble. Tant qu’il n’intervient pas encore, la genesis se fait par séparation d’éléments auparavant unis et confondus (Gaia enfante Ouranos et Pontos).

On reconnaîtra, dans cette seconde version du mythe, la structure de pensée qui sert de modèle à toute la physique ionienne. Cornford en donne schématiquement l’analyse suivante : 1° au début, il y a un état d’indis- tinction où rien n’apparaît ; 2° de cette unité primordiale émergent, par ségrégation, des paires d’opposés, chaud et froid, sec et humide, qui vont différencier dans l’espace quatre provinces : le ciel de feu, l’air froid, la terre sèche, la mer humide ; 3° les opposés s’unissent et interagissent, chacun l’emportant tour à tour sur les autres, suivant un cycle indéfiniment renouvelé, dans les phénomènes météoriques, la succession des saisons, la naissance et la mort de tout ce qui vit, plantes, animaux et hommes 3.

Les notions fondamentales sur lesquelles s’appuie cette construction des Ioniens : ségrégation à partir de l’unité primordiale, lutte et union incessantes des opposés, changement cyclique éternel, révèlent le fond de pensée mythique où s’enracine leur cosmologie 4. Les philosophes n’ont pas eu à inventer un système d’explication du monde ; ils l’ont trouvé tout fait.

1. Théogonie, 116 sq. 2. Ibid., 132. Cf. Cornford, o. c, p. 194 sq. ; Thomson, о. с, p. 151. 3. L’année comprend quatre saisons, comme le cosmos quatre régions. L’été correspond au chaud, l’hiver au froid, le printemps au sec, l’automne à l’humide. Au cours du cycle annuel, chaque « puissance » prédomine pendant un moment, puis doit payer, suivant l’ordre du temps, le prix de son « injuste agression » (Anaximandrk, fr. I), en cédant à son tour la place au principe opposé. A travers ce mouvement alterné d’expansion et de retraite, l’année revient périodiquement à son point de départ. — Le corps de l’homme comprend, lui aussi, quatre humeurs (Hip., Nat. Нот., 7) qui dominent alternativement, suivant les saisons. Cf. Cornford, o. c, p. 168 sq. ; Thomson, o. c, p. 126. 4. La lutte des opposés, figurée chez Heraclite par Polemos, chez Empédocle par Neikos, s’exprime chez Anaximandre par l’injustice — adikia — qu’ils commettent réciproquement à l’égard les uns des autres. L’attraction et l’union des opposés, figurées chez Hésiode par Eros, chez Empédocle par Philia, se traduisent chez Anaximandre par l’interaction des quatre principes, après qu’ils se sont séparés. C’est cette interaction qui donne naissance aux premières créatures vivantes, quand l’ardeur du soleil réchauffe la vase humide de la terre. Pour G. Thomson (o. c, p. 45, 91 et 126), cette forme de pensée, qu’on pourrait appeler une logique de l’opposition et de la complémentarité, doit être mise en rapport avec la

186

DU MYTHE A LA RAISON

L’œuvre de Cornford marque un tournant dans la façon d’aborder le problème des origines de la philosophie et de la pensée rationnelle. Parce qu’il lui fallait combattre la théorie du miracle grec, qui présentait la physique ionienne comme la révélation brusque et inconditionnée de la Raison, Cornford avait pour préoccupation essentielle de rétablir, entre la réflexion philosophique et la pensée religieuse qui l’avait précédée, le fil de la continuité historique ; aussi était-il conduit à rechercher entre l’une et l’autre les aspects de permanence et à insister sur ce qu’on y peut reconnaître de commun. De sorte qu’on a parfois le sentiment, à travers sa démonstration, que les philosophes se contentent de répéter, dans un langage différent, ce que déjà disait le mythe. Aujourd’hui que la filiation, grâce à Cornford, est reconnue, le problème prend nécessairement une forme nouvelle. Il ne s’agit plus seulement de retrouver dans la philosophie l’ancien, mais d’en dégager le véritablement nouveau : ce par quoi la philosophie cesse d’être le mythe pour devenir philosophie. Il faut définir la mutation mentale dont témoigne la première philosophie grecque, préciser sa nature, son ampleur, ses limites, ses conditions historiques.

Cet aspect de la question n’a pas échappé à Cornford. On peut penser qu’il lui aurait donné une place plus large s’il avait pu conduire à son terme son dernier ouvrage. « Dans la philosophie, écrit-il, le mythe est  » rationalisé  » x ». Mais qu’est-ce que cela signifie ? D’abord, qu’il a pris la forme d’un problème explicitement formulé. Le mythe était un récit, non la solution d’un problème. Il racontait la série des actions ordonnatrices du roi ou du dieu, telle que le rite les mimait. Le problème se trouvait résolu sans avoir été posé. Mais, en Grèce, où triomphent, avec la Cité, de nouvelles formes politiques, il ne subsiste plus de l’ancien rituel royal que des vestiges dont le sens s’est perdu 2 ; le souvenir s’est effacé du roi créateur de l’ordre et faiseur du temps 3 ; le rapport n’apparaît plus entre l’exploit mythique du souverain, symbolisé par sa victoire sur le dragon, et l’organisation des phénomènes cosmiques. L’ordre naturel et les faits atmosphériques (pluies, vents, tempêtes, foudres), en devenant indépendants de la fonction royale,

structure sociale la plus archaïque : la complémentarité dans la tribu des deux clans opposés, exogames avec intermariages. La tribu, écrit G. Thomson, est l’unité des opposés. Pour la conception cyclique, Cornford en montre également la persistance chez les Milésîens. Comme l’année, le cosmos revient à son point de départ : l’unité primordiale. L’Illimité — apeiron — est non seulement origine, mais fin du monde ordonné et différencié. Il est principe — arche — source infinie, inépuisable, éternelle, dont tout provient, où tout retourne. L’Illimité est « cycle » dans l’espace et dans le temps. 1. Cornford, о. с, p. 187-188. 2. Une des parties les plus suggestives du livre de G. Thomson est celle où il rattache le cycle de Voctaétéris, qui fait coïncider, en Grèce, l’année lunaire avec l’année solaire, aux formes archaïques de la royauté. On sait que tous les neuf ans Minos fait renouveler dans l’antre de Zeus son pouvoir royal, comme tous les neuf ans, à Sparte, les éphores inspectent les étoiles pour confirmer celui de leurs rois. Les fêtes octenniales des Daphne- phories à Thèbes et du Septerion à Delphes seraient en liaison étroite à la fois avec l’établissement du calendrier à date beaucoup plus ancienne que ne le suppose Nilsson, et avec l’institution royale. 3. Le souvenir affleure encore chez Homère (Odys., XIX, 109), mais, dans l’histoire de Salmoneus, le personnage du roi-magicien et faiseur de temps ne sert plus déjà qu’à illustrer le thème de Vhybris humaine et de sa punition par les dieux.

187

ANNALES

cessent d’être intelligibles dans le langage du mythe où ils s’exprimaient jusqu’alors. Ils se présentent désormais comme des « questions » sur lesquelles la discussion est ouverte. Ce sont ces questions (genèse de l’ordre cosmique et explication des meteora) qui constituent, dans leur forme nouvelle de problème, la matière de la première réflexion philosophique. Le philosophe prend ainsi la relève du vieux roi-magicien, maître du temps : il fait la théorie de ce que le roi, autrefois, effectuait 1.

Chez Hésiode déjà, fonction royale et ordre cosmique se sont dissociés. Le combat de Zeus contre Typhon pour le titre de roi des dieux a perdu sa signification cosmogonique. Il faut toute la science d’un Cornford pour déceler dans les vents qui naissent du cadavre de Typhon ceux qui, s’en- gouffrant à l’intérieur de Tiamat, séparent le ciel de la terre. Inversement, le récit de la genèse du monde décrit un processus naturel, sans attache avec le rite. Cependant, malgré l’effort de délimitation conceptuelle qui s’y marque, la pensée d’Hésiode reste mythique. Ouranos, Gaiab Pontos sont bien des réalités physiques, dans leur aspect concret de ciel, de terre, de mer ; mais ils sont en même temps des puissances divines dont l’action est analogue à celle des hommes. La logique du mythe repose sur cette ambiguïté : jouant sur deux plans, la pensée appréhende le même phénomène, par exemple la séparation de la terre et des eaux, simultanément comme fait naturel dans le monde visible et comme enfantement divin dans le temps primordial. Chez les Milésiens, au contraire, note Cornford après W. Jaeger a, Okeanos et Gaia ont dépouillé tout aspect anthropomorphique pour devenir purement et simplement l’eau et la terre. La remarque, sous cette forme, reste un peu sommaire. Les éléments des Milésiens ne sont pas des personnages mythiques comme Gaia, mais ce ne sont pas non plus des réalités concrètes comme la terre. Ce sont des « puissances » éternellement actives, divines et naturelles tout à la fois. L’innovation mentale consiste en ce que ces puissances sont strictement délimitées et abstraitement conçues : elles se bornent à produire un effet physique déterminé, et cet effet est une qualité générale abstraite. A la place, ou sous le nom de terre et de feu, les Milésiens posent les qualités de sec et de chaud, substantif iées et objectivées par l’emploi nouveau de l’article то, le chaud 3, c’est-à-dire une réalité tout entière définie par l’action de chauffer, et qui n’a plus besoin, pour traduire son aspect de « puissance », d’une contre-partie mythique comme Hephaïstos. Les forces qui ont produit et qui animent le cosmos agissent donc sur le même plan et de la même façon que celles dont nous voyons l’œuvre, chaque jour,

1 . Et il l’effectue, lui aussi, à l’occasion : Empédocle connaît l’art d’arrêter les vents et de changer la pluie en sécheresse. Cf. L. Gernet, « Les origines de la philosophie », Bulletin de Г Enseignement public du Maroc, n° 183, Oct.-Déc. 1945, p. 9. 2. Werner Jaeger, The theology of the early greek philosophers, Oxford, 1947, p. 20-21 ; Cornford, o. c, p. 259. L’exemple de Gaia, retenu par Cornford, n’est pas d’ailleurs des plus heureux. Comme le note Aristote, — et pour les raisons qu’il en donne, — les Milésiens ne font pas jouer, en général, dans leur Physique, un rôle de premier plan à la terre (Meta.t A, 8, 989 sq.). D’autre part, Gaia, comme puissance divine, est assez peu humanisée. 3. Cf. B. Snell, The discovery of the mind, p. 227 sq.

188

DU MYTHE A LA RAISON

quand la pluie humidifie la terre ou qu’un feu sèche un vêtement mouillé. L’originel, le primordial se dépouillent de leur mystère : ils ont la banalité rassurante du quotidien. Le monde des Ioniens, ce monde « plein de dieux », est aussi pleinement naturel.

La révolution, à cet égard, est si ample, elle porte si loin la pensée que, dans ses progrès ultérieurs, la philosophie paraîtra la ramener en arrière. Chez les « Physiciens », la positivité a envahi d’un coup la totalité de l’être, y compris l’homme et les dieux. Rien de réel qui ne soit Nature *. Et cette nature, coupée de son arrière-plan mythique, devient elle-même problème, objet d’une discussion rationnelle. Nature, physis, c’est puissance de vie et de mouvement. Tant que restaient confondus les deux sens de %6ш : produire et enfanter, comme les deux sens de yavestç : origine et naissance, l’explication du devenir reposait sur l’image mythique de l’union sexuelle 2. Comprendre, c’était trouver le père et la mère, dresser l’arbre généalogique. Mais chez les Ioniens, les éléments naturels, devenus abstraits, ne peuvent plus s’unir par mariage à la façon des hommes. La cosmologie, par là, ne modifie pas seulement son langage ; elle change de contenu. Au lieu de raconter les naissances successives, elle définit les principes premiers, constitutifs de l’être. De récit historique, elle se transforme en un système qui expose la structure profonde du réel. Le problème de la genesis, du devenir, se mue en une recherche, par-delà le changeant, du stable, du permanent, de l’identique. En même temps, la notion de physis est soumise à une critique qui la dépouille progressivement de tout ce qu’elle empruntait encore au mythe. On fait appel, de plus en plus, pour rendre raison des changements dans le cosmos, aux modèles qu’offrent les ingéniosités techniques, au lieu de se référer à la vie animale ou à la croissance des plantes. L’homme comprend mieux, et autrement, ce qu’il a lui-même construit. Le mouvement d’une machine s’explique par une structure permanente de la matière, non par les changements qu’engendre le dynamisme vital 3. Le vieux principe mythique d’une « lutte » entre puissances qualitativement opposées, produisant l’émergence des choses, cède la place, chez Anaximène, à un tri mécanique d’éléments qui n’ont plus entre eux que des différences quantitatives. Le domaine

1. L’âme humaine est un morceau de la nature, taillé dans l’étoffe des éléments. Le divin est le fond de la nature, l’inépuisable tissu, la tapisserie toujours en mouvement où, sans fin, se dessinent et s’effacent les formes. 2. Cornford, o. c, p. 180-181. 3. Le recours à un modèle technique ne constitue pas nécessairement, par lui-même, une transformation mentale. Le mythe se sert d’images techniques comme le fait la pensée rationnelle. Il suffit de rappeler la place que l’imagination mythique accorde aux opérations de liage, de tissage, de filage, de modelage, à la roue, à la balance, etc. Mais, à ce niveau de pensée, le modèle technique sert à caractériser un type d’activité, ou la fonction d’un agent : les dieux filent le destin, pèsent les sorts, comme les femmes filent la laine, comme les intendantes la pèsent. Dans la pensée rationnelle, l’image technique assume une fonction nouvelle, structurelle et non plus active. Elle fait comprendre le jeu d’un mécanisme au lieu de définir l’opération d’un agent ; cf. Bruno Snell, The discovery of the mind, p. 215 sq. L’auteur souligne la différence entre la comparaison technique quand il arrive à Homère de l’utiliser, et le parti qu’en tire, par exemple, un Empédocle. Empé- docle ne cherche plus à exprimer une manifestation vitale et active, mais une propriété, une structure permanente d’un objet.

189

ANNALES

de la physis se précise et se limite. Conçu comme un mécanisme, le monde se vide peu à peu du divin qui l’animait chez les premiers physiciens. Du même coup, se pose le problème de l’origine du mouvement ; le divin se concentre en dehors de la nature, en opposition avec la nature, l’impulsant et la réglant de l’extérieur, comme le Nouç d’Anaxagore К

La physique ionienne vient ici rejoindre un courant de pensée différent et, à beaucoup d’égards, opposé 2. On pourrait dire qu’elle vient l’épauler, tant les deux formes de la philosophie naissante apparaissent, dans leur contraste, complémentaires. Sur la terre d’Italie, en Grande-Grèce, les sages mettent l’accent, non plus sur l’unité de la physis, mais sur la dualité de l’homme, saisie dans une expéiience religieuse autant que philosophique : il y a une âme humaine différente du corps, opposée au corps et qui le dirige comme la divinité fait pour la nature. L’âme possède une autre dimension que spatiale, une forme d’action et de mouvement, — la pensée, qui n’est pas déplacement matériel 3. Parente du divin, elle peut dans certaines conditions le connaître, le rejoindre, s’unir à lui, et conquérir une existence libérée du temps et du changement.

Derrière la nature, se reconstitue un arrière-plan invisible, une réalité plus vraie, secrète et cachée, dont l’âme du philosophe a la révélation et qui est le contraire de la physis. Ainsi, dès son premier pas, la pensée rationnelle paraît revenir au mythe 4. Elle paraît seulement. En reprenant à son compte une structure de pensée mythique, elle s’éloigne en fait de son point de départ. Le « dédoublement » de la physis, et la distinction qui en résulte de plusieurs niveaux du réel, accuse et précise cette séparation de la nature, des dieux, de l’homme, qui est la condition première de la pensée rationnelle. Dans le mythe, la diversité des plans recouvrait une ambiguïté qui permettait de les confondre. La philosophie multiplie les plans pour éviter la confusion. A travers elle, les notions d’humain, de naturel, de divin, mieux distinguées, se définissent et s’élaborent réciproquement.

En revanche, ce qui disqualifie la « nature », aux yeux des philosophes, et la ravale au niveau de la simple apparence, c’est que le devenir de la physis n’est pas plus intelligible que la genesis du mythe. L’être authentique

1. Cf. W. Jaeger, о. с, р. 160 et sq. 2. M. P. M. Schuhl a montré que ces deux courants correspondent aux deux tendances antagonistes de la religion et de la culture grecques, et que leur conflit sert d’élément moteur au développement de la philosophie (Essai sur la formation de la pensée grecque. Introduction historique à une étude de la philosophie platonicienne, 2e éd., 1949). 3. B. Snell a suivi, à travers la poésie lyrique grecque ancienne, la découverte de l’âme humaine, dans ce qui constitue ses dimensions proprement spirituelles : intériorité, intensité, subjectivité. Il note l’innovation que constitue l’idée d’une « profondeur » de la pensée. Homère ne connaît pas des expressions comme $аЪч1щщс, 3«9«ФР<«™ : au penser profond ; il dit rcoXv(A7)Ti

<, itoXuçpo>

v : au multiple penser. La notion que les faits intellectuels et spirituels (sentiment, réflexion, connaissance) ont une « profondeur », se dégage dans la poésie archaïque avant de s’exprimer, par exemple, chez Heraclite (о. с, p. 36-37). 4. L’antithèse, fondamentale dans la pensée religieuse, des ça /spa : les choses visibles, et des aôriXa : les choses invisibles, se retrouve transposée dans la philosophie, dans la science, et dans la distinction juridique des biens apparents et non apparents : cf. P. M. Schuhl, « Adèla », Homo. Etudes philosophiques, I, Annales publiées par la Faculté des Lettres de Toulouse, mai 1953, p. 86-94 ; L. Gernet, « Choses visibles et choses invisibles », Revue philosophique, janvier-mars 1956, p. 79-87.

190

DU MYTHE A LA RAISON

que la philosophie, par-delà la nature, veut atteindre et révéler n’est pas le surnaturel mythique ; c’est une réalité d’un tout autre ordre x : la pure abstraction, l’identité à soi, le principe même de la pensée rationnelle, objectivé sous la forme du logos. Chez les Ioniens, l’exigence nouvelle de positivité était du premier coup portée à l’absolu dans le concept de la physis ; chez un Parménide, l’exigence nouvelle d’intelligibilité est portée à l’absolu dans le concept de l’Etre, immuable et identique. Déchirée entre ces deux exigences contradictoires, qui marquent l’une et l’autre également une rupture décisive avec le mythe, la pensée rationnelle s’engage, de système en système, dans une dialectique dont le mouvement engendre l’histoire de la philosophie grecque.

La naissance de la philosophie apparaît donc solidaire de deux grandes transformations mentales : une pensée positive, excluant toute forme de surnaturel et rejetant l’assimilation implicite établie par le mythe entre phénomènes physiques et agents divins ; une pensée abstraite, dépouillant la réalité de cette puissance de changement que lui prêtait le mythe, et récusant l’antique image de l’union des opposés au profit d’une formulation catégorique du principe d’identité.

Sur les conditions qui ont permis, dans la Grèce du vie siècle, cette double révolution, Cornford ne s’explique pas. Mais, dans le demi-siècle qui s’écoule entre la publication de ses deux ouvrages, le problème a été posé par d’autres auteurs. Dans YEssai sur la formation de la pensée grecque, M. P.-M. Schuhl, en introduction à l’étude de la philosophie positive des Milésiens, soulignait l’ampleur des transformations sociales et politiques qui précèdent le vie siècle ; il notait la fonction libératrice qu’ont dû remplir, pour l’esprit, des institutions comme la monnaie, le calendrier, l’écriture alphabétique ; le rôle de la navigation et du commerce dans l’orientation nouvelle de la pensée vers la pratique 2. De son côté, M. B. Farrington rattachait le rationalisme des premiers physiciens d’Ionie au progrès technique dans les riches cités grecques d’Asie Mineure 3. En substituant une interprétation mécanicienne et instrumentaliste de l’univers aux anciens schemes anthro- pomorphiques, la philosophie des Ioniens refléterait l’importance accrue du technique dans la vie sociale de l’époque. Le problème a été repris par M. G. Thomson, qui formule contre la thèse de Farrington une objection

1. Dans la religion, le mythe exprime une vérité essentielle ; il est savoir authentique, modèle de la réalité. Dans la pensée rationnelle, le rapport s’inverse. Le mythe n’est plus que l’image du savoir authentique, et son objet, la génésis, une simple imitation du modèle, l’Etre immuable et éternel. Le mythe définit alors le domaine du vraisemblable, de la croyance, ти<тс, par opposition à la certitude de la science. Pour être conforme au scheme mythique, le dédoublement de la réalité, par la philosophie, en modèle et image n’en a pas moins le sens d’une dévaluation du mythe, ravalé au niveau de l’image. Cf. en particulier Platon, Tintée, 29 sq. 2. P.-M. Schuhl, о. с, p. 151-175. 8. B. Farrington, Greek science, t. I, Londres, 1944, p. 36 sq.

191

ANNALES

décisive. Il est impossible d’établir un lien direct entre pensée rationnelle et développement technique. Sur le plan de la technique, la Grèce n’a rien inventé, rien innové. Tributaire de l’Orient en ce domaine, elle ne l’a jamais réellement dépassé. Et l’Orient, en dépit de son intelligence technique, n’a pas su se dégager du mythe et construire une philosophie rationnelle *. Il faut donc faire intervenir d’autres facteurs, — et M. G. Thomson insiste, à juste titre, sur deux grands groupes de faits : l’absence, en Grèce, d’une monarchie de type oriental, très tôt remplacée par d’autres formes politiques ; les débuts, avec la monnaie, d’une économie mercantile, l’apparition d’une classe de marchands pour lesquels les objets se dépouillent de leur diversité qualitative (valeur d’usage) et n’ont plus que la signification abstraite d’une marchandise semblable à toutes les autres (valeur d’échange). Cependant, si l’on veut serrer de plus près les conditions concrètes dans lesquelles a pu s’opérer la mutation de la pensée religieuse à la pensée rationnelle, il est nécessaire de faire un nouveau détour. La physique ionienne nous a éclairés sur le contenu de la première philosophie ; elle nous y a montré une transposition des mythes cosmogoniques, la « théorie » des phénomènes dont le roi possédait, aux temps anciens, la maîtrise et la pratique. L’autre courant de la pensée rationnelle, la philosophie de Grande-Grèce, va nous permettre de préciser les origines du philosophe lui-même, ses antécédents comme type de personnage humain.

II

A l’aube de l’histoire intellectuelle de la Grèce, on entrevoit toute une lignée de personnalités étranges sur lesquelles Rohde a attiré l’attention 2. Ces figures à demi légendaires, qui appartiennent à la classe des voyants extatiques et des mages purificateurs, incarnent le modèle le plus ancien du « Sage ». Certains sont étroitement associés à la légende de Pythagore, fondateur de la première secte philosophique. Leur genre de vie, leur recherche, leur supériorité spirituelle les placent en marge de l’humanité ordinaire. Au sens strict, ce sont des « hommes divins » ; eux-mêmes, parfois, se proclament des dieux.

Halliday déjà avait noté l’existence, dans une forme archaïque de man- tique enthousiaste, d’une catégorie de devins publics, de demiourgoi, qui présentent à la fois les traits du prophète inspiré, du poète, du musicien, chanteur et danseur, du médecin, purificateur et guérisseur 3. Ce type de devins, très différent du prêtre et opposé, souvent, au roi, jette une première lueur sur la lignée des Aristeas, Abaris, Hermotime, Epimé-

1. G. Thomson, о. c, p. 171-172. 2. E. Rohde, Psyché, Fribourg, 1894 ; éd. française par A. Reymond, Paris, 1952, p. 336 sq. 3. W. R. Halliday, Greek divination. A study of its methods and principles, Londres, 1918.

192

DU MYTHE A LA RAISON

nide et Phérécyde. Tous ces personnages cumulent en effet, eux aussi, les fonctions de devin, de poète et de sage, fonctions associées, qui reposent sur un même pouvoir mantique *. Devin, poète et sage ont en commun une faculté exceptionnelle de voyance au delà des apparences sensibles ; ils possèdent une sorte d’extra-sens qui leur ouvre l’accès à un monde normalement interdit aux mortels.

Le devin est un homme qui voit l’invisible. Il connaît par contact direct les choses et les événements dont il est séparé dans l’espace et dans le temps. Une formule le définit, de façon quasi-rituelle : un homme qui sait toutes choses passées, présentes et à venir 2. Formule qui s’applique aussi bien au poète inspiré, à cette nuance près que le poète tend à se spécialiser plutôt dans l’exploration des choses du passé 3. Dans le cas d’une poésie sérieuse, visant à l’instruction plus qu’au divertissement, les choses du passé que l’inspiration divine fait voir au chanteur, ne consistent pas, comme chez Homère, en un catalogue exact de personnages et d’événements humains, mais, comme chez Hésiode, dans le récit véridique des « origines » : généalogies divines, genèse du cosmos, naissance de l’humanité 4. En divulguant ce qui se cache dans les profondeurs du temps, le poète apporte, dans la forme même de l’hymne, de l’incantation et de l’oracle, la révélation d’une vérité essentielle qui a le double caractère d’un mystère religieux et d’une doctrine de sagesse. Cette ambiguïté, comment ne se retrouverait-elle pas dans le message du premier philosophe ? Il porte, lui aussi, sur une réalité dissimulée derrière les apparences et qui échappe à la connaissance vulgaire. La forme de poème dans laquelle s’exprime encore une doctrine aussi abstraite que celle de Parménide traduit cette valeur de révélation religieuse que garde la philosophie naissante 6. Au même titre que le devin et le poète, encore mêlé à eux, le Sage se définit à l’origine comme l’être exceptionnel qui a la puissance de voir et de faire voir l’invisible. Quand le philosophe cherche à préciser sa propre démarche, la nature de son activité spirituelle, l’objet de sa recherche, il utilise le vocabulaire religieux des sectes et des confréries : il se présente lui-même comme un élu, un бетос àvr[p, qui bénéficie d’une grâce divine ; il effectue dans l’au-delà un voyage mystique, par un chemin de recherche qui évoque la Voie des mystères et au terme duquel il obtient, par une sorte ďépoptie, cette Vision qui consacre le dernier degré de l’initiation e. Abandonnant la foule des « insensés », il entre dans le petit cercle

1. Cornford, o. c, p. 89 sq. 2. Iliade, I, 70 ; cf. Cornford, p. 73 sq. 3. C’est la même formule qu’HÉsiODE emploie dans Théogonie, 32 : les Muses l’ont inspiré pour chanter les choses qui furent et qui seront, . — et Ibid., 38 : elles disent les choses qui sont, qui seront, qui ont été. D’autre part, la divination ne concerne pas moins, dans le principe, le passé que le futur. Un prophète purificateur, comme Epiménide, pourra même restreindre sa compétence divinatoire exclusivement à la découverte des faits passés, demeurés inconnus (Aristote, Rhét. III ; 17 ; 10). 4. Hésiode, Théogonie, 43 sq. Cf. Cornford, o. c, p. 77. 5. Cf. L. Gernet, Les origines de la philosophie, l. c, p. 2. 6. Sur le rapport entre le vocabulaire, les images, les thèmes de pensée, chez un Parménide et dans une tradition de sectes mystiques, cf. L. Gernet, /. c, p. 2-6 ; G. Thomson, o. c, p. 289 sq.

193

Annales (12« année, avril-juin 1957, n« 2) 2

ANNALES

des initiés : ceux qui ont vu, oî «’go-kç, qui savent, ao?oi. Aux divers degrés d’initiation des mystères correspond, dans la confrérie pythagoricienne, la hiérarchie des membres suivant leur degré d’avancement 1 ; comme, chez Heraclite, la hiérarchie des trois types différents d’humanité : ceux qui entendent le logos (qui ont eu Yépopteia), ceux qui l’entendent pour la première fois, sans le comprendre encore (la myesis des nouveaux initiés), ceux qui ne l’ont pas entendu (les amyteoi) 2.

La vision divinatoire du poète inspiré se place sous le signe de la déesse Mnémosyne, Mémoire, mère des Muses. Mémoire ne confère pas la puissance d’évoquer des souvenirs individuels, de se représenter l’ordre des événements évanouis dans le passé. Elle apporte au poète — comme au devin — le privilège de voir la réalité immuable et permanente ; elle le met en contact avec l’être originel, dont le temps, dans sa marche, ne découvre aux humains qu’une infime partie, et pour la masquer aussitôt. Cette fonction révélatrice du réel, attribuée à une mémoire qui n’est pas, comme la nôtre, survol du temps, mais évasion hors du temps, nous la retrouvons transposée dans V anamnesis philosophique 3 : la réminiscence platonicienne permet de ге-connaître les vérités éternelles que l’âme a pu contempler dans un voyage où elle était libérée du corps. Chez Platon, apparaît en pleine lumière le lien entre une certaine notion de la Mémoire et une doctrine nouvelle de l’immortalité qui tranche fortement avec les conceptions helléniques de l’âme, depuis Homère jusqu’aux penseurs ioniens.

Suffit-il, pour comprendre cette innovation, qui donne à tout le courant mystique de la philosophie grecque son originalité, de faire intervenir, avec Rohde, l’influence du mouvement dionysiaque et de l’expérience qu’il est censé procurer, par ses pratiques extatiques, d’une séparation de l’âme d’avec le corps et de son union avec le divin 4 ? L’extase dionysiaque, délire collectif, brusque possession par un dieu qui s’empare de l’homme, est un état impersonnel passivement subi. Tout autre se présente la notion d’une âme individuelle, qui possède en elle-même et par elle-même le pouvoir inné de se libérer du corps et de voyager dans l’au-delà 5. Ce n’est pas dans le culte de Dionysos que cette croyance a pu s’enraciner ; elle trouve son origine dans les pratiques de ces íazpopávzuc qui préfigurent le philosophe, et dont la légende impose le rapprochement avec le personnage et le com-

1. L. Gernet, /. c, p. 4. M. Gernet souligne la valeur religieuse du terme beatus (eudaimôn) qui désigne le plus haut degré de la hiérarchie et qui se décompose en doctus, perfectus, et sapiens ; cf. aussi Cornford, o. c, p. 110. 2. Heraclite, fr. I; cf. Cornford, o. c, p. 113 ; G. Thomson, o. c, p. 274. 3. L. Gernet, l. c, p. 7 ; Cornford, o. c, p. 45-61 et 76 sq. 4. E. Rohde, o. c, p. 278-279. 5. La différence est très fortement soulignée par E. R. Dodds, The Greeks and the irrational, University of California Press, 1951, p. 140 sq.

194

DU MYTHE A LA RAISON

portement du shamane des civilisations d’Asie du Nord 1. Les Sages sont, dans le groupe social, des individualités en marge que singularise une discipline de vie ascétique : retraites au désert ou dans des cavernes ; végétarisme ; diète plus ou moins totale ; abstinence sexuelle ; règle de silence, etc. Leur âme possède l’extraordinaire pouvoir de quitter leur corps et de le réintégrer à volonté, après une descente au monde infernal, une pérégrination dans l’éther, ou un voyage à travers l’espace qui les fait apparaître à mille lieux de l’endroit où ils gisent, endormis dans une sorte de sommeil cataleptique. Certains détails accusent ces aspects de shamanisme : la flèche d’or, qu’Abaris porte partout avec lui, le thème du vol dans les airs, l’absence de nourriture. C’est dans ce climat religieux très spécial que prend corps une théorie de la métempsycose explicitement rattachée à l’enseignement des premiers sages. Cette doctrine prolonge la conception archaïque suivant laquelle la vie se renouvelle cycliquement dans la mort. Mais, dans ce milieu de mages, la vieille idée d’une circulation entre les morts et les vivants prend un sens autrement précis. La maîtrise de l’âme qui permet au sage, au terme d’une dure ascèse, de voyager dans l’autre monde, lui confère un nouveau type d’immortalité personnelle. Ce qui fait de lui un dieu parmi les hommes, c’est qu’il sait, grâce à une discipline de tension et de concentration spirituelles, dont M. Gernet a marqué le lien avec une technique de contrôle du souffle respiratoire, ramasser sur elle-même l’âme ordinairement dispersée en tous les points du corps 2. Ainsi rassemblée, l’âme peut se détacher du corps, s’évader des limites d’une vie où elle est momentanément enclose et retrouver le souvenir de tout le cycle de ses incarnations passées. Le rôle se comprend mieux des « exercices de mémoire » dont Pythagore avait institué la règle dans sa confrérie, quand on évoque le mot d’Empédocle à son sujet : « Cet homme qui, par la tension des forces de son esprit, voyait facilement chacune des choses qui sont en dix, en vingt vies humaines 3. » Entre la maîtrise de l’âme, son évasion hors du corps et la rupture du flux temporel par la remémoration des vies antérieures, il y a une solidarité qui définit ce qu’on a pu appeler le shamanisme grec et qui apparaît encore pleinement dans le pythagorisme ancien.

1. Le rapprochement est indiqué en passant par E. Rohde, о. c, p. 283. La thèse du shamanisme grec aété développée par Meuli, «Scythica»,//erm<?s, 1935, p. 121-177; cf.aussi, L. Gernet, /. c, p. 8 ; E. R. Dodds, o. c, dans le chapitre intitulé : « Le shamanisme grec et le puritanisme », Cornford, o. c, dans le chapitre « Shamanisme ». — Cornford suppose, avec N. Kershaw Chadwick (Poetry and prophecy, Cambridge, 1942, p. 12), que la Thrace a pu être pour la Grèce le maillon qui Га reliée, par ses contacts avec les Germains au Nord, les Celtes à l’Ouest, au système mantique apparenté au shamanisme d’Asie du Nord. Meuli et Dodds font une place, en dehors de la Thrace, à la Scythie avec laquelle la colonisation du littoral de la mer Noire a mis les Grecs en contact. On notera l’origine nordique des Mages, Aristeas, Abaris, Hermotime, et leur aceointance avec le monde hyperboréen. Il est vrai qu’Epiménide, lui, est Cretois. Mais, après sa mort, on constate que son cadavre est tatoué ; le tatouage était une pratique, nous dit Hérodote, en usage dans la noblesse thrace (V, 6, 3). On sait, d’autre part, la place de la Crète dans les légendes hyperboréennes. 2. Cf. L. Gernet, o. c, p. 8. Ernst Bickel a souligné le rapport entre une notion archaïque de l’âme et le souffle respiratoire (Homerischer Seelenglaube, Berlin, 1925). Cf. aussi, sur ce point, Onians, The origins o/ european thought about the body, the mind, the soul, the world, time and fate, Cambridge, 1951. 3. Cf. L. Gernet, /. c, p. 8.

195

ANNALES

Pourtant, le premier philosophe n’est plus un shamane. Son rôle est d’enseigner, de faire Ecole. Le secret du shamane, le philosophe se propose de le divulguer à un corps de disciples ; ce qui était le privilège d’une personnalité exceptionnelle, il l’étend à tous ceux qui demandent à entrer dans sa confrérie. A peine est-il besoin d’indiquer les conséquences de cette innovation. Divul*» guée, élargie, la pratique secrète devient objet d’enseignement et de discussion : elle s’organise en doctrine. L’expérience individuelle du shamane, qui croit réincarner un homme de Dieu, se généralise à l’espèce humaine sous la forme d’une théorie de la réincarnation.

Divulgation d’un secret religieux, extension à un groupe ouvert d’un privilège réservé, publicité d’un savoir auparavant interdit, telles sont donc les caractéristiques du tournant qui permet à la figure du philosophe de se dégager de la personne du mage. Ce tournant d’histoire, c’est celui que nous constatons sur toute une série de plans dans la période d’ébranlement social et d’effervescence religieuse qui prépare, vers le vne siècle, l’avènement de la Cité. On voit alors s’élargir, se populariser, et parfois s’intégrer entièrement à l’Etat, des prérogatives religieuses sur lesquelles des genè royaux et nobiliaires assuraient leur domination. Les anciens clans sacerdotaux mettent leur savoir sacré, leur maîtrise des choses divines au service de la Cité entière. Les idoles saintes, les vieux œoana, talismans gardés secrets dans le palais royal ou la maison du prêtre, émigrent vers le temple, demeure publique, et se transforment, sous le regard de la Cité, en images faites pour être vues. Les décisions de justice, les Ôé(j.i<mç, privilège des Eupatrides, sont rédigées et publiées. En même temps que s’opère cette confiscation des cultes privés au bénéfice d’une religion publique, se fondent, en marge du culte officiel de la Cité, autour d’individualités puissantes, des formes nouvelles de groupements religieux. Thiases, confréries et mystères ouvrent, sans restriction de rang ni d’origine, l’accès à des vérités saintes qui étaient autrefois l’apanage de lignées héréditaires. La création d’une secte religieuse comme celles appelées orphiques, la fondation d’un mystère, et l’institution d’une confrérie de « sages », comme celle de Pythagore, manifestent, dans des conditions et des milieux différents, le même grand mouvement social d’élargissement et de divulgation d’une tradition sacrée aristocratique.

La philosophie se constitue dans ce mouvement, au terme de ce mouvement, que, seule, elle pousse jusqu’au bout. Sectes et mystères restent, en dépit de leur élargissement, des groupes fermés et secrets. C’est cela même qui les définit. Aussi, malgré certains éléments de doctrine qui recoupent les thèmes de la philosophie naissante, la révélation mystérieuse garde-t-elle nécessairement le caractère d’un privilège qui échappe à la discussion. Au contraire, la philosophie, dans son progrès, brise le cadre de la confrérie dans

196

DU MYTHE A LA RAISON

lequel elle a pris naissance. Son message ne se limite plus à un groupe, à une secte. Par l’intermédiaire de la parole et de l’écrit, le philosophe s’adresse à toute la cité, à toutes les cités. Il livre ses révélations à une publicité pleine et entière. En portant le « mystère » sur la place, en plein agora, il en fait l’objet d’un débat public et contradictoire, où l’argumentation dialectique finira par prendre le pas sur l’illumination surnaturelle 1.

Ces remarques générales trouvent leur confirmation dans des constatations plus précises. M. G. Thomson 2 a fait observer que les fondateurs de la physique milésienne, Thaïes et Anaximandre, sont apparentés à un clan de haute noblesse sacerdotale, les Thelidai, qui descendent d’une famille thébaine de prêtres-rois, les Kadmeioi, venus de Phénicie. Les recherches des premiers philosophes en astronomie et en cosmologie ont ainsi pu transposer, en les divulguant dans la Cité, une ancienne tradition sacrée, d’origine orientale.

L’exemple d’Heraclite est plus suggestif encore. L’aspect heurté et antithétique d’un style où s’entrechoquent des expressions opposées, l’usage de calembours, une forme volontairement énigmatique, tout rappelle dans la langue d’Hér-aclite les formules liturgiques utilisées dans les mystères, en particulier à Eleusis. Or, Heraclite descend du fondateur d’Ephèse, Andro- klos, qui dirigea l’émigration ionienne et dont le père était Kodros, roi d’Athènes. Heraclite lui-même eût été roi, s’il n’avait renoncé en faveur de son frère. Il appartient à cette famille royale d’Ephèse qui avait gardé, avec le droit à la robe pourpre et au sceptre, le privilège du sacerdoce de Demeter Eleusinia. Mais le logos dont Heraclite apporte dans ses écrits l’obscure révélation, s’il prolonge les legomena d’Eleusis et les hieroi logoi orphiques, ne comporte plus d’exclusive à l’égard de personne ; il est au contraire ce qu’il y a de commun chez les hommes, cet « universel » sur quoi ils doivent tous également s’appuyer « comme la Cité fait sur la loi » 3.

ni ;

La solidarité que noua constatons entre la naissance du philosophe et l’avènement du citoyen n’est pas pour nous surprendre. La cité réalise, en effet, sur le plan des formes sociales, cette séparation de la nature et de la société

1. L. Gernet écrit : « Les Pythagoriciens n’ont pas de « mystères », il est vrai, mais c’est que la  » philosophie  » pour eux en est justement un » (l. c, p. 4). C’est à travers la discussion et la controverse, par la nécessité de répondre aux arguments de l’adversaire, que la philosophie se constitue comme une discipline intellectuelle spécifique. Même lorsqu’il ne polémique pas, le philosophe réfléchit en fonction des problèmes posés par ses devanciers et ses contemporains ; il pense par rapport à eux. La pensée morale prend la forme rationnelle du jour où Socrate discute publiquement sur l’agora avec tous les Athéniens de ce que sont le courage, la justice, la piété, etc. 2. G. Thomson, « From religion to philosophy », Journal of hellenic Studies, 1953, LXXIII, p. 77-84. L’auteur a repris son étude dans The first philosophers, p. 131-137, 3. « Pour parler avec intelligence, il faut se prévaloir de ce qui est universel, comme la Cité s’appuie sur la loi » (Heraclite, fr. 128, trad. Battistini).

197

ANNALES

que suppose, sur le plan des formes mentales, l’exercice d’une pensée rationnelle. Avec la Cité, l’ordre politique s’est détaché de l’organisation cosmique ; il apparaît comme une institution humaine qui fait l’objet d’une recherche inquiète, d’une discussion passionnée. Dans ce débat, qui n’est pas seulement théorique, mais où s’affronte la violence de groupes ennemis, la philosophie naissante intervient es qualité. La « sagesse » du philosophe le désigne pour proposer les remèdes à la subversion qu’ont provoqué les débuts d’une économie mercantile. Il lui est demandé de définir le nouvel équilibre politique propre à retrouver l’harmonie perdue, à rétablir l’unité et la stabilité sociales par Г « accord » entre des éléments dont l’opposition déchire la Cité. Aux premières formes de législation, aux premiers essais de constitution politique, la Grèce associe le nom de ses Sages. Là encore, on voit le philosophe prendre en charge les fonctions qui appartenaient au roi-prêtre au temps où, nature et société étant confondues, il ordonnait à la fois l’une et l’autre. Mais, dans la pensée politique du philosophe, la transformation mentale ne se marque pas moins que dans sa pensée cosmologique. Séparées, nature et société font également l’objet d’une réflexion plus positive et plus abstraite. L’ordre social, devenu humain, se prête à une élaboration rationnelle au même titre que l’ordre naturel, devenu physis. Il s’exprime, chez un Solon, dans le concept du Metron, de la juste mesure, que la décision du nomothète doit imposer aux factions rivales en fixant une « borne » à leur ambition excessive ; chez les pythagoriciens, dans celui de YHomonoia, accord numérique qui doit réaliser l’harmonie des contraires, leur fusion en une nouvelle unité г. La vieille idée d’un ordre social fondé sur une distribution, une répartition (nomos) des honneurs et des privilèges entre groupes étrangers qui s’opposent dans la communauté politique, comme les « puissances » élémentaires dans le cosmos, cette idée deviendra, après le vie siècle, la notion abstraite de Visonomia, égalité devant la loi entre des individus qui se définissent tous de façon semblable en tant que citoyens d’une même Cité 2.

Comme la philosophie se dégage du mythe, comme le philosophe sort du Mage, la cité se constitue à partir de l’ancienne organisation sociale : elle la détruit, mais elle en conserve en même temps le cadre ; elle transpose l’orga-

1. Cf. G. Thomson, o. c, p. 228 sq. 2. Cf. L. Gernet, Recherches sur le développement de la pensée juridique et morale en Grèce, p. 6 et 26, avec référence à Hirzel, Themis, Dike, und Verwandtes. E. Laroche a montré {Histoire de la racine nem en grec ancien, 1949) que nomos a d’abord un sens religieux et moral assez voisin de cosmos : ordre, arrangement, juste répartition. Il prendra, après les Pisistratides, à Athènes, celui de loi politique, en remplacement de thesmos, grâce à son association à l’idéal démocratique de l’isonomia. La loi (nomos), qu’elle s’appuie sur une égalité absolue ou proportionnelle, garde un caractère distributif. Un autre sens de nomos, affaibli par rapport au sens premier de règle, est celui qu’on rencontre, par exemple, chez Hérodote, de coutume, usage, sans valeur normative. Entre le sens de loi politique et de coutume, un glissement peut se produire dont la pensée philosophique, spécialement avec les Sophistes, tirera parti.

198

DU MYTHE A LA RAISON

nisation tribale dans une forme qui implique une pensée plus positive et plus abstraite. Pensons par exemple, à la réforme de Clisthène x : à la place des quatre tribus ioniennes d’Attique, dont nous savons par Aristote qu’elles correspondent aux quatre saisons de l’année, elle crée une structure artificielle permettant de résoudre des problèmes proprement politiques. Dix tribus, chacune groupant trois trittyes, lesquelles rassemblent plusieurs dèmes. Trittyes et dénies sont établis sur une base purement géographique; ils réunissent les habitants d’un même territoire, non des parents de même sang comme, en principe, les gène et les ‘phratries, qui subsistent intactes, mais en marge du cadre tribal, sur un autre plan désormais que la Cité. Les trois trittyes qui forment chaque tribu se recrutent, la première dans la région côtière, la seconde à l’intérieur des terres, la troisième dans la zone urbaine. Par cet amalgame délibéré, la tribu réalise V unification politique, le mélange, comme dit Aristote 2, des populations et des activités diverses qui composent la Cité. A cet artifice dans l’organisation administrative répond une division artificielle du temps civil. Le calendrier lunaire continue à régler la vie religieuse. Mais l’année administrative est divisée en dix périodes de trente-six ou trente-sept jours, correspondant aux dix tribus. Le conseil des Quatre Cents est élevé à cinq cents membres, cinquante par tribu, de façon qu’à tour de rôle, au cours des périodes de l’année, chaque tribu forme la commission permanente du conseil.

Par leur cohérence et la netteté de leur dessin, les réformes de Clisthène accusent les traits caractéristiques du nouveau type de pensée qui s’exprime dans la structure politique de la Cité. Ils sont, sur un autre plan, comparables à ceux qui nous ont paru définir, avec l’avènement de la philosophie, la transformation du mythe en raison. La promulgation d’un calendrier civil répondant aux exigences de l’administration humaine et entièrement distinct du temps lunaire, l’abandon de la correspondance entre le nombre des tribus dans le groupe social et celui des saisons dans le cosmos-, autant de faits qui supposent et qui renforcent à la fois la séparation de la société et de la nature. Un nouvel esprit positif inspire des réformes qui cherchent moins à mettre la Cité en harmonie avec l’ordre sacré de l’univers qu’à atteindre des objectifs politiques précis. L’effort d’abstraction se marque sur tous les plans : dans la division administrative fondée sur des secteurs territoriaux délimités et définis, non plus sur des liens de consanguinité ; dans le système des nombres arbitrairement choisis pour répartir de façon équitable, grâce à une correspondance mathématique, les responsabilités sociales, les groupes d’hommes, les périodes de temps ; dans la définition même de la Cité et du citoyen : la Cité ne s’identifie plus avec un personnage privilégié ; elle n’est solidaire d’aucune activité, d’aucune famille particulières ; elle est la forme que prend le groupe uni de tous les citoyens envi-

1. Cf. G. Thomson, в. с, p. 224 sq. 2. Constitution d’Athènes, 21, 3.

199

ANNALES

sages indépendamment de leur personne, de leur ascendance, de leur profession. L’ordre de la Cité, c’est celui dans lequel le rapport social, pensé abstraitement et dégagé des liens personnels ou familiaux, se définit en termes d’égalité, d’identité.

Mais ce n’est pas seulement dans les structures politiques que s’inscrivent des changements mentaux analogues à ceux qui paraissent constituer, dès lors qu’on les limite au seul domaine de la philosophie, l’incompréhensible avènement d’une raison étrangère à l’histoire. Sans parler du droit et de l’art, une institution économique comme la monnaie témoigne, dans son développement, de transformations qui ne sont pas sans rapport avec la naissance de la pensée rationnelle. Il suffira de rappeler l’étude de M. L. Gernet sur les implications mythiques de la valeur dans les anciens symboles prémonétaires en Grèce *. Uagalma, — vase, bijoux, trépieds, vêtements, — produit d’une industrie de luxe, remplit un rôle d’échange dans une forme de commerce noble : par son intermédiaire s’opère une circulation de richesses meubles. Mais, dans ce système prémonétaire, la fonction d’échange ne s’est pas encore dessinée comme catégorie indépendante, susceptible de faire l’objet d’une connaissance positive, dans une pensée proprement économique. La valeur de l’objet précieux reste intégrée aux vertus surnaturelles dont on l’imagine chargé. Uagalma véhicule, fondus dans un même symbolisme de richesse, des pouvoirs sacrés, des prestiges sociaux, des liens de dépendance entre les hommes ; sa circulation, à travers dons et échanges, engage les personnes et mobilise des forces religieuses, en même temps qu’elle transmet la possession de biens.

La monnaie au sens propre, monnaie titrée, estampillée, garantie par l’Etat, est une invention grecque du vne siècle 2. Elle a joué, sur toute une série de plans, un rôle révolutionnaire. Elle a accéléré le processus dont elle était elle-même l’effet : le développement, dans l’économie grecque, d’un secteur marchand s’étendant à une partie des produits de consommation courante. Elle a permis la création d’un nouveau type de richesse, radicalement différent de la richesse en terres et en troupeaux, et d’une nouvelle classe de riches dont l’action a été décisive dans la réorganisation politique de la Cité. Elle a produit, sur le plan psychologique et moral, un véritable effet de choc dont on perçoit l’écho dramatique dans la poésie d’un Théognis et d’un Solon 3. Si l’argent fait l’homme, si l’homme est désir insatiable de richesse, c’est toute l’image traditionnelle de Yaretè, de l’excellence humaine,

1. « La notion mythique de la valeur en Grèce », Journal de Psychologie, 1948, p. 415- 462. 2. D’après Hérodote, I, 94, la première monnaie frappée l’aurait été par les rois de Lydie. Cf. P.-M. Schuhx, о. с, p. 157-158, et G. Thomson, о. с, p. 194. 8. L. Gernet, Recherches, p. 21 sq. ; G. Thomson, о. с, p. 195.

200

DU MYTHE A LA RAISON

qui se trouve mise en question. Et la monnaie stricto sensu n’est plus comme en Orient, un lingot de métal précieux qu’on troque contre toute espèce de marchandise parce qu’il offre l’avantage de se conserver intact et de circuler aisément ; elle est devenue un signe social, l’équivalent et la mesure universelle de la valeur. L’usage général de la monnaie titrée conduit à dégager une notion nouvelle, positive, quantifiée et abstraite de la valeur.

Pour apprécier l’ampleur de cette novation mentale, il suffira de comparer deux attitudes extrêmes. Au départ, ce qu’évoque un terme comme to’xoç qui désigne l’intérêt de l’argent. Rattaché à la racine тех, « enfanter, engendrer », il assimile le produit du capital au croît du bétail qui se multiplie, à intervalle saisonnier, par une reproduction naturelle, de l’ordre de la physis 1. Mais, dans la théorie qu’en fait Aristote, la reproduction de l’argent par intérêt et usure devient le type même du phénomène contraire à la nature ; la monnaie est un artifice humain qui, pour la commodité des échanges, établit entre des valeurs en elles-mêmes toutes différentes l’apparence d’une commune mesure. Il y a, dans la forme de la monnaie plus encore que dans celle de la Cité, une rationalité qui, jouant sur le plan du pur artifice humain, permet de définir le domaine du nomos.

A-t-on le droit d’aller plus loin et de supposer, avec M. G. Thomson, un lien direct entre les plus importants concepts de la philosophie, l’Etre, l’Essence, la Substance, et, sinon la monnaie même, du moins la forme abstraite de marchandise qu’elle prête, à travers la vente et l’achat, à toute la diversité des choses concrètes échangées sur le marché 2 ? Une position théorique comme celle d’Aristote nous paraît devoir déjà mettre en garde contre la tentation de transposer trop mécaniquement les notions d’un plan de pensée à un autre 3.

Ce qui définit, pour Aristote, l’essence d’une chose, naturelle ou artificielle, c’est sa valeur d’usage, la fin pour laquelle elle a été produite. Sa valeur marchande ne relève pas de la réalité, de Vousia, mais d’une simple illusion sociale 4. Seul un sophiste comme Protagoras pourra accepter d’assi-

1. Cf. L. Gernet, « Le temps dans les formes archaïques du droit », Journal de Psychologie, 1956, p. 401. L. Gernet note que le paiement de l’intérêt devait se régler à chaque lunaison (cf. Aristophane, Nuées, 1659). 2. G. Thomson, o. c, p. 297, 300 et 315. L’auteur écrit, au sujet de Parménide : « Just as his universe of pure being, stripped of everything qualitative, is a mental reflex of the abstract labour embodied in commod’ties, so his pure reason, which rejects everything qualitative, is a fetish concept reflecting the money form of value. » 3. Sur le caractère spécifique des divers types ď œuvres et d’activités mentales, cf. I. Meyerson, « Discontinuités et cheminements autonomes dans l’histoire de l ‘esprit », Journal de Psychologie, 1948, p. 28 sq. ; « Problèmes d’histoire psychologique des œuvres », Hommage à Lucien Febvre, Paris, A. Colîn, 1954, I, p. 207 sq. 4. Marx a souligné que le point de vue de la valeur d’usage reste dominant dans toute l’Antiquité classique. Dans la perspective marxiste qui est la sienne, Thomson nous paraît commettre un anachronisme : c’est seulement quand le travail libre et salarié devient

201

ANNALES

miler la chose, dans sa réalité, avec la valeur conventionnelle que lui prête, à travers la forme de la monnaie, le jugement des hommes. Le relativisme de Protagoras, qui s’exprime dans une formule du type : « L’homme est la mesure de toutes choses », traduit cette constatation que l’argent, pur nomos, convention humaine, est la mesure de toutes les valeurs. Mais il est bien significatif que, chez Platon, dont la philosophie prolonge la pensée de Pythagore et de Parménide, le personnage du sophiste symbolise précisément l’homme qui reste au niveau du non-être, en même temps qu’il se définit comme un trafiquant livré à des occupations mercantiles x.

Il est vrai que le terme ousia, qui désigne, dans le vocabulaire philosophique, l’Etœ, la Substance, signifie également le patrimoine, la richesse. Mais, comme Га montré M. L. Gernet, l’analogie ne fait que souligner davantage les directions opposées dans lesquelles la pensée a travaillé dans la perspective des problèmes philosophiques et au niveau du droit et des réalités économiques 2. Au sens économique, Vousia est d’abord et avant tout le xXîjpoi, la terre, patrimoine longtemps inaliénable, qui constitue comme la substance visible d’une famille. A ce type de bien apparent, oû<na «pavepá, s’oppose, suivant une distinction usuelle, encore qu’un peu flottante, la catégorie de l’ouata àcpavrfç, du bien inapparent, qui comprend parfois, à côté des créances et des hypothèques, l’argent liquide, la monnaie. Dans cette dichotomie, il y a entre les deux termes différence de plan : l’argent est dévalorisé par rapport à la terre, bien visible, stable, permanent, substantiel, qui possède seul un statut de pleine réalité et dont le « prix » se nuance d’une valeur affective et religieuse. A ce niveau de la pensée sociale, l’Etre et la Valeur sont du côté du visible, alors que le non-apparent, l’abstrait, paraissent impliquer un élément purement humain d’illusion, sinon de désordre. Au contraire, dans la pensée philosophique la notion même ďousia s’élabore en contraste avec le monde visible. La réalité, la permanence, la substantialité passent du côté de ce qu’on ne voit pas ; le visible devient apparence, par opposition au réel véritable, à Vousia.

C’est en un autre terme que se reflète l’effort d’abstraction qui se poursuit à travers l’expérience commerciale et la pratique monétaire. Ta ipi\pxxa désigne à la fois les choses, la réalité en général et les biens, spécialement sous leur forme d’argent liquide. Aristote écrit : « Nous appelons biens (хрт{(хат:а) toutes choses dont la valeur est mesurée par la monnaie 3 ». On aperçoit ici la façon dont l’usage de la monnaie a pu substituer une notion abstraite, quantitative et économique, de la chose comme marchandise, au

lui-même marchandise que « la forme marchandise des produits devient la forme sociale dominante » (Capital, éd. Molitor, I, p. 231-232), et que le travail devient travail abstrait (Critique de V économie politique, p. 70). Cf. J. P. Vernant, « Travail et nature dans la Grèce ancienne », Journal de Psychologie, 1955, p. 11-38 ; « Les aspects psychologiques du travail dans la Grèce ancienne », La Pensée, 1956, n° 66, p. 80-86. 1. Cf. L. Gernet, « Choses visibles et choses invisibles », Revue philosophique, Janvier- Mars 1956, p. 85. 2. Ibid., p. 79-87. 3. Ethique à Nicomaque, IV, 9 b 26. Cité par L. Gernet, l. c, p. 82.

202

DU MYTHE A LA RAISON

concept ancien, qualitatif et dynamique, de la chose comme physis. Mais une double réserve s’impose. D’abord, une question de chronologie : ce témoignage de rationalisme mercantile date du ive siècle, non des débuts de la pensée philosophique. Il éclaire la réflexion de certains sophistes, plus que celle de Pythagore, d’Heraclite et de Parménide *. D’autre part, les хрг^ата appartiennent, pour utiliser une formule religieuse qui n’est pas déplacée dans la perspective philosophique, au monde d’ici-bas, au monde terrestre ; Yousia, qui constitue pour le philosophe la réalité, est d’un autre ordre. Elle ne se situe pas au niveau de la nature, ni non plus de l’abstraction monétaire. Elle prolonge, nous l’avons vu, le monde invisible que révèle la pensée religieuse, cette réalité stable et permanente qui a plus d’Etre et non, comme la monnaie, moins d’Etre, que la physis.

Devrons-nous dire, en dernière analyse, que la philosophie applique à la notion de l’Etre impérissable et invisible, héritée de la religion, une forme de réflexion rationnelle et positive, acquise dans la pratique de la monnaie ? Ce serait encore trop simple. L’Etre de Parménide n’est pas le reflet, dans la pensée du philosophe, de la valeur marchande ; il ne transpose pas, purement et simplement, dans le domaine du réel, l’abstraction du signe monétaire. L’Etre parménidien est Un ; et cette unicité, qui constitue un de ses traits essentiels, l’oppose à la monnaie non moins qu’à la réalité sensible.

Dans le langage des Ioniens, le réel s’exprime encore par un pluriel, та ovtoc, les choses qui existent, telles qu’elles nous sont données dans leur multiplicité concrète. Comme le note W. Jaeger, ce qui intéresse les physiciens et dont ils cherchent le fondement, ce sont les réalités naturelles, actuellement présentes 2. L’Etre revêt pour eux, quels qu’en soient l’origine et le principe, la forme visible d’une pluralité de choses. Au contraire, chez Parménide, l’Etre, pour la première fois, s’exprime par un singulier, то ô’v : il ne s’agit plus de tels êtres, mais de l’Etre en général, total et unique. Ce changement de vocabulaire traduit l’avènement d’une nouvelle notion de l’Etre : non plus les choses diverses que saisit l’expérience humaine, mais l’objet intelligible du logos, c’est-à-dire de la raison, s’ exprimant à travers le langage, conformément à ses exigences propres de non contradiction. Cette abstraction d’un Etre purement intelligible, excluant la pluralité, la division, le changement, se constitue en opposition avec le réel sensible et son perpétuel devenir ; mais elle ne fait pas moins contraste avec une réalité du type de la monnaie, qui non seulement comporte la multiplicité, au même

1. La formule célèbre d’Heraclite : « Le Tout est transmuté en feu, et le feu en toutes choses, comme les marchandises sont échangées contre l’or, et l’or contre les marchandises ». ne nous paraît pas se situer encore sur ce plan d’un rationalisme mercantile. 2. W. Jaeger, о. с, ch. II, п. 2, p. 197.

203

ANNALES

titre que les choses de la nature, mais qui implique même, dans le principe» une possibilité indéfinie de multiplication. L’Etre parménidien ne peut pas plus « se monnayer » qu’il n’est susceptible de devenir.

C’est dire que le concept philosophique de l’Etre ne s’est pas forgé à travers la pratique monétaire ou l’activité mercantile. Il traduit cette même aspiration vers l’unité, cette même recherche d’un principe de stabilité et de permanence dont nous avons vu le témoignage, à l’aube de la Cité, dans la pensée sociale et politique, et qu’on retrouve aussi dans certains courants de la pensée religieuse, comme l’orphisme. Mais cette aspiration vers l’Un et l’Identique s’exprime dans le cadre des problèmes nouveaux, proprement philosophiques, qui surgissent lorsque l’ancienne question : « Comment l’ordre émerge-t-il du chaos ? » s’est transforméeen un type différent d’apories r « Qu’y a-t-il d’immuable dans la nature ? Quel est le principe, àpyji, de la réalité ? Comment pouvons-nous l’atteindre et l’exprimer ? » Or l’appareil des notions mythiques que les physiciens d’Ionie avaient hérité de la religion : la genesis, l’amour, la haine, l’union et la lutte des opposés, ne répondait plus aux besoins d’une recherche visant à définir, dans un langage purement profane, ce qui constitue le fond permanent de l’Etre. La doctrine de Parménide marque le moment où la contradiction est proclamée entre le devenir du monde sensible, — ce monde ionien de la physis et de la genesis, — et les exigences logiques de la pensée. La réflexion mathématique a joué к cet égard un rôle décisif. Par sa méthode de démonstration et par le caractère idéal de ses objets, elle a pris valeur de modèle. En s’efforçant d’appliquer le nombre à l’étendue, elle a rencontré, dans son domaine, le problème des rapports de l’un et du multiple, de l’identique et du divers ; elle l’a posé avec rigueur en termes logiques. Elle a conduit à dénoncer l’irrationalité du mouvement et de la pluralité, et à formuler clairement les difficultés théoriques du jugement et de l’attribution. La pensée philosophique a pu ainsi se déprendre des formes spontanées du langage dans lesquelles elle s’exprimait, les soumettre à une première analyse critique : au delà des mots, Ijceoc, tels que les emploie le vulgaire, il y a, selon Parménide, une raison immanente au discours, un Хбуо;, qui consiste en une exigence absolue de non contradiction : l’être est, le non-être n’est pas *. Sous cette forme catégorique, le nouveau principe, qui préside à la pensée rationnelle, consacre la rupture avec l’ancienne logique du mythe. Mais, du même coup, la pensée se trouve séparée, comme à la hache, de la réalité physique : la Raison ne peut avoir d’autre objet que l’Etre, immuable et identique. Après Parménide, la tâche de la philosophie grecque consistera à rétablir, par une définition plus précise et plus nuancée du principe de contradiction, le lien entre l’univers rationnel du discours et le monde sensible de la nature 2.

1. Cf. Parménide, 18 В 8, v. 38-39 et 50-53 ; sur les rapports des mots et du logos» chez Parménide, cf. P. M. Schuhx, o. c, p. 283 et 290, et la note 3 de la p. 290. 2. Ibid., p. 293 sq.

204

DU MYTHE A LA RAISON

Nous avons indiqué les deux traits qui caractérisent la nouvelle pensée grecque, dans la philosophie. D’une part le rejet, dans l’explication des phénomènes, du surnaturel et du merveilleux ; d’autre part la rupture avec la logique de l’ambivalence, la recherche, dans le discours, d’une cohérence interne, par une définition rigoureuse des concepts, une nette délimitation des plans du réel, une stricte observance du principe d’identité. Ces innovations, qui apportent une première forme de rationalité, ne constituent pas un miracle. Il n’y a pas d’immaculée conception de la Raison. L’avènement de la philosophie, Cornford l’a montré, est un fait d’histoire, enraciné dans le passé, se formant à partir de lui en même temps que contre lui. Cette mutation mentale apparaît solidaire des transformations qui se produisent, entre le vne et le vie siècle, à tous les niveaux des sociétés grecques : dans les institutions politiques de la Cité, dans le droit, dans la vie économique, dans la monnaie. Mais solidarité ne signifie pas simple reflet. La philosophie, si elle traduit des aspirations générales, pose des problèmes qui n’appartiennent qu’à elle : nature de l’Etre, rapports de l’Etre et de la pensée. Pour les résoudre, il lui faut élaborer elle-même ses concepts, construire sa propre rationalité. Dans cette tâche, elle s’est peu appuyée sur le réel sensible ; elle n’a pas beaucoup emprunté à l’observation des phénomènes naturels ; elle n’a pas fait d’expériences. La notion même d’expérimentation lui est demeurée étrangère. Sa raison n’est pas encore notre raison, cette raison expérimentale de la science contemporaine, orientée vers les faits et leur systématisation théorique. Elle a bien édifié une mathématique, première formalisation de l’expérience sensible ; mais, précisément, elle n’a pas cherché à l’utiliser dans l’exploration du réel physique. Entre le mathématique et le physique, le calcul et l’expérience, la connexion a manqué ; la mathématique est restée solidaire de la logique 1. Pour la pensée grecque, la nature représente le domaine de l’à-peu-près, auquel ne s’appliquent ni exacte mesure, ni raisonnement rigoureux 2. La raison ne se découvre pas dans la nature, elle est immanente au langage. Elle ne se forme pas à travers les techniques qui opèrent sur les choses ; elle se constitue par la mise au point et l’analyse des

1. Cf. La préface de L. Brunschvicg à l’ouvrage d’Arnold Reymond, Histoire des sciences exactes et naturelles dans V Antiquité greco-romaine, 2e édit., Paris, 1955, p. vi et vu. La théorie des Idées-Nombres, chez Platon, illustre cette intégration du mathématique dans le logique. Reprenant une formule de J. Stenzel, A. Lautman note que les Idées-Nombres constituent les principes qui à la fois ordonnent les unités arithmétiques à leur place dans le système et explicitent les différents degrés de la division progressive des Idées :  » Les schemes de division des Idées dans le Sophiste, écrit-il, s’organisent ainsi selon les mêmes plans que les schemes de génération des nombres  » (Essai sur les notions de structure et d’existence en mathématiques, Paris, 1937, p. 152). 2. Cf. A. Koyré, a Du monde de Га peu près à l’univers de la précision », Critique, 1948, p. 806-883.

205

ANNALES

divers moyens d’action sur les hommes, de toutes ces techniques dont le langage est l’instrument commun : l’art de l’avocat, du professeur, du rhéteur, de l’homme politique *. La raison grecque, c’est celle qui permet d’agir de façon positive, réfléchie, méthodique, sur les hommes, non de transformer la nature. Dans ses limites, comme dans ses innovations, elle apparaît bien fille de la Cité.

Jean-Pierre Vernant.

1. Sur le passage de la rhétorique et de la sophistique à la logique, cf. J. de Romilly, Histoire et raison chez Thucydide, Paris, 1956, p. 181-239. La pratique des discours antithétiques, des antilogies, conduira, par l’établissement des « lieux communs » du discours, l’analyse des structures de la démonstration, la mesure et l’arithmétique des argumente opposés, à une science du raisonnement pur.

206

Mis en avant

Incitation à la lecture

Qustions:

— Pourquoi doit-on lire ?

C’est pourquoi doit-on lire !

— Quand doit-on lire ?

— Que doit_on lire ?

العوامل النفسية المؤثرة في الأداء الدر

ça me rappelle mon enseignant d’arabe au lycée ibn Bajja, Mr Iraqui à Fes Maroc

Des questions banales , auxquelles on ne fait pas attention , on pense qu’on doit lire juste par habitude , ou parce que les autres lises, alors nous même on doit lire , ou bien justement , c’est la mission confié à l’école, faire apprendre aux enfants: la lecture , l’écriture et la calcul.

Là, se sent des souvenirs d’enfance , en grandissant on commence à s’intéresser , à d’autre choses : notre corps, la santé , la religion , les loisirs , le voyage , l’insertion sociale . . .

Après , on se sent que pour interagir et faire réussir certains relations sociale , on a besoin de connaissances, de bien communiquer , de méthodes et stratégies pour convaincre et influencer l’autre , avoir plus d’impact et de connaissance.

Au départ, comme d’habitude , on choisit , est la méthode la plus simple , avoir des idoles, les observer et essayer de les imiter .

mais, après une période d’essai , on s’aperçoit que les résultats obtenus sont au delà des objectifs prévu . Peut être ce qui marche avec les autres ne marche pas avec nous , nous ne sont pas de bon comédien , les gens s’aperçoivent que ce qu’on fait ne marche pas avec notre personnalité , simplement parce que ces gens ont des qualité qu’ils ont développer tout au long de leurs apprentissages , selon leurs expériences de la vie et les objectifs qu’ils espèrent réaliser et atteindre.

Donc, on a tous besoin de lire et d’apprendre , bon disant que le besoin est est un facteur déterminant , mais de quoi attend besoin , développer notre presonalité ? , c’est quoi la personnalité ? , selon les psychologues la personnalité à trois composantes : la composante sociale , la composante affective et la composante psycho-motrice -les habiletés-

Alors, pour atteindre ces fins , on doit lire et apprendre pour mettre ces trois composantes en harmonie et atteindre les objectifs qu’on a fixé , avant d’entamerun long processus de lecture.

C’est pourquoi on doit un diagnostique de notre personnalité, et dégager nos points forts et nos points faibles -médecin de soi même-

Par quoi doit-on commencer après , s(informer sur les ressources : documents écrit , livres , supports audiovisuels , interagir avec les autres . . . pour ne pas citer que ces moyens.

Qui dit lire , dit choisir , cela suppose qu’on est suffisamment informer et que nous disposons d’assez de ressources pour réaliser cette tache

Sinon , on fait ce que font la plupart , juste pour faire passer le temps-tuer le temps , comme on a l’habitude de dire-.

Malheureusement cet argument ne tient pas assez . Rapidement on se sent ennuyer et on abandonne , ce qui nous fait retourner à nos habitudes -ne pas lire-.

Bon, donc on doit avoir une forte ambition , des résultats et des profits à atteindre, qui peuvent nous empêcher de s’arrêter de lire.

à la fin, n’oubliez pas que notre entourage influence beaucoup sur notre volonté à lire , c’est pourquoi, on doit accompagner les gens avec qui nous partageons les mêmes valeurs , on dit que le meilleur accompagnant est le livre , n’est-ce pas ?

Comment écrire un manuel scolaire pour ses élèves ?

Ècrire un manuel scolaire est une tâche difficile et passionate au même temps, qui demande la maîtrise de plusieurs compétences: définir des objectifs viable, maîtriser sa discipline, faire des choix, capacité organisationnel grande, organisation de son travail et du temps . . .surtout une bonne capacité rédactionnel.

Écrire un manuel scolaire pour aider les enfants à vivre et apprendre est un bonheur qu’un enseignant peut donner

Pour connaître plus sur ce sujet, cliquez sur le lien ci-dessous

https://www.coollibri.com/blog/comment-ecrire-manuel-scolaire/

Le manuel scolaire : Au-delà de l’outil pédagogique, l’objet politico-social

Le manuel scolaire est un vecteur essentiel d’instruction et de socialisation, il est porteur de savoirs, mais également de normes et de valeurs. L’objectif de cet article est d’aller au delà des enjeux pédagogiques du manuel scolaire, pour mettre en lumière les enjeux politiques, idéologiques et sociologiques qu’il renferme

pour lire l’article , cliquez sur le lien ci-dessous

Atfa Memaï et Abla Rouag https://doi.org/10.4000/edso.2014

Comment remotiver les élèves en échec scolaire? | apprendreaapprendre.com

Un article intéressant et d’actualité qui va vous permettre de comprendre ce phénomène de société et vous proposer des solutions pour en atténuer l’effet.

Pour cela suivez le lien ci-dessous

https://www.apprendreaapprendre.com/reussite_scolaire/remotiver-eleves-echec-scolaire/

Echecs scolaires et difficultés scolaires

Qu’est ce que l’échec scolaire et pourquoi votre enfant rencontre t-il des difficultés à l’école ? Quelles sont les origines et les solutions ? L’échec scolaire se mesure surtout par les notes obtenues, si elles sont très en dessous de la moyenne de la classe, on considère que l’enfant est en échec scolaire. Les origines peuvent être multiples :

  • votre enfant a un trouble des apprentissages non dépisté (dyslexie, dyspraxie, dyscalculie, TDAH, précocité) qui l’handicape et le fait décrocher en classe,
  • votre enfant est dyslexique, TDAH, dyspraxique… et il décompense à l’entrée dans une classe de transition (CP, 6ème, seconde) c’est à dire que les stratégies de compensation mises en place ne fonctionnent plus,
  • l’école l’ennuie, il ne trouve aucun intérêt à ce qu’on lui enseigne et se démotive, n’apprend plus,
  • les enseignants ne sont pas bienveillants ou il est harcelé par des élèves, votre enfant a peur et n’arrive plus à réfléchir ni à apprendre
  • il travaille mais son travail ne porte pas ses fruits, il ne sait pas apprendre à apprendre.

Face à toutes les difficultés rencontrées par vous-même et votre enfant, des solutions existent pour éviter l’échec scolaire mais la première étape est de bien diagnostiquer l’origine et les causes de l’échec scolaire. Echec scolaire et difficultés scolaires : origines, définition et solutions

pour lire le reste de l’article allez sur le lien suivant : https://www.numero1-scolarite.com/echec-scolaire-et-difficultes-scolaires-origines-definition-et-solutions/

Pourquoi les élèves ne participent pas en classe ?

L’échec est une chose. C’est l’abandon qui est inacceptable. Neil Strauss

Pour comprendre ce phénomène compliqué qui suscite beaucoup de points d’interrogation, remarquablement gênant pour l’enseignant qui voudrait pratiquer des méthodes active dans ses cours, suivez le lien ci-dessous qui peut vous aider à comprendre ce mystérieux phénomène et vous proposer des solutions qui peuvent faire atténuer cet effet chez certains apprenants

https://www.bienenseigner.com/pourquoi-les-eleves-ne-participent-pas-en-classe/

Difficultés d’apprendre

Votre enfant a-t-il des difficultés pour lire, pour les mathématiques, pour écrire, pour être attentif ou dans sa coordination ? Peut-être que ces problèmes sont dus à une difficulté d’apprentissage. Dans cet article, Ana Muñoz, psychologue, nous explique ce que sont les difficultés d’apprentissage, quels sont leurs symptômes et comment les identifier. Découvrez les types de difficultés d’apprentissage les plus communes et comment travailler sur celles-ci en famille. 

Les difficultés d’apprentissage peuvent se présenter sous différentes formes : problèmes au moment de prononcer les mots, d’appeler les choses par leur nom, difficulté pour apprendre les lettres et lire, difficulté pour écrire, calligraphie difficile à lire, problème avec les numéros, difficulté à calculer, avoir de la peine à suivre les instructions qui sont données, etc…

Pour lire le reste de l’article suivez le lien suivant https://blog.cognifit.com/fr/difficultes-dapprentissage/

https://www.editions-retz.com/pedagogie/domaines-transversaux/depasser-les-difficultes-d-apprentissage-9782725676463.html

idées pour atelier d’écriture : 15 exercices efficaces

Vous voulez écrire, vous ne savez pas comment faire, vous pouvez commencer, quelque soit votre âge, ou votre métier, en suivant les ateliers de l’article ci-dessous, surtout il faut s’exercer pendant plusieurs heures et journées à faire et refaire les thèmes de chaque atelier.

Bonne courage, surtout beaucoup de patience et de persévérance.

كتاب تنمية مهارات التفكير
كتاب صناعة الواقع، الإعلام وضبط المجتمع

https://www.ficellesdauteur.fr/idees-pour-atelier-decriture/

 écriture définition dictionnaire Larousse

nom féminin

(latin scriptura)

  • 1. Représentation de la parole et de la pensée par des signes graphiques conventionnels. (Inventée vers 3200 av. J.-C., l’écriture marque le début de l’histoire humaine. Le berceau de l’écriture oscille entre Mésopotamie [cunéiforme] et vallée de l’Indus [hiéroglyphes de Mohenjo-Daro], au gré des découvertes archéologiques.)
  • 2. Système de signes graphiques servant à noter un message oral afin de pouvoir le conserver et/ou le transmettre.Synonymes :graphie – graphisme
  • 3. Action d’écrire : Faire une page d’écriture.
  • 4. Ensemble de caractères écrits ; manière propre à chacun de les former : Avoir une belle écriture.Synonyme :plume (familier)
  • 5. Manière d’exprimer sa pensée par l’écrit, par le son, par l’image : Roman d’une écriture recherchée.
  • Calligraphie6. Tracé des lettres considéré du point de vue des règles de la calligraphie ou d’un point de vue esthétique (par exemple l’anglaise, la bâtarde, la ronde, la gothique).
  • Droit7.  Écrit ayant une valeur probatoire.
  • Informatique8. Enregistrement d’une information dans une mémoire ou sur un support quelconque.

La créativité: 18 choses que les gens créatifs font différemment des autres | HuffPost Life

Pour connaître les caractéristiques d’un créateur, suivez le lien ci-dessous

Création d’artisans marocain

https://www.huffingtonpost.fr/2014/03/11/la-creativite-18-choses-gens-creatifs_n_4935621.html

Créativité et innovation

D’où c’est venu, l’innovation ? Dans les entreprises, ce n’est pas venu de l’idée que nous aimions a priori la nouveauté. C’est venu de la pression concurrentielle. L’innovation n’est pas un processus périphérique pour les entreprises, c’est le cœur du cœur de la survie des entreprises. On est au centre du processus. 100 % des produits que nous consommons n’existaient pas il y a cent-cinquante ans. Si vous n’êtes pas dans vos vies, créatifs, ouverts, vous vivrez mal. Et si les entreprises ne sont pas créatives, ouvertes, elles vivront mal. Ce qui est vrai pour les entreprises est vrai pour les hommes.

Être créatif, c’est apprendre à regarder la réalité autrement. À situer une réalité dans un autre contexte. Et c’est extrêmement difficile. Pourquoi ? Parce que dans notre esprit, nous ne dissocions pas la réalité du contexte dans lequel nous l’interprétons. Et le fait que nous ne dissocions pas a ouvert la porte à quelque chose qui est assez proche de la créativité, qui s’appelle l’humour. Alors c’est quoi, une blague ? C’est quand on vous raconte une histoire et dans la dernière phrase, on vous donne une autre interprétation de l’histoire.

Ce soir quand vous rentrez vous pouvez vous dire : « Tiens on va être créatif, je vais conduire en tenant mon volant avec les pieds. » Ah ça, c’est vachement créatif. Sauf que c’est probablement pas efficace. Donc pour des raisons d’efficacité, nous utilisons nos chemins pré programmés pour répondre aux situations. Et 99,9 fois sur cent, nous avons raison de le faire, c’est ce qui est le plus efficace. Mais du coup, cela nous empêche d’être créatifs. Donc, ce qui peut nous permettre d’être créatifs, c’est de neutraliser ces chemins neuronaux pré programmés. Pour en explorer d’autres, pour explorer d’autres parties de notre cerveau, d’autres capacités de notre cerveau. C’est pour ça que nos habitudes sont les premiers obstacles à l’innovation.

Si on sait travailler de façon collective, on est beaucoup plus créatif. Mais il faut travailler de façon collective. Est-ce qu’il faut être confortable pour innover ? Non, pas trop. Comme disait André Gide : « L’art naît de contrainte, vit de lutte et meurt de liberté. » C’est aussi dans la philosophie de Kant. S’il n’y a pas un système de contrainte fort, il n’y a pas de pression d’innovation.

S’il n’y a pas de temps, si on veut des résultats tout de suite, il n’y aura pas de grandes innovations.

Si vous êtes dans une entreprise où il y a un état d’esprit d’innovation, les performants non conformes, ils vont être soutenus. Et ils vont vous servir à innover. Les conformes non performants, s’il n’y a pas d’esprit d’innovation, vous savez ce qui leur arrive ? Eh bien, ils sont promus. Ben oui, ils sont conformes donc on les aime bien. Donc ils vont… D’accord ? Donc si l’on gère toujours plus de conformité, on ne peut pas être innovant. C’est à ça que ça sert, l’état d’esprit de l’innovation. Et à échapper à la pression de conformité qui fait que tous les non conformes finissent par quitter l’entreprise, même s’ils sont performants. Ça c’est embêtant. Et une des façons de le faire, c’est de mettre le client au centre de l’entreprise. Pourquoi ? Parce que le client, lui, il s’en fout que son interlocuteur soit conforme ou pas conforme à la culture de l’entreprise. Par contre, il réagit sur la performance. D’accord. Et s’il n’y a pas de pression du client, c’est beaucoup plus difficile d’être innovant et d’échapper à la pression de conformité.

La première méthode de créativité, je crois que ça date des années vingt ou trente, c’est le brain storming. Pas de critique, ça veut dire quoi ? C’est une des clés, vraiment, de la créativité. C’est séparer la phase de création de la phase de jugement. Si vous jugez en même temps que vous créez, vous ne créerez pas. Pendant que j’écris un livre, il y a une question que je refuse de me poser, c’est : qu’est-ce que vaut ce que j’écris ? Ce que Paul Valéry disait : « S’aimer en écrivant, se haïr en se corrigeant. » C’est bien dire que ce sont deux phases différentes.

Créativité : la quantité précède la qualité. Ça n’a aucune importance dans cette phase de création d’énoncer des idées justes, des idées bonnes. Ça n’a aucune importance. L’important c’est : cinq cents idées. D’accord ? Si je veux trouver une amélioration dans le vidéoprojecteur qui est là-haut, il faut d’abord commencer par se dire collectivement : en une demi-heure, on peut produire cinq cents idées. Et si on en produit cinq cents, il y a beaucoup plus de chances qu’il y en ait une de bonne sur les cinq cents que si au bout de trois idées on se met à discuter du pour et du contre.

Donc ça, ce n’est pas du tout évident. Je vous rappelle que en France on serait – d’après les études – à 0,5 idée apportée par salarié et par an. Au Japon on est à deux cents. Alors est-ce que ça veut dire qu’on a quatre cents fois moins d’idées que les Japonais ? À mon avis, pas dut tout. Ça veut dire qu’on ne s’y intéresse pas.

L’important quand quelqu’un énonce une idée, ce n’est pas de me dire : « C’est bien, ce n’est pas bien. » C’est : « Qu’est-ce que j’en fais ? » Parce que les idées comme les bébés ne naissent pas viables. Il faut s’en occuper. Si vous tournez en rond, ne vous inquiétez pas, c’est au moins qu’il vous reste des notions de géométrie.

site : https://www.bruno-jarrosson.com/creativite-innovation/

L’enseignement des habiletés et capacités

Quelles sont les principales compétences visées par la formation des enseignants ?

Qu’est-ce qu’une compétence dans l’enseignement ?

Quelles sont les compétences pour être professeur ?

1. Pratiques enseignantes et compétences professionnelles

Pour avoir une approche scientifique des pratiques enseignantes, il est essentiel de distinguer les travaux qui étudient les pratiques enseignantes dans un but de formation, d’évaluation ou de transformation des pratiques, des travaux qui n’ont pas d’autre but que de comprendre et d’expliquer ces pratiques (Bru, 2002). Un autre principe fondamental est de renoncer à interpréter la pratique d’un enseignant dans sa classe comme effet d’une méthode que le praticien mettrait en oeuvre d’une manière volontaire et planifiée.

Mais ces points étant acquis, il nous semble que, pour donner une assise non contestable aux recherches sur les pratiques enseignantes, il reste à déterminer quels sont les composants de ces pratiques. Toute science a besoin d’identifier ce qui est l’unité de base de la réalité qu’elle étudie, l’élément simple dont les combinaisons multiples ou les variations de combinaisons rendront compte de la diversité des faits observés. Dans la variété des gestes, actes et paroles émis par un enseignant dans sa classe, quelles sont les catégories d’éléments qui sont pertinents pour trouver la loi séminale de ces pratiques ? Autrement dit, qu’est-ce qui serait, pour l’étude des pratiques enseignantes, l’équivalent de ce qu’est l’atome pour la chimie, la cellule pour la biologie ou le signe pour la linguistique ?

Il ne semble pas que nous ayons encore sur ces questionnements de certitude indiscutable, ce qui incite à ne pas écarter d’emblée une question plus radicale : peut-il y avoir, dans l’étude des pratiques enseignantes, un élément de base ?

اهم ثمانية مهارات يجب عليك تنميتها

Pour essayer de contribuer à l’élucidation de cette question, nous voudrions tenter un détour par les compétences professionnelles que les institutions d’enseignement exigent des enseignants. Nous partirons pour cela du référentiel des compétences professionnelles qui doivent être acquises par les enseignants en France.

Dans une telle entreprise, il ne s’agit en aucune manière de reprendre les différentes compétences énoncées dans ce texte, comme composantes possibles de la pratique enseignante. Il est clair qu’à nos yeux, dans un tel document, les compétences prises en compte sont nécessairement chargées de préoccupations normatives : on ne s’attend donc pas à y trouver l’élément de base de la pratique enseignante. Il s’agit plutôt, en exerçant le jugement critique sur un tel référentiel, d’étudier selon quelle logique les auteurs ont établi une catégorisation de la pratique de l’enseignant.

En outre, nous trouvons là l’occasion de voir ce que peut apporter à l’identification des éléments de la pratique enseignante l’usage de la notion de compétence.

Enfin, il nous a paru intéressant de compléter cette approche en relatant la manière dont des formateurs ont réagi devant la perspective de devoir utiliser ce référentiel pour évaluer des séances d’enseignement.

2. Le référentiel français

Ce référentiel, d’abord inséré dans le cahier des charges des Instituts Universitaires de Formation des Maîtres (Ministère de l’Education Nationale, 2007), a été par la suite repris avec de légères modifications de détail dans un arrêté ministériel de juillet 2010 (Ministère de l’Éducation nationale, 2010). Ce référentiel, qui comporte environ six pages, implique une définition du métier d’enseignant et cherche à en détailler les composants, ce qui nous importe pour tenter d’envisager ce que serait les éléments constituants de la pratique enseignante. Il a aussi une finalité évaluatrice.

3. Les compétences professionnelles dans le référentiel

Le référentiel présente les dix compétences suivantes :

  1. Agir en fonctionnaire de l’État et d’une manière éthique et responsable.
  2. Maîtriser la langue française pour enseigner et communiquer.
  3. Maîtriser les disciplines et avoir une bonne culture générale.
  4. Concevoir et mettre en oeuvre son enseignement.
  5. Organiser le travail de la classe.
  6. Prendre en compte la diversité des élèves.
  7. Évaluer les élèves.
  8. Maîtriser les technologies de l’information et de la communication.
  9. Travailler en équipe et coopérer avec les parents et les partenaires de l’école.
  10. Se former et innover.

Chacune de ces compétences est présentée comme constituées de « connaissances », « capacités à les mettre en oeuvre » et « attitudes ». Nous reviendrons sur ce qu’impliquent ces distinctions. Dans l’immédiat, nous voudrions examiner les dix compétences du point de vue de ce qu’elles peuvent apporter à une meilleure compréhension des pratiques enseignantes. Plus précisément, nous voudrions voir si ce référentiel de compétences professionnelles peut nous mettre sur la voie de ce qui serait des éléments simples ou des composants de base des pratiques enseignantes. Pour ce faire, nous verrons si cette liste est homogène, c’est-à-dire si les éléments qu’elle présente peuvent être considérés comme étant de même nature ; du coup, nous devrons examiner l’indépendance entre les différentes compétences. Puis, nous tenterons de voir si ce référentiel peut prétendre à l’exhaustivité. Enfin, nous essaierons de voir si ces compétences sont non contradictoires entre elles.

عشرة طرق للبقاء فقيرا إلى الأبد

Ces examens nous permettront, en même temps, de voir si ce référentiel constitue une base fonctionnelle pour l’évaluation des enseignants (qu’il s’agisse d’une évaluation certificative en fin de formation initiale, ou une évaluation en cours de carrière).

Le référentiel, en établissant une liste des compétences professionnelles, propose du même coup une classification des dimensions du métier. Cette classification est-elle homogène, c’est-à-dire établit-elle des distinctions selon un critère unique ? À titre d’exemple, une classification d’objets en fonction de leur couleur peut être dite homogène ; de même que l’est une classification selon la forme des objets. En revanche, si l’on classe des objets en distinguant des objets rouges, des objets en métal et des objets triangulaires, on n’a évidemment pas une classification homogène et un même objet pourra appartenir à plusieurs des classes ainsi déterminées.

Si on examine les dix compétences, on peut considérer que certaines renvoient à une classification selon les différentes activités que doit effectuer l’enseignant : c’est le cas de la compétence 4 (« Concevoir et mettre en oeuvre son enseignement ») qui correspond à la dimension didactique, de la compétence 5 (« organiser le travail de la classe »), de la compétence 7 (« Évaluer ») et de la compétence 9 (« Travailler en équipe et collaborer avec les parents et les partenaires de l’école »).

Mais les autres compétences indiquées semblent avoir d’autres statuts : ainsi la compétence 3 (« Maîtriser les disciplines et avoir une bonne culture générale »), plutôt que de constituer une activité autonome, semble plutôt être la condition préalable à l’exercice de la compétence 4. Les compétences 1 (« agir en fonctionnaire de l’État et d’une manière éthique et responsable »), 2 (« Maîtriser la langue française pour enseigner et communiquer ») et 6 (« Prendre en compte la diversité des élèves ») ne renvoient pas non plus, en elles-mêmes, à des activités spécifiques, mais désignent plutôt des qualités dont il faut faire preuve dans l’effectuation des autres activités.

La compétence 8 (Sur les TIC) désigne la maîtrise de technologies utilisables en accompagnement des différentes activités indiquées plus haut.

Quant à la compétence 9, son énoncé « se former et innover » pourrait laisser entendre qu’il s’agit d’une activité autonome, mais les commentaires de détail qui l’accompagnent invitent plutôt à penser que ce qui est visé, c’est la capacité de l’enseignant à remettre en cause sa propre action, ce qui conduit à la rapprocher des compétences 1, 2 et 6.

On a donc une liste hétérogène qui entremêle des compétences qui commandent des activités distinctes et des compétences qui doivent conduire à exercer les premières d’une certaine manière.

Cette disparité de la catégorisation a pour effet que l’indépendance des compétences entre elles n’est pas garantie : elles peuvent se recouvrir mutuellement. Cela peut avoir des conséquences sur la fonctionnalité évaluatrice du référentiel, car l’intérêt d’une évaluation par compétences est qu’elle impose de renoncer aux procédures sommatives. Dans le monde scolaire (mais aussi souvent en dehors de lui), on a l’habitude de comptabiliser ensemble la mesure de performances de nature différente. Ainsi couramment, dans un devoir de mathématiques, on obtiendra la note totale en faisant la somme de la note obtenue par l’élève à la première question (par exemple, de géométrie) et de la note obtenue à la deuxième question (par exemple, constituée d’une étude de fonction) ; de même dans un devoir de français, on ne répugne pas à établir la note en ajoutant les points obtenus pour l’orthographe à ceux qui concernent la qualité de l’argumentation ou la clarté de l’expression. La logique de l’évaluation par compétences conduit à refuser ces mécanismes compensatoires très discutables, et à exiger qu’on vérifie, indépendamment les unes des autres, les maîtrises de toutes les compétences attendues. Du coup, il convient que ces différentes compétences soient exclusives les unes des autres, faute de quoi une même caractéristique pourrait être évaluée plusieurs fois ; et par suite une insuffisance pourrait être relevée et sanctionnée plusieurs fois.

Ainsi du fait du caractère non exclusif des compétences qui s’y trouvent, le référentiel ne constitue pas une base fonctionnelle pour l’évaluation des enseignants. Il n’est pas non plus un point de départ fiable pour tenter d’approcher les composants des pratiques enseignantes.

Or, à cette disparité s’en ajoute une autre : on peut se demander si ces compétences ici rassemblées sont bien telles ou si elles ne sont pas plutôt des exigences. Au sens propre, une compétence est un « savoir agir ». Avoir une compétence, c’est posséder une expertise, sans que cela n’implique qu’on doive par là même utiliser cette expertise. On peut maîtriser la langue française et ne pas utiliser cette maîtrise dans la communication langagière. On peut savoir tenir compte de la diversité des élèves et ne pas en tenir compte. Ce que le référentiel semble demander, c’est non seulement de savoir faire un certain nombre de choses, mais surtout de les faire dans l’exercice du métier. On a là au moins autant un tableau des devoirs de l’enseignant qu’un tableau de ses expertises.

Ce caractère du référentiel peut avoir des conséquences sur l’évaluation. Car dès lors qu’on a là un tableau d’exigences, cela renverse la charge de la preuve dans le processus d’évaluation. En effet, si le référentiel présente les compétences que doit avoir l’enseignant, c’est à l’évaluateur qu’il revient de découvrir, dans la performance de l’enseignant, la preuve qu’il possède telle ou telle compétence. Si, au contraire, le référentiel énonce des exigences, alors c’est à l’évalué d’exécuter des actes qui répondent à celles-ci et, ainsi, de faire la preuve qu’il y répond.

Un troisième critère (après le caractère homogène et l’exclusion mutuelle des compétences) qui nous permet d’examiner ce référentiel est celui de l’exhaustivité. Si le référentiel prétend énumérer les conditions auxquelles un stagiaire doit satisfaire pour être digne de devenir enseignant, il doit décrire aussi complètement que possible les aspects du métier. La liste des 10 compétences semble à première vue assez complète. Mais si on examine les précisions données à propos de la compétence 4 (celle qui concerne l’action didactique), un formateur pourra estimer, au regard de son expérience, qu’il manque certains gestes du métier qui sont à la fois décisifs et délicats. Par exemple :

  • La passation des consignes : donner des consignes aux élèves pour la réalisation d’un travail à faire en classe ou à l’extérieur constitue une tâche particulièrement difficile en ce qu’elle exige de concilier deux exigences opposées : la brièveté et la précision.
  • Le traitement des erreurs des élèves. Celui-ci comporte deux opérations distinctes : d’une part, le traitement des erreurs dans les travaux écrits et, d’autre part, l’attitude de l’enseignant face aux réponses erronées que les élèves peuvent donner oralement lors d’interactions en classe. Dans le premier cas, l’enjeu est la pratique d’une évaluation régulatrice des apprentissages et la saisie par le maître des obstacles cognitifs à l’accès au savoir. Dans le deuxième cas, on trouve les mêmes enjeux, mais surdéterminés par les exigences de conduites de la classe et d’attention à la diversité des élèves.

Venons-en au dernier critère auquel nous pouvons confronter les compétences de ce référentiel : la non-contradiction des énoncés entre eux. Notons d’abord que ce critère n’aurait pas lieu d’être si le référentiel était, d’une manière univoque, un référentiel de compétences. Il n’est pas impossible en effet de prévoir, pour une activité donnée, des compétences dont les effets sont opposés entre eux. Ainsi, pour savoir conduire, il faut à la fois savoir accélérer et savoir freiner.

Le problème de la non-contradiction se pose plutôt lorsqu’on a affaire à des exigences. Car non seulement on ne saurait imposer à un acteur des exigences contradictoires entre elles, mais il y a lieu également d’éviter les exigences qui seraient concurrentes. La question est alors : le praticien pourra-t-il répondre, chaque instant de sa pratique, à l’ensemble des exigences émises ? À titre d’exemple, imaginons un enseignant du primaire qui, dans un CM2, au cours d’une leçon sur l’équivalence des fractions, tente de faire comprendre à ses élèves pourquoi on peut dire que 15/9 et 5/3 sont des fractions équivalentes. Est-il judicieux que, dans le souci d’être attentif à la qualité de la langue française (compétence 2), il interrompe l’interaction en cours pour reprendre un élève sur une inexactitude syntaxique ? La réponse est sujette à débat.

Ce qui émerge, à propos de cette question de la compatibilité des exigences à un moment donné de la pratique de classe, c’est que les énoncés de ce référentiel sont dominés par un principe d’opportunité. Ce que le métier requiert, ce n’est pas tant que l’enseignant satisfasse à toutes les exigences que le référentiel énonce, mais qu’il y réponde à bon escient. Mais il reste alors à s’interroger sur le « bon escient » dans le métier d’enseignant.

C’est ce que nous allons tenter d’approcher en prenant en compte le fait que le référentiel met en avant la notion de compétence (même si, comme nous venons de le voir, on peut soupçonner que l’intention des rédacteurs est de poser des exigences).

4. Qu’est-ce qu’une compétence ?

Prenons donc au sérieux ce terme que le référentiel affiche. Comme nous l’avons déjà indiqué, une compétence est une disposition à accomplir un certain type de tâche. Généralement, l’énoncé d’une compétence consiste à en décrire l’action ou son résultat : par exemple, « évaluer », « travailler en équipe », « organiser le travail de la classe », etc. Ces énoncés ne disent rien sur les processus physiques ou mentaux à mettre en oeuvre pour parvenir au résultat indiqué. Ainsi, l’énoncé « tenir compte de la diversité des élèves » ne dit en aucune façon ce qu’il convient de faire pour réaliser cette injonction. Ces énoncés ne disent rien non plus sur la manière de les faire acquérir. En ce sens, le référentiel, s’il indique les attentes du futur employeur, ne livre en aucune manière des indications sur les modalités de formation et, encore moins, un plan de formation.

Toutefois, dans le référentiel qui nous occupe, il n’y a pas exclusivement les dix compétences que nous avons rappelées ci-dessus. Chacune d’elles y est détaillée par l’indication de trois sortes de composants : des « connaissances », des « capacités à mettre en oeuvre ces connaissances » et des « attitudes ». Une telle présentation suggère un processus de fonctionnement (et peut-être même de construction) de la compétence. L’exercice de la compétence exigerait que le sujet ait des connaissances, puis les mettent en oeuvre, ce qui finirait par sédimenter en lui des attitudes.

Cette idée de « mise en oeuvre » semble rejoindre une conception de la compétence très répandue chez les chercheurs qui ont tenté d’éclaircir cette notion. Leboterf (1994), par exemple, à propos des compétences professionnelles, souligne que, pour qu’un individu soit compétent, il doit posséder un certain nombre de ressources et, d’autre part, être capable de « mobiliser » celles-ci d’une manière qui convient à la tâche ou à la situation. On trouve chez Perrenoud (1997) une conception analogue à propos des compétences susceptibles d’être acquises à l’école. Pour notre part, nous avons fait le même constat (Rey, 2002) en partant de l’usage qui est fait de la notion de compétence dans les référentiels de compétences scolaires de trois pays : la liste des compétences de fin de cycle en France (Ministère de l’Éducation nationale, 1995), les Socles de compétences (Communauté française de Belgique, 1999) et le Programme de formation de l’école québécoise (Gouvernement du Québec, 2000). En effet l’analyse de ces référentiels y fait apparaître, parmi les compétences spécifiques, deux types très distincts :

  1. Certaines des compétences reprises dans ces référentiels représentent des opérations stéréotypées et automatisables. Par exemple :
    • Savoir déchiffrer un mot inconnu sans hésiter (France, p.96).
    • Tracer des figures simples (Belgique, p.29).
    • Maîtriser la technique opératoire de l’addition (France, p.109)
    • Décomposer des nombres en facteurs premiers (Belgique, p.26).
  2. D’autres compétences, de loin les plus nombreuses dans les trois référentiels étudiés, ne renvoient pas à des opérations identiques dans toute situation et ne sont donc pas immédiatement automatisables. Elles s’ouvrent plutôt sur des éventails de situations potentiellement infinies et exigent des adaptations à chaque situation singulière. Par exemple :
    • rienter sa parole et son écoute en fonction de la situation de communication (Belgique, p.18)
    • Exploiter l’information (Québec, p.18)
    • Savoir repérer et représenter les éléments significatifs d’une situation (France, p.86)
    • Lire des textes variés (Québec, p.106)
    • Résoudre des problèmes (Québec, p.22)

C’est ce deuxième type qui semble correspondre à l’usage courant des termes « compétence » et « compétent ». Lorsque dans le langage ordinaire, on dit que quelqu’un est compétent dans un domaine, on implique non pas seulement qu’il est capable d’exécuter des opérations stéréotypées quand on le lui demande, mais surtout qu’il peut déterminer par lui-même lesquelles de ces opérations conviennent à une situation relativement inédite relevant du domaine considéré. C’est pour cela que nous préférons appeler « procédures de base » les opérations qui appartiennent au premier type et réserver le terme « compétence » au second type. Dans ce deuxième type, le sujet a à opérer un choix parmi les procédures de base qu’il possède pour déterminer celle qui convient (ou le cas échéant celles qui conviennent) aux caractères singuliers de la situation ou de la tâche à laquelle il est confronté. Il s’agit, autrement dit, d’une mobilisation « à bon escient » de procédures préalablement maîtrisées. En outre, si ce sont plusieurs de ces procédures de base qui sont nécessaires simultanément ou successivement, le sujet a à les combiner. Choix et combinaison, telles sont les deux opérations impliquées dans ce que les chercheurs s’entendent pour appeler « mobilisation ». Notons en passant que nous retrouvons là les deux opérations de base que, de longue date, les linguistes ont repérées dans la compétence linguistique (Jakobson, 1963).

Retenons pour le moment que le caractère essentiel et distinctif pour qu’on puisse parler de « compétence » est bien cette « mobilisation » que le sujet doit opérer à bon escient parmi différentes ressources qu’il possède. Parmi ces ressources, il peut y avoir des « procédures de base » comme nous l’avons fait apparaître à propos des compétences scolaires, mais il peut y avoir aussi des connaissances, des attitudes, etc.

5. Le référentiel français et la mobilisation

Le référentiel de compétences professionnelles des enseignants semble adhérer à cette conception du fonctionnement de la compétence en évoquant d’une part des connaissances et d’autre part des capacités à les mettre en oeuvre : on a bien là une distinction entre des ressources (les « connaissances ») et leur mobilisation (« mise en oeuvre »).

Mais deux remarques sont à faire à ce propos :

La première est que les seules ressources qu’évoque le référentiel et dont la mise en oeuvre constituerait la compétence, sont des « connaissances ». Bien entendu, ce vocable peut recouvrir beaucoup de choses différentes. Mais lorsqu’on examine les connaissances évoquées dans le référentiel, on constate qu’il s’agit soit d’informations, soit de savoirs proprement dits, c’est-à-dire de corps d’énoncés à caractère scientifique, obtenus sur la base de modèles théoriques et de démarches systématiques.

Or, le passage d’informations ou de savoirs à leur « mise en oeuvre » sous forme de décisions et d’actions exige des médiations qui ne sont pas dénuées de problèmes. Le passage d’une gamme de procédures de base ou de savoir-faire à leur mobilisation en situation exige d’éclaircir la manière dont s’opèrent le choix et la combinaison, mais le passage d’une gamme d’informations ou de savoirs à leur mobilisation implique une difficulté supplémentaire : non seulement le sujet doit opérer un choix et une combinaison, mais il doit également opérer la traduction qui permet de passer d’énoncés à des décisions et à des actions. Or, cette traduction est hautement problématique. Nous avons, ailleurs (Rey, 2006), exposé les difficultés du passage d’un texte à l’action et notamment l’action enseignante.

Une deuxième remarque s’impose, concernant ce moment essentiel de l’exercice d’une compétence que nous avons identifié comme la mobilisation. Nous avons dit qu’un individu pouvait être dit compétent dès lors qu’il possède un répertoire de ressources diverses (savoirs, information, savoir-faire, procédures) et qu’il peut mobiliser ces ressources en situation, c’est-à-dire choisir, à bon escient, celles qui conviennent à la situation à laquelle il est confronté. Mais que signifie « convenir à la situation » ? Que signifie « à bon escient » ? Question sdont la réponse éclairerait les problèmes de formation des enseignants et permettrait certainement de mieux appréhender les pratiques enseignantes.

6. Les compétences professionnelles vues par les formateurs

كتاب تنمية مهارات التفكير

À défaut de pouvoir donner une telle réponse, on peut tenter de voir comment des formateurs s’y prennent pour juger de cette mobilisation à bon escient. Le but serait triple :

  • D’une part, il serait intéressant de voir si leurs manières de juger du « bon escient » de la mobilisation sont plutôt convergentes ou au contraire divergentes.
  • D’autre part, il serait intéressant de voir à quel niveau de saisie de l’activité enseignante ils se placent pour apprécier la mobilisation à bon escient de leurs ressources par un enseignant (ou un futur enseignant) : est-elle jugée par une décision ponctuelle (par exemple, question posée à un élève, phrase écrite au tableau à un moment d’une leçon, etc.) ? Ou bien, est-elle plutôt appréciée sur le plan de la leçon ou de la séance prise dans sa globalité ? Ou bien encore, concernant une séquence, à la suite de séances consacrées à un même sujet, voire au le développement annuel dans une discipline ? Bref, pour parler métaphoriquement, quelle est la « focale » utilisée couramment par les formateurs pour juger de la manière dont les candidats enseignants mobilisent leurs ressources dans leur pratique enseignante ?
  • Enfin, accessoirement, il ne serait pas inutile de voir comment les formateurs utilisent le référentiel de compétences ou des instruments d’observations qui en sont dérivés, pour apprécier les compétences des enseignants en formation.Pour tenter d’apporter quelques éléments de réponse à ces questions, nous avons recueilli le positionnement de formateurs dans les circonstances suivantes : des formateurs ont été invités à visionner l’enregistrement vidéo d’une leçon et à l’évaluer en utilisant une grille d’indicateurs élaborée à partir du référentiel. La grille tentait, pour chacune des dix grandes compétences, de présenter des indicateurs correspondant aux indications détaillées (connaissances, capacités, attitudes) données dans le texte officiel. La tentative a été faite dans deux circonstances :
    • La première fois, les formateurs étaient invités à travailler sur l’enregistrement d’une leçon d’éducation physique (EPS) avec des élèves de 4ème de collège (8ème année de l’enseignement obligatoire), leçon consacrée à « l’appui tendu renversé » (précisons pour les non-spécialistes qu’il s’agit de se tenir en équilibre en appui sur les mains, avec les jambes tendues vers le haut).
    • La deuxième fois, dans un autre institut, un autre groupe de formateurs était invité à travailler sur l’enregistrement d’une leçon portant sur l’apprentissage de la lecture avec des élèves de fin de CP (cours préparatoire : première année du primaire). Le coeur de la leçon consistait dans l’activité suivante : l’enseignante présentait aux élèves des dessins représentant des objets ou des situations. Les élèves devaient trouver le mot désignant la chose dessinée, ce mot devait nécessairement commencer par la lettre « a ». Dans certains cas, le « a » initial du mot renvoyait au son [a] comme dans « ami » ; mais dans d’autres cas, la lettre « a » faisait partie d’un graphème renvoyant à d’autres sons, comme dans « aile », « auto », « antenne », etc.

Dans les deux cas, chaque formateur était invité à se servir de la grille d’indicateurs afin d’établir, sur la base de la leçon visionnée, une évaluation des compétences professionnelles de l’enseignant ; il devait le faire individuellement avant qu’il n’y ait mise en commun. Dans les deux cas, le groupe de formateurs (17 pour la leçon d’EPS et 14 pour la leçon de lecture) comportait à la fois des formateurs d’enseignants du primaire et des formateurs d’enseignants du secondaire.

Ces deux circonstances n’étaient pas destinées, à l’origine, à un usage scientifique, mais s’inséraient dans un dispositif de formation de formateurs. De ce fait, les deux situations souffrent d’imperfections méthodologiques : deux situations seulement, échantillon de faible taille et totalement occasionnel. En outre, la grille d’indicateurs dont les formateurs devaient tenter de faire usage pour évaluer la leçon visionnée était différente entre les deux circonstances, chacune ayant été élaborée localement. Enfin, le travail sur des leçons filmées comporte toujours un biais inévitable : le formateur n’y a pas le choix de l’orientation de son regard ; c’est l’auteur de la prise de vue qui l’impose.

Toutefois, même si ces deux situations ne permettent pas de saisir avec toutes les garanties scientifiques la manière dont les formateurs évaluent une leçon ni la manière dont ils peuvent utiliser le référentiel pour ce faire, elles conduisent néanmoins à quelques constats suggestifs :

  1. Dans une leçon donnée, ce sont très sensiblement les mêmes faits qu’ont repérés les différents formateurs et qu’ils désignent comme étant significatifs du degré de compétence de l’enseignant. Dans la séance d’éducation physique, on ne relève que deux exceptions à cette similitude : certains n’ont pas noté la gestion que l’enseignant fait de l’espace, gestion particulièrement importante puisqu’il ne dispose, pour sa leçon avec 27 élèves, que de la moitié d’un gymnase (l’autre moitié étant occupée par une autre classe) et que les élèves ne peuvent s’exercer que contre un mur. D’autre part, certains n’ont pas repéré ce qui pourrait être saisi comme un manque de rigueur de l’enseignant dans l’organisation du travail, pendant la phase d’échauffement (en début de séance), certains élèves se dispensant de certains exercices sans que l’enseignant ne les rappelle à l’ordre.En dehors de ces deux constats, les faits relevés sont remarquablement stables d’un formateur à un autre, pour une leçon donnée. En revanche, la hiérarchisation de ces faits varie selon les formateurs : tel fait peut être considéré comme négatif par certains, alors qu’il est perçu comme insignifiant, voire positif par d’autres. Par exemple, l’enseignant, dans les remarques qu’il fait sur les tentatives des élèves pour réaliser l’appui tendu renversé, utilise parfois la moquerie : « Regarde comme tu es : on dirait une banane » ou bien « Allez, tends les jambes, ne reste pas comme un crapaud ». Ces interpellations sont jugées négatives par certains formateurs qui les trouvent maladroites à l’égard d’adolescents et d’adolescentes qui peuvent être à la fois mal à l’aise avec leur apparence physique et très sensibles au regard d’autrui. D’autres, au contraire, estiment que ce sont des éléments anodins ou bien qu’ils relèvent d’une familiarité positive et dynamisante. Ce qui est également intéressant de signaler, c’est qu’au cours de la mise en commun, les formateurs se mettront d’accord sur le fait que cette interpellation quelque peu ironique de l’enseignant à l’égard de ses élèves devrait, pour pouvoir faire l’objet d’un jugement définitif, être rapportée à l’ambiance de classe perçue dans la durée, c’est-à-dire sur plusieurs séances successives.
  2. En ce qui concerne l’utilisation de la grille d’appréciation tirée du référentiel de compétences, l’ensemble des formateurs, dans les deux circonstances que nous rapportons ici, signalent un embarras majeur : certaines caractéristiques qu’ils observent dans la leçon visionnée, peuvent être imputées à plusieurs compétences. Ainsi, dans la leçon d’éducation physique, la précision de vocabulaire dont fait preuve l’enseignant pour désigner les actions et les positions corporelles peut être aussi bien mise au compte de sa maîtrise de la langue que de sa connaissance de sa discipline, de ses qualités didactiques ou de la maîtrise avec laquelle il organise le travail du groupe. La manière dont il organise l’espace peut aussi bien être imputée à sa maîtrise didactique qu’à son habileté pédagogique.En outre, pour certains faits observés, les formateurs disent ne pas voir précisément à quelle compétence ils pourraient les rattacher : c’est le cas ainsi, dans la leçon de lecture au CP, de la manière dont l’enseignante s’appuie sur les erreurs des élèves pour préciser ses consignes. Même difficulté pour catégoriser, dans la leçon d’éducation physique, le fait que l’enseignant demande aux élèves de « se donner des exigences précises » ou de tenter de « mémoriser des sensations ».
  3. Certains formateurs, notamment dans la première des deux circonstances, ont déclaré avoir tenté d’informer la grille d’indicateurs à mesure que la séance se déroulait, en pointant, à chaque évènement significatif de la leçon, l’indicateur auquel il pouvait renvoyer et avec le projet de pouvoir ainsi comptabiliser le nombre d’occurrences correspondant à chaque indicateur., mais ils ont signalé avoir dû rapidement y renoncer, du fait de l’impossibilité où ils étaient d’interpréter d’une manière univoque les évènements au moment où ils les constataient : c’est après coup, à la fin de la leçon, qu’une microdécision de l’enseignant pouvait leur apparaître rétrospectivement comme positive ou regrettable.Ainsi, un formateur, parmi ceux qui ont visionné la leçon de lecture en CP, a signalé que dans un premier temps il avait jugé négativement le long moment de démarrage qui, dans cette classe, avait précédé le véritable début des activités d’apprentissage : installation des élèves à leur table, traitement de différents problèmes organisationnels, vérification des présences, etc. ; mais qu’après avoir vu l’ensemble de la séance, il avait révisé son jugement et estimé, compte tenu des caractéristiques et des réactions de ce groupe nombreux et difficile, qu’une période relativement longue d’entrée dans l’ordre scolaire s’avérait indispensable.D’autres formateurs, rencontrés dans les deux circonstances, mais majoritaires dans la deuxième, ont signalé qu’à leurs yeux, il avait été d’emblée exclu qu’ils puissent utiliser cette grille d’indicateurs pour noter, en temps réel, les évènements successifs de la leçon. C’est seulement après avoir assisté à la totalité de la leçon qu’ils estimaient être en état d’informer la grille. Certains faisaient remarquer, à l’appui de cette position, que beaucoup d’actions d’un enseignant ne sont significatives que si elles sont récurrentes, notamment tout ce qui concerne l’attention à la diversité des élèves.Certains signalaient, en outre, que dans leur pratique ordinaire de formateurs, non seulement ils attendaient la fin de la séance pour se construire un jugement évaluatif, mais qu’ils attendaient aussi d’avoir eu un entretien avec le stagiaire qu’ils venaient d’observer. Car à leurs yeux, aussi bien la planification préalable de la leçon que les microdécisions prises d’une manière improvisée pendant qu’elle avait lieu, ne pouvaient être évaluées ni même comprises sans référence à une intention ou un projet.

Comment peut-on interpréter ces constats ? Les formateurs ont du mal à émettre un jugement évaluateur sur un élément isolé de la leçon qu’ils observent. Qu’il s’agisse d’une caractéristique relationnelle ou didactique de la leçon, d’une microdécision de l’enseignant, d’une réaction de sa part à ce que font ou disent les élèves, le fait observé n’est pas susceptible d’être jugé positif ou négatif en lui-même. C’est en le référant à la totalité de la leçon, voire à une unité de plus haut niveau (la progression annuelle dans la discipline, le climat relationnel établi dans la durée par l’enseignant, etc.), qu’on peut apprécier la valeur du fait observé. Le fait n’a pas de valeur en lui-même, il tient sa valeur de sa cohérence avec l’ensemble des autres caractères de la leçon, ou bien de la séquence ou bien encore de la globalité de l’enseignement donné par ce maître à ses élèves.

Mais ce n’est pas seulement la valeur positive ou négative du fait relevé qui ne peut lui être imputé intrinsèquement. C’est son existence même en tant qu’élément isolable et identifiable qui pose question : il n’y a pas d’abord des éléments de la leçon (évènements, décisions, paroles, gestes, etc.) qui existeraient objectivement et dont on apprécierait après coup la valeur. D’une certaine manière, c’est la totalité de la leçon (voire d’une unité plus large) qui va permettre d’identifier rétrospectivement les évènements significatifs et de rejeter dans le néant de l’insignifiance les autres ; ou encore, c’est la totalité de la leçon qui va permettre d’opérer, sur le continuum spatio-temporel dont elle est faite, une segmentation et, par là, de révéler des éléments pertinents. C’est ce qui explique qu’on ne peut chercher à repérer dans la leçon observée des caractères qui seraient prédéterminés dans une liste d’indicateurs et que, dans les deux circonstances que nous avons relatées, la plupart des formateurs abandonnent la grille qui leur avait été proposée. Ils n’arrivent pas à attendre et à noter l’occurrence de faits prédéfinis, puisque c’est la globalité de la leçon qui, une fois achevée, permet de saisir des faits. Et du coup, comme nous l’avons signalé, les faits ainsi repérés ne peuvent pas être classés dans le système de catégorisation a priori que la grille imposait.

Dès lors, on ne peut pas éviter de comparer la manière dont ces formateurs perçoivent la leçon à un récit. Un récit est une construction langagière qui relate ce qui s’est passé dans un laps de temps. Mais il ne relate pas tout ce qui s’est passé. D’ailleurs, que pourrait être une relation intégrale de ce qui s’est passé dans ce laps de temps ? Serait-ce une description des mouvements de tous les atomes de l’univers durant le moment délimité ? Cela n’aurait évidemment aucun sens. Le récit est une sélection de ce qui s’est passé : ne seront repris en compte que les évènements qui entrent dans l’intrigue ou, si l’on veut, dans le schéma narratif choisi. Et il est clair que ces « évènements », avec la segmentation qui les constitue, ne préexistaient pas au récit ; c’est le récit qui, avec sa logique propre, les découpe sur le continuum temporel et par là les fait exister. Notons en outre que dans un récit, ainsi que la narratologie l’a fait apparaître, l’intrigue est souvent constituée par les rapports entre le projet d’un personnage principal et les circonstances qui tantôt font obstacle à ce projet, tantôt le favorise.

D’une certaine manière, les formateurs saisissent la leçon qu’ils observent comme s’ils en construisaient un récit. Les faits et les caractéristiques qu’ils y voient sont constitués par la totalité organique qu’est la leçon et celle-ci est vue comme une intrigue dans laquelle un personnage, l’enseignant, conduit un projet dans un champ de réalités et de contraintes dont certaines sont des adjuvants et d’autres, des obstacles. Le récit qui se construit alors est celui de la survenue de ces contraintes extérieures et de la manière dont l’enseignant s’appuie sur certaines d’entre elles pour surmonter les autres.

On comprend alors pourquoi il paraît essentiel à beaucoup d’entre eux de mener, avant d’avoir un avis sur la leçon, un entretien avec l’enseignant ou l’apprenti enseignant dont ils viennent d’observer la prestation. Il s’agit en effet de connaître précisément son projet, car c’est à partir de lui qu’ils pourront saisir les différents éléments constitutifs de ce moment d’enseignement : les actions de l’enseignant et le système de contraintes au sein duquel il les menait.

Ainsi, dans l’expérience de ces formateurs, un acte ou une décision de l’enseignant ne peut jamais être évalué en lui-même, comme si on pouvait l’isoler et le rapporter à une liste préalable d’exigences auxquelles l’enseignant devrait savoir répondre grâce à ses compétences. Les actes et décisions ne prennent valeur que par référence à deux éléments : d’une part, le projet de l’enseignant et d’autre part, l’ensemble des circonstances (parmi lesquelles, en première place, les réactions des élèves) au sein desquelles ce projet tente de se réaliser.

7. Conséquences pour l’analyse des pratiques enseignantes

Bien entendu, les formateurs qui observent ainsi des leçons et qui s’en construisent un récit, le font dans une intention évaluatrice. Leur but n’est pas seulement de comprendre les actions de l’enseignant, mais de se prononcer normativement sur la qualité de la prestation. De ce fait, ils ne se contentent pas d’enregistrer le projet de l’enseignant (par inférence ou au terme d’un entretien avec lui) en vue de comprendre, à partir de lui, les actions menées et les contraintes subies. Ils émettent un jugement sur ce projet, en examinant son adéquation avec les programmes scolaires, les démarches didactiques considérées comme optimales, l’épistémologie de la discipline enseignée, les règlements propres à l’institution, etc.

Mais, si nous nous plaçons maintenant dans la perspective de saisir d’une manière heuristique les pratiques enseignantes, nous devons abandonner la perspective normative qui peut être celle de formateurs ou d’évaluateurs. Nous ne chercherons pas à confronter le projet de l’enseignant à différentes normes en vigueur ; nous ne tenterons pas non plus de voir si, dans le cours de la leçon, l’action de l’enseignant a consisté à tenir compte de la manière optimale des contraintes de l’environnement. La notion d’optimalisation est évidemment bannie de cette perspective. Mais ceci étant établi, il est possible de prendre en compte certaines des remarques que nous venons de faire.

La première est pour dire qu’il est vraisemblablement impossible d’établir a priori ce qui serait des composantes ou des dimensions constitutives de la pratique d’enseignement. Celle-ci ne comporte pas d’éléments observables, que l’on pourrait déterminer une fois pour toutes et dont on rencontrerait des combinaisons diverses dans les situations de classe. Il en va d’une séance d’enseignement comme il en va de l’histoire : Paul Veyne (1971) note que l’historien, dans sa tâche, ne peut déterminer a priori des évènements qui se trouveraient objectivement dans le passé. Les « évènements » sont construits par l’historien. Cela ne signifie qu’il les invente comme le fait l’auteur d’une fiction, mais sur la base des sources dont il dispose, il opère un séquençage, il néglige certains aspects, en sélectionne d’autres et par cette sélection même les délimite et les constitue en faits. Cette sélection et cette délimitation sont opérées en fonction de ce qui peut entrer dans la logique de la construction narrative que prépare l’historien. Veyne parle ainsi d’une « intrigue ».

Il en va de même lorsqu’il s’agit de saisir les pratiques enseignantes. Il n’y a pas d’éléments de la pratique de classe qui se donneraient en eux-mêmes. Au nom de quoi pourrait-on affirmer qu’il convient d’étudier le temps de prise de parole de l’enseignant, ou bien la nature de ses interactions avec les élèves, ou bien les reformulations qu’il opère sur les paroles des élèves ? Aucun de ces éléments ne s’impose objectivement ; du point de vue de leur objectivité, ils ne s’imposent pas plus que de dénombrer les mouvements du bras gauche de l’enseignant, de noter la couleur des murs de la classe ou d’enregistrer tout autre donnée. Cela ne signifie pas qu’ils sont inintéressants ni arbitraires ; mais ils s’imposent comme des caractéristiques significatives par référence à une construction narrative que le chercheur élabore pour « comprendre » la pratique d’un enseignant dans sa classe.

Ainsi, toute leçon est vue comme une sorte d’aventure humaine qui pourra faire l’objet d’un récit et par conséquent dans laquelle tout élément observé l’est par la place et le rôle qu’il occupe dans cette aventure ou, pourrait-on dire, dans le drame qui se noue durant la leçon. Est-ce à dire qu’il n’y aura alors que des approches singulières des pratiques enseignantes, la pratique d’un enseignant durant une leçon faisant l’objet d’une histoire particulière irréductible aux histoires qui se nouent dans les leçons d’autres enseignants et même dans d’autres leçons du même enseignant ?

Une réponse nuancée doit être apportée à cette question. Oui, d’une certaine manière, toute leçon est un drame singulier, comme l’est n’importe quel moment de l’histoire d’une société, car il s’agit d’une interaction entre humains qui, par là même, échappe à la prévisibilité. Mais, d’un autre point de vue, on trouvera certainement, au sein de ces histoires toutes singulières, des invariants, comme les historiens en relèvent dans l’histoire des sociétés et comme les spécialistes de narratologie en relèvent dans les constructions narratives.

8. Pratique, projet, contraintes

Parmi ces invariants, il y a le fait que l’enseignant a un projet et que ce projet, dans la majorité des cas, est qu’il y ait, de la part des élèves, un apprentissage. Il y a aussi le fait que l’enseignant tente de réaliser ce projet dans un champ de contraintes. Arrêtons-nous un instant sur cette notion de contraintes dont nous avons déjà plusieurs fois fait usage dans le présent texte.

Lorsque, dans le langage courant, on parle de contrainte, on entend ordinairement des circonstances qui s’opposent à l’action d’un sujet, qui constituent des obstacles, des empêchements ou des impossibilités. Ici, nous l’utilisons dans un sens nettement plus large : une contrainte est une circonstance de l’environnement qui a un effet aussi bien positif que négatif par rapport au projet d’un sujet. Il s’agit des aspects de l’environnement qui sont révélés par le projet et que le projet constitue, par sa nature même, en adjuvant ou en obstacle.

Précisons : un projet part toujours de la volonté de faire advenir un état du monde qui n’est pas actuellement existant. Car un projet qui ne projetterait que ce qui existe déjà n’en serait pas un : il ne serait que l’acceptation de la situation présente ou de son évolution prévisible. Dès lors qu’il est toujours une entreprise de modification de l’état des choses, le projet se développe et s’exerce sur une réalité qui n’est pas celle qu’il veut faire advenir finalement. C’est cette réalité actuelle qui, par la définition même du projet, n’est pas conforme à ce que le projet veut réaliser, que nous appelons ensemble de contraintes. Mais bien entendu, parmi ces contraintes, certaines vont se révéler être des points d’appui qui vont aider le sujet dans son projet, tandis que d’autres vont jouer en sens inverse. Il n’est d’ailleurs pas exclu qu’un même aspect de la réalité puisse être obstacle à un moment donné de la réalisation du projet et adjuvant à un autre moment. La prise en compte à la fois du projet de l’enseignant et des contraintes dans lesquelles celui-ci va être réalisé justifie pleinement, à notre sens, l’usage de la notion de « pratique ». En effet, parler de pratique, ce n’est pas parler seulement d’actions ou d’activités des acteurs, c’est évoquer l’environnement à la fois matériel, social et historique dans lequel les actions sont conduites. On ne peut comprendre la pratique enseignante sans se référer aux conditions sociales de son exercice.

Ainsi, dans le « minidrame » qu’est une leçon, les contraintes sont l’ensemble des circonstances extérieures à la volonté de l’enseignant et qui peuvent tantôt aider, tantôt contrarier le projet de faire apprendre. Ainsi en va-t-il d’abord des caractéristiques des élèves, caractéristiques sur le plan psychologique et sociologique : leur engagement dans le travail scolaire, leur degré de proximité ou d’éloignement par rapport à la culture de l’école, la distance entre leur mode de pensée initial et celui qu’impliquent les savoirs à acquérir, leur disposition émotionnelle, tant individuelle que collective, à l’égard de la personne du maître, etc. ; mais aussi l’état ponctuel de leur disponibilité intellectuelle au moment de la leçon (et même, pour être précis, aux différents moments successifs de la leçon). Font partie également des contraintes, la nature de ce que l’enseignant doit faire apprendre (programmes, règles épistémologiques des savoirs), règlements de l’institution, attente des parents, contraintes temporelles (durée d’une leçon, organisation annuelle), contraintes spatiales (aménagement de la classe, possibilité d’y circuler plus ou moins facilement), nature du matériel disponible, etc.

Ainsi, la leçon de lecture en fin de CP dont nous avons parlé ci-dessus peut se laisser décrire comme un drame. Le projet de l’enseignante, tel que nous pouvons l’inférer sur la base du visionnement de la leçon, est d’entraîner les élèves à mobiliser tous les phonèmes de la langue française dont la graphie comporte la lettre « a », seule ou composée avec d’autres. Pour accrocher l’attention de ses jeunes élèves, elle met en place un dispositif ludique, qui consiste à leur montrer les images d’un abécédaire ; ce dispositif apparaît donc à première vue comme une aide.

Mais il constitue aussi un obstacle, car il oblige les élèves d’abord à passer du dessin à l’hypothèse d’un mot qui lui correspondrait, ensuite à vérifier que ce mot commence bien par la lettre « a », même quand le son initial n’est pas [a]. La difficulté est alors pour les élèves de réaliser deux opérations successives, mais surtout de passer de la première opération qui relève de la sémantique (la correspondance entre le dessin et le mot, autrement dit le sens du mot) à une deuxième opération qui exige d’inhiber le sens du mot, pour se focaliser sur sa graphie.

Pour contrôler l’implication de tous les élèves, elle fait faire ce travail oralement et collectivement, les élèves étant assis sur des bancs autour d’elle ; mais ce travail oral risque de conduire à ce que seuls les élèves les plus compétents dans l’exercice prennent la parole. Pour éviter cette dérive, elle exige que seuls prennent la parole les élèves qui l’ont préalablement demandée ; mais le maintien strict de cette exigence l’amène à interrompre fréquemment le cours du travail pour rappeler à l’ordre des élèves, ce qui fait qu’on n’est pas sûr, finalement, que tous les élèves participent vraiment à l’exercice.On pourrait bien compléter et enrichir cette présentation en montrant comment d’autres aspects de l’environnement (nombre d’élèves, temps disponible, dimension des images montrées, et bien d’autres choses encore) jouent tour à tour le rôle d’adjuvant ou d’obstacle dans la réalisation du projet d’apprentissage. Mais nous avons déjà, par les remarques sommaires que nous venons de faire, l’indication de la structure dramatique de la leçon, laquelle permet d’appréhender ce qu’est, durant cette leçon, la pratique de l’enseignante. Mais pour être complet, il conviendrait de montrer la manière dont jouent, dans ce déroulement, d’autres contraintes plus larges, notamment des aspects de la vie scolaire qui sont généralement moins perceptibles par les acteurs de l’école, parce qu’ils leur apparaissent comme allant de soi : il s’agit des caractéristiques mêmes de ce qu’est une école. Cela comporte d’abord le fait même d’une transmission des pratiques humaines sur le mode didactisé, c’est-à-dire d’une manière très différente de la transmission par imitation et collaboration que l’on trouve dans les sociétés traditionnelles (Delbos et Jorion, 1990). À ces caractéristiques de la transmission scolaire, s’ajoute le fait que dès son apparition vers le 15ème siècle, l’école s’est organisée en années successives, avec des étapes d’apprentissage, uniformes dans leur nature et leur durée pour tous les élèves, ce qui entraîne, d’une manière quasi continue, des procédures de contrôle et une identification de l’élève à l’ensemble de ses écarts de performance par rapport à la moyenne des autres (Kahn, 2007).

Conclusion

Il n’y a pas besoin d’être un analyste particulièrement rigoureux pour voir que le référentiel de compétences professionnelles des enseignants que contient le cahier des charges des IUFM comporte des éléments très disparates. C’est le rassemblement de ce qui paraît souhaitable à l’employeur. Mais l’absence d’exclusion mutuelle entre ces compétences ne permet guère d’en tirer un instrument satisfaisant d’évaluation. Son manque d’exhaustivité dans la description des gestes du métier et son absence d’homogénéité conceptuelle font qu’on ne peut guère le prendre comme point de départ d’une identification des éléments de base dont la combinatoire pourrait constituer les pratiques enseignantes.

Pourtant son insuffisance même met sur la voie d’un principe important : les exigences qu’il formule ne sont compatibles que si elles sont réalisées en fonction du principe d’opportunité.

Or, c’est ce même principe d’opportunité ou de « bon escient » que l’on rencontre au coeur de la notion de compétence. Car être compétent, ce n’est pas seulement savoir exécuter une opération prédéterminée quand on en reçoit la demande, mais c’est savoir mobiliser à bon escient ce qui convient à une tâche, ou une situation, même quand celles-ci sont relativement inattendues et nouvelles.

Mais qu’est-ce que le bon escient en matière de pratique enseignante ? L’expérience de formateurs tentant d’évaluer des leçons est ici particulièrement instructive. Certes, le jugement qu’ils tentent de porter sur la pratique d’un enseignant est habité de positions normatives et établi sur la base de référence à des démarches didactiques et pédagogiques considérées comme meilleures que d’autres dans le monde de la formation des enseignants. Mais leur observation du déroulement de la leçon est également réglée par une manière de faire qui peut être rendue indépendante de ces jugements de valeur : ils observent les évènements de la leçon non pas en eux-mêmes, mais par référence à la totalité que constitue cette leçon ainsi qu’au projet de l’enseignant. Cette façon d’observer la pratique d’un enseignant disqualifie du même coup l’usage d’une grille qui fixerait a priori les faits à observer et réduit l’intérêt que peut avoir le référentiel de compétence dans cette perspective.

Une telle façon de faire peut mettre sur la voie non pas tant d’une méthodologie pour appréhender les pratiques enseignantes, mais plus profondément sur la voie d’une conception de ces pratiques : une pratique, c’est la relation dynamique, socialement et historiquement située, d’un projet humain avec l’ensemble des factualités dans lequel il tente de se réaliser. Ainsi, le projet de faire apprendre quelque chose aux élèves révèle l’état du monde et ses contraintes comme système évolutif d’aides et d’obstacles, et ces contraintes à leur tour viennent infléchir le projet. La pratique n’est rien d’autre que ce va-et-vient dynamique et du coup, c’est sous la forme d’une histoire qu’elle semble devoir être saisie le plus adéquatement. On est évidemment loin, dans cette optique, de l’idée que la pratique enseignante serait l’application planifiée d’une méthode d’enseignement.


Quelles sont les qualités d’un bon enseignant ?

Forgeron, un savoir faire qui se transmet et s’apprend de père en fils
L’artisan de la ville de Fes, des habiletés qui s’apprennent après de longues entraînements
Les tanneries de Fes et de Marrakech tout un savoir et un savoir faire heritage de plusieurs siècles
Un artisan qui exerce son métier dans son modeste atelier de l’ancien médina de la ville de Fes Maroc
Introduction générale à l’éducation aux compétences de vie et à la citoyenneté
connaissance Habileté Compétence Attitude Comportement
les liens entre le savoir faire physique et l’éducation
Habiletés motrices de base

Quelques définitions pour bien débuter


Capacité :

opération mentale, mécanisme de la pensée que l’individu met en
œuvre quand il exerce son intelligence, dans un contexte donné
=> Capacités de compréhension, d’application, d’adaptation et de création
Pour Meirieu : Une capacité est une « activité intellectuelle stabilisée et reproductible
dans des champs divers de la connaissance. », une compétence est « un savoir
identifié mettant en jeu une ou des capacités, dans un champ notionnel ou disciplinaire
déterminé. »


Compétence :

permet à un individu de résoudre un problème, ayant une
certaine complexité, dans une situation donnée
=> la compétence s’établit dans l’action (il met en œuvre sa capacité à agir), l’individu
mobilise et combine des ressources de façon pertinente.
Selon Meirieu, une compétence est un « savoir identifié mettant en jeu une ou des
capacités dans un champ notionnel ou disciplinaire donné. » Cette proposition suggère
que la compétence serait une combinaison appropriée de plusieurs capacités dans une
situation déterminée.
Quelles distinctions alors entre capacités et compétences ?
La compétence est liée à un métier, à une profession, à un statut, à une situation
professionnelle ou une situation sociale de référence ; à ce titre, elle englobe des «
savoirs, savoir-faire et savoir-être » intimement liés. Ces trois dimensions
apparaissent sous la forme d’une juxtaposition hésitante et maladroite dans le cas du
«novice», pour devenir un ensemble fusionnel performant dans le cas de «l’expert».
En revanche, la capacité est (ou serait) une « habileté transversale », une sorte de
savoir-faire décontextualisé, susceptible d’être mis en œuvre dans des situations
professionnelles ou sociales très différentes. On voit donc que les termes de
compétence et capacité ne sont pas synonymes.

Habileté

Ensemble de savoir-faire qui permettent à une personne de maîtriser une activité et de réussir dans l’accomplissement d’une tâche. Ensemble de savoir-faire qui permettent à une personne de maîtriser une activité et de réussir dans l’accomplissement d’une tâche.

Bien que les termes habileté et capacité soient parfois employés comme synonymes, on veillera à ne pas les confondre. Le terme habileté est plus spécifique que le terme capacité. L’habileté est centrée sur une tâche et se rapporte à l’application d’aptitudes et de connaissances. Elle est plus facilement observable et mesurable que la capacité, qui fait plutôt référence à l’étendue de ces aptitudes et de ces connaissances, au pouvoir d’accomplir une tâche. Une capacité perfectionnée par l’apprentissage devient une habileté.


Evaluer :

porter un jugement sur la production d’un élève en la comparant à une
production idéale
• Évaluation diagnostique : évaluation intervenant au début, voire au cours d’un
apprentissage ou d’une formation, qui permet de repérer et d’identifier les difficultés
rencontrées par l’élève ou l’étudiant afin d’y apporter des réponses pédagogiques
adaptées.
• L’évaluation formative : évaluation intervenant au cours d’un apprentissage ou
d’une formation, qui permet à l’élève ou à l’étudiant de prendre conscience de ses
acquis et des difficultés rencontrées, et de découvrir par lui-même les moyens de
progresser.
• L’évaluation sommative :évaluation intervenant au terme d’un processus
d’apprentissage ou de formation afin de mesurer les acquis de l’élève ou de
l’étudiant


Former:

faire acquérir un niveau intellectuel par le développement de
connaissances, d’aptitudes.


Ressources :

ensemble de moyens diversifiés et coordonnés auxquels à
recours l’individu compétent pour traiter avec succès une situation.
Si et seulement si :

  • les ressources sont adaptées à la situation
  • sont un moyen pour améliorer la situation
  • sont pertinentes
    Les ressources peuvent être :
    Internes : connaissances, attitudes, qualités physiques
    Externes: matérielles (manuel, internet) et humaines (enseignant, travail de groupe,
    professionnels)
    Situation d’apprentissage : ensemble contextualisé d’informations à articuler
    en vue d’aboutir à une tâche déterminée. La situation d’apprentissage va donner
    le sens à l’apprenant et doit relever du défi, toucher l’intérêt.
    On distingue :
    Une situation d’exécution est une situation dans laquelle les procédures de résolution
    sont connues de l’individu et applicables directement.
    • Une situation-problème est une situation pour laquelle l’individu ne dispose pas de
    procédures de résolution, qui doit permettre à l’élève d’enrichir ses connaissances de
    nouvelles représentations, donc d’apprendre.

L’Éducation aux valeurs dans le système d’éducation

اذا لم تقم بالمخاطرة فإنك ستبقى دائما تعمل لدا شخص قد فعل ذالك قيمة المخاطرة

Pour connaître l’ensemble de valeurs que doit posséder chaque marocain(e) , suivez le lien ci-dessous, et télécharger le document selon la langue que vous souhaitez

https://www.csefrs.ma/publications/leducation-aux-valeurs-dans-le-systeme-deducation/?lang=fr

L’éducation aux valeurs

قيمة القيم المهدي المنجرة

L’éducation aux valeurs : un levier déterminant pour la valorisation du capital humain Clé de voûte de la société, le système des valeurs joue un rôle décisif dans la construction de l’individu et dans l’édification de la société. Eduquer aux valeurs est par conséquent une responsabilité que se partagent l’école, les familles, les médias et toutes les institutions assurant des missions d’éducation, de formation culturelle et d’encadrement, même si l’école, creuset de la nation par excellence, en assume la plus grande part. Les valeurs constituent un socle d’idéaux normés et partagés qui encadrent le savoirêtre et le savoir-agir de l’individu et qui se déclinent dans la pensée et le discours, comme dans le comportement et les pratiques au quotidien. Elles puisent leur contenu dans le socle référentiel des valeurs de la société (religion, histoire, politique, culture, ….) ainsi que dans les différents affluents qui la façonnent : locaux, nationaux, régionaux et universels. Le rapport du Conseil Supérieur de l’Education, de la Formation et de la Recherche Scientifique (CSEFRS), consacré à « L’éducation aux valeurs dans le système national d’éducation, de formation et de recherche scientifique », objet de la présente synthèse, se fonde sur les principales considérations suivantes: • L’éducation aux valeurs se situe au cœur des préoccupations de la nation et du débat public autour de l’école. Cette problématique a été explicitement mise en débat et a suscité des réflexions et des contributions de fond, dès la fin des années quatre-vingt-dix et les débuts des années deux mille, tant à l’échelon international que national; • Elle constitue un des leviers de formation et de développement durable du capital humain ; • Elle représente, en outre, un paradigme structurant des missions de l’école, notamment celles liées à la socialisation, à l’éducation, à la culture, à l’inclusion socioculturelle des apprenants et à la consolidation de la cohésion sociale. • Son impact va enfin au-delà des domaines de l’enseignement, de la formation, de la qualification et de la recherche et s’étend plus largement au développement humain et environnemental. La vision qui sous-tend ce rapport est adossée à une approche intégrée des missions de l’école qui prend en compte, outre l’acquisition des savoirs, des langues et des compétences, les dimensions psychologiques, comportementales, sociales, civiles, culturelles et environnementales de l’éducation. Un contexte national et international en mutation et de nouveaux référentiels pour l’éducation aux valeurs Le rapport sur l’éducation aux valeurs intervient dans un contexte national et international en pleine mutation. Sur le plan national, le Maroc s’est engagé dans un certain nombre de réformes institutionnelles et législatives, qui ont été couronnées par l’adoption de la Constitution de 2011. Celle-ci a mis en bonne place le socle des valeurs communes à la nation, notamment: • l’organisation de la vie sociale autour des valeurs de la démocratie, des droits de l’Homme, de l’Etat de droit, de la justice,

التعليم بدون قيم، بقدر ما هو مفيد، إلا أنه يجعل الإنسان شيطانا أكثر ذكاء

de la liberté, de la dignité, de l’égalité hommes-femmes, de la citoyenneté responsable et de la solidarité ; • la place prépondérante de la religion islamique dans l’identité marocaine ; • l’unité nationale et territoriale ; • l’identité plurielle résultante des métissages de ses multiples affluents ; • l’esprit d’ouverture, la modération, la tolérance, la créativité ; • le dialogue et la compréhension entre les cultures et les civilisations du monde. Dans le même ordre d’idées, les discours royaux n’ont eu de cesse de souligner l’importance capitale que revêt la consécration de l’Etat de droit, la corrélation entre démocratie et développement humain et environnemental, le nécessaire renforcement des valeurs civiques et le rôle décisif de l’école en matière d’éducation aux valeurs. Dans le cadre de la consolidation de son projet sociétal, le Maroc a ratifié les conventions internationales relatives aux droits de l’Homme et à la lutte contre toutes les formes de discrimination à l’égard des femmes, des personnes handicapées et en situation spécifique et des enfants d’immigrés résidant légalement au Maroc. Il a réaffirmé, par ailleurs, son attachement à la diversité culturelle et linguistique. L’éducation aux droits de l’Homme : un portail historique pour l’éducation aux valeurs Historiquement, le programme national de l’éducation aux valeurs a été adopté dans le cadre de la décennie des Nations-Unies pour 6 l’éducation aux droits de l’Homme, et sur la base d’une convention de partenariat entre le Ministère de l’éducation nationale et le Ministère des droits de l’Homme en 1994. Ladite convention dont la généralisation était programmée pour 2001, a défini les objectifs généraux du programme d’éducation aux droits de l’Homme en ces termes : «Soutenir la diffusion de la culture des droits de l’Homme dans les programmes scolaires afin de permettre à l’apprenant d’acquérir les principes et les notions qui constituent le socle des droits de l’Homme, d’adopter des attitudes et des comportements qui traduisent sa prise de conscience envers ses droits et pour le respect des droits d’autrui et de se mobiliser pour la défense de ces droits». Ce programme a rendu possible une appréciable accumulation et a permis au système éducatif d’intégrer la dimension de l’éducation aux droits de l’Homme qui était totalement absente de ses programmes auparavant. Cependant le processus de mise en œuvre de ce chantier et l’exploitation de ses premiers résultats n’a pas connu de suite notable. Par ailleurs, l’Instance Equité et Réconciliation, dans son rapport final (Novembre 2005), a avancé un certain nombre de recommandations au sujet de la promotion des droits de l’Homme à travers l’éducation et la sensibilisation. Ainsi, cette instance a appelé à l’élaboration d’un plan d’action national intégré et à long terme à cet effet, sur la base des consultations nationales engagées à propos de l’initiative du Conseil Consultatif des Droits de l‘Homme relative au plan d’action national pour l’éducation aux droits de l’Homme et leur promotion.

D’autre part, la mise en œuvre des recommandations de la Charte nationale d’éducation et de formation (1999) a, entre autres initiatives, donné lieu à l’élaboration et à la programmation d’un cursus scolaire dans le système éducatif national dédié à l’Education à la citoyenneté. Cette innovation a été opérée dans le cadre des nouvelles dispositions dédiées à la diffusion de la culture des droits de l’Homme. Le programme de l’éducation à la citoyenneté a constitué un modèle avancé eu égard à la méthodologie et à la démarche pédagogique intégrée qui ont présidé à sa dissémination dans le système éducatif national. Néanmoins, parallèlement à ces dispositifs destinés à la consécration des valeurs, force est de constater l’accroissement de comportements et d’attitudes qui menacent les droits de tous genres, particulièrement ceux des enfants et des jeunes, des deux sexes, tant dans l’enceinte qu’à l’extérieur de l’école. Et ce malgré la multiplication des initiatives civiles visant à renforcer le développement social, à raffermir le système des valeurs et à diffuser la culture des droits de l’Homme. Partant de ces considérations, le Conseil réaffirme que le socle de valeurs communes énoncé dans la Constitution constitue la matrice des valeurs à laquelle l’école marocaine se doit de se référer dans l’œuvre de socialisation et d’éducation des jeunes générations. Un référentiel qui reste constamment ouvert sur les modèles vertueux à l’échelle internationale et sur le corpus des valeurs universelles. Objectifs fondamentaux de l’éducation aux valeurs dans le système éducatif et son écosystème Le rapport inscrit sa contribution dans le cadre de la mise en œuvre de la Vision stratégique de la réforme 2030-2015, qui a placé l’école au cœur du projet sociétal marocain et accordé à l’éducation aux valeurs un rôle de premier ordre dans l’édification d’une école de l’équité et de l’égalité des chances, de la qualité des enseignements pour tous et de la promotion individuelle et sociale. Le présent document vise à atteindre les principaux objectifs suivants : • Permettre au système éducatif de s’acquitter au mieux de ses principales missions, à savoir la socialisation et l’éducation ; • Revaloriser, continuellement, la qualité du système éducatif en veillant à articuler harmonieusement développement des connaissances et des compétences et transmission des valeurs ; • Soutenir les efforts de l’école visant à réussir l’inclusion socioculturelle de ses lauréats ; • Développer les approches pédagogiques visant à améliorer la qualité des relations au sein des structures éducatives, ainsi qu’entre les établissements et dans les relations de ceux-ci avec leur écosystème, autour des valeurs, des droits et des obligations ; • Faire du système éducatif un des vecteurs de consolidation et de transmission des valeurs énoncées dans la Constitution.

PREMIÈRE PARTIE : L’ÉDUCATION AUX VALEURS DANS LE SYSTÈME ÉDUCATIF : RÉALITÉS ET DÉFIS

I- Des acquis à consolider et à développer Le système éducatif marocain a accumulé des acquis importants dans le domaine de l’éducation aux valeurs, tant à la faveur des projets de réforme entrepris que dans le cadre des politiques publiques relatives à l’éducation, la formation et la recherche. Ces facteurs positifs se traduisent dans : a. La Constitution du Royaume qui comporte dans nombre de ses articles des dispositions relatives à la consécration des constantes de la nation et de son socle de valeurs ; b. La Charte nationale d’éducation et de formation qui stipule que le système éducatif du Royaume du Maroc « se fonde sur les principes et les valeurs de la foi islamique » et « vise à former un citoyen vertueux, modèle de rectitude, de modération et de tolérance, ouvert à la science et à la connaissance et doté de l’esprit d’initiative, de créativité et d’entreprise » ; c. L’avis rendu par le Conseil supérieur de l’enseignement sur « Le rôle de l’école dans le renforcement du comportement civique ». Cet avis a pris pour fondement les orientations contenues dans le message royal, en 2007, qui a considéré que la finalité ultime de l’éducation au comportement civique est de « former un citoyen attaché aux constantes religieuses et patriotiques de son pays, pleinement respectueux des symboles de sa nation et des valeurs civilisationnelles d‘ouverture qui sont les siennes » ; d. La Vision stratégique de la réforme éducative 2030-2015 qui a inscrit parmi les objectifs du système éducatif la nécessité 10 de considérer l’éducation aux valeurs de la démocratie, de la citoyenneté agissante, et aux vertus du comportement civique, du renforcement du principe de l’égalité et de la lutte contre toutes les formes de discrimination, en tant que choix stratégiques irréversibles. Parallèlement à ces projets de réforme relatifs à l’éducation aux valeurs, des initiatives concrètes ont été entreprises : • Mise en place, en 2015, par le Ministère de l’Education Nationale et de la Formation professionnelle de l’Observatoire national pour la lutte contre la violence en milieu scolaire ; • Renforcement de la dimension relative aux droits de l’Homme dans les cahiers des charges relatifs aux manuels scolaires en y introduisant des articles consacrés à l’éducation à l’intégrité et à la transparence, l’équité et la justice, le développement durable, l’approche genre, l’égalité entre les sexes et le bannissement de la violence, etc ; • Création de l’Observatoire des Valeurs avec un bureau central, des coordinations régionales et provinciales et des antennes ad hoc, afin d’assurer le suivi de la mise en œuvre des directives ministérielles relatives au thème des valeurs dans les activités en classe, dans la vie scolaire et dans la gouvernance des établissements éducatifs ; • Publication d’un guide pour la vie scolaire (2008) qui a insisté sur les principes de l’équité, du genre, de l’intégration en vue de réunir les conditions d’un environnement pédagogique et social approprié pour l’épanouissement des apprenants. ;

• Publication de la version arabe de l’ouvrage collectif « L’Education aux droits de l’Homme, Comprendre pour agir » sous forme d’un « Guide de l’enseignant(e) pour l’éducation aux droits de l’Homme dans l’espace francophone » (Organisation Internationale de la Francophonie). II- Des difficultés et des dysfonctionnements persistants En dépit de l’importance des acquis réalisés par l’école marocaine en matière d’éducation aux valeurs, nombre de difficultés et de dysfonctionnements subsistent, notamment: • Un manque de coordination entre les diverses initiatives et une exploitation limitée des acquis des nombreux programmes d’éducation aux valeurs proclamées ; • Des contenus et documents de référence en décalage par rapport aux évolutions législatives, institutionnelles et cognitives en cours dans le pays ou au niveau international ; • Des dissonances et des incohérences des valeurs autour desquelles s’articulent les disciplines enseignées; • Une faible capacité des approches didactiques mises en œuvre pour atteindre les objectifs prescrits ; • La rareté des partenariats entre l’école et son environnement, notamment avec les organisations de la société civile, en ce qui concerne les programmes et activités relatifs à l’éducation aux valeurs.

DEUXIÈME PARTIE : PERSPECTIVES D’ÉVOLUTION ET DE CHANGEMENT

I – Principes directeurs a. Le succès de l‘éducation aux valeurs est tributaire de l’ancrage d’un système de valeurs compatible avec les choix fondamentaux de la nation tels qu’exprimés dans la Constitution du Royaume ; b. L’éducation aux valeurs relève à la fois de la responsabilité de l’école et des autres acteurs sociaux, civils et institutionnels, dans un esprit de complémentarité des rôles des uns et des autres. Elle doit revêtir un caractère durable et faire l’objet d’une évaluation régulière de son impact ; c. L’éducation aux valeurs est une fonction transversale de l’école et l’un de ses fondements structurants. Elle concerne les différents niveaux et cycles d’éducation et de formation et requiert l’assimilation des différentes valeurs culturelles, religieuses, historiques et esthétiques et la mise en place d’une approche curriculaire intégrée ; d. Bien plus efficace que les discours théoriques, la mise en place de structures dédiées à l’action éducative à l’école est essentielle à la réussite de l‘éducation aux valeurs ; e. Les acteurs pédagogiques doivent bénéficier d’une formation de qualité qui intègre notamment les pédagogies de l’éducation aux valeurs par l’exemple. II- Domaines de développement et d’actualisation de l’éducation aux valeurs Le Conseil considère que l’éducation aux valeurs est un levier stratégique pour la refondation de l’école et pour l’accomplissement efficace de ses missions. 14 Pour renforcer et actualiser l’éducation aux valeurs, sept domaines d’action sont envisagés : 1. Programmes, curricula et formations Le Conseil recommande d’accorder toute l’importance requise à l’éducation aux valeurs lors du processus d’élaboration des programmes et curricula, du niveau préscolaire aux cycles supérieurs. Pour atteindre cet objectif, le Conseil propose : • L’intégration de l’approche valeurs et droits de l’Homme dans les programmes, curricula et supports pédagogiques et le renforcement de l’éducation à l’égalité des genres, à la lutte contre la discrimination, les stéréotypes et les représentations négatives des femmes et des personnes en situation d’handicap dans les programmes et manuels scolaires, tel qu’énoncé par la Vision stratégique (alinéa 101) ; • La définition des domaines de l’éducation aux valeurs en s’inspirant notamment du corpus des valeurs prioritaires stipulées par la Constitution. Dans le même ordre d’idées, il faudra prévoir des mécanismes de mise en œuvre, de suivi et d’évaluation, ainsi que les modalités d’une actualisation régulière des objectifs de l’éducation aux valeurs, à la lumière des nouvelles acceptions qui pourraient les enrichir à l’échelon national ou international ; • L’élaboration de référentiels et de cadres conceptuels pour les valeurs (fixant les fondements intellectuels, les déterminants individuels et sociaux, les comportements et les compétences sociales) ainsi que l’adaptation des finalités de l’éducation aux valeurs dans les différents cycles scolaires au socle référentiel commun ;

• L’intégration de composantes culturelles dans les curricula et l’incitation des apprenants à la créativité et à l’innovation pédagogiques ; • L’intégration des modules de renforcement des compétences de communication, d’ouverture et de développement personnel des étudiants dans les cursus universitaires. 2. Multimédia et espace numérique L’importance donnée à l’utilisation de la technologie en éducation et formation se réfère à : • La place qu’occupent désormais les outils multimédia et numériques pour les enfants, les adolescents et les jeunes en général et le fait qu’ils fassent partie de leur environnement et de leur réalité quotidienne ; • L’impact de l’usage inapproprié des outils multimédia sur la société et sur son système de valeurs et les problématiques qui s’en suivent telles que la triche, les violations des droits de la propriété intellectuelle, les atteintes aux droits personnels, l’addiction à l’internet et aux réseaux sociaux, la perte de l’esprit critique, et parfois l’aliénation par des idéologies et des courants manipulateurs ou extrémistes dont les enfants et les jeunes pourraient ne pas percevoir les visées et les dangers ; • L’effort engagé par des institutions nationales en matière de régulation de la production, de la mise en circulation et de la consommation des produits numériques et audiovisuels, notamment les contributions de la Haute Autorité de la Communication Audiovisuelle (HACA) en matière de préservation des valeurs et des idéaux du modèle sociétal marocain dans les programmes audiovisuels diffusés sur le territoire national. Pour toutes ces raisons, le Conseil recommande ce qui suit : • L’investissement, dès les premiers niveaux scolaires, dans l’utilisation des outils informatiques et l’ancrage de la culture du numérique dans les programmes et les activités pédagogiques relatives à l’éducation aux valeurs, tout en garantissant aux apprenants une utilisation optimale et équitable de ces outils ; • La création d’un espace numérique de l’établissement ou de la zone éducative à partir duquel les apprenants peuvent accéder aux documents et aux ressources documentaires en relation avec le système des valeurs scolaires, et qui permet par ailleurs aux jeunes de participer, via le réseau internet, au débat et à l’échange des opinions et des expériences. 3. Vie scolaire et universitaire et pratiques civiques La valorisation des espaces scolaires passe nécessairement par la dynamisation des activités culturelles, artistiques et sportives en vue de redonner à la vie scolaire et universitaire l’importance et le rayonnement qu’elles méritent. Dans le même sens, il convient d’adapter les rythmes scolaires et l’organisation de l’emploi du temps de manière à y favoriser les activités relatives à l’éducation aux valeurs.

Acteurs pédagogiques Les acteurs pédagogiques sont au cœur de toute activité éducative et leur capacité d’influence et d’impact sur les apprenants et leur rôle dans la réalisation des missions et objectifs de l’éducation sont déterminants. Le Conseil note avec satisfaction les efforts remarquables déployés par les acteurs pédagogiques dans le système éducatif national, en matière d’éducation aux valeurs, et il recommande : • L’élaboration d’indicateurs spécifiques à l’éducation aux valeurs dans les tests de recrutement des cadres administratifs et éducatifs, les épreuves d’accès aux métiers de l’éducation et de la formation ou de candidature aux postes de responsabilité ; • Le renforcement des curricula de formation initiale et continue des acteurs pédagogiques à travers l’intégration de programmes ou de modules dédiés à l’éducation aux valeurs ; • Le lancement de chantiers pédagogiques dans les établissements scolaires, universitaires et de formation, visant à associer les différentes parties prenantes à l’élaboration d’une vision pédagogique du civisme, à l’intérieur et à l’extérieur de l’école ; • La valorisation des acteurs pédagogiques et des bonnes pratiques pédagogiques en matière d’éducation aux valeurs et la capitalisation des expériences réussies et des approches novatrices en vue de leur généralisation. 16 5. Relation à l’écosystème de l’école et partenariats avec les acteurs institutionnels et la société civile L’éducation aux valeurs constitue une cause sociétale commune. Divers acteurs faisant partie de l’environnement et de l’écosystème de l’école sont appelés à s’y impliquer davantage et à s’y investir. Ainsi la famille, les organisations de la société civile et de défense des droits de l’Homme, les institutions culturelles et le monde de l’entreprise, et l’ensemble des acteurs sociaux et institutionnels dans les domaines de l’environnement et du développement durable, devront être associés à ce noble combat pour les valeurs. 6. Recherche cognitive et pédagogique Le rôle de la recherche scientifique et pédagogique est essentiel notamment dans l’approfondissement de la réflexion sur les comportements contraires aux valeurs, l’identification de leurs causes et l’analyse de leur impact. Elle permet également d’enrichir l’ensemble des projets mis en œuvre en matière d’éducation aux valeurs dans l’école marocaine. Elle contribue ainsi à l’élaboration de mécanismes proactifs en matière d’encadrement et de formation, de communication et de sensibilisation. Elle aide enfin à l’élaboration et à la mise en place de dispositifs de mesure d’impact et d’évaluation, ou encore de prévision et de prospective. 7. Catégories d’apprenants en situation de vulnérabilité ou de handicap La Vision stratégique de la réforme considère l’école, outre ses missions en matière d’enseignement des savoirs et des compétences, en tant qu’acteur social,

culturel et moral. Sous cet angle, l’école est hautement concernée par la situation des catégories d’apprenants en situation de vulnérabilité ou de handicap. Elle est appelée à détecter et à organiser la lutte contre les facteurs de marginalisation et d’inégalité à l’origine de la précarité chez les enfants et les jeunes, lesquels sont susceptibles d’entraver leur inclusion éducative et sociale, et d’influer sur leurs perceptions et leurs représentations en matière de valeurs. Par ailleurs, la précarité est susceptible de constituer un terreau fertile au sentiment de marginalité et d’exclusion, alimentant le plus souvent le penchant vers des comportements et des postures inciviques. Ces comportements qui vont se traduire par des attitudes de haine et de marginalité (consommation de tabac et de drogue, addictions diverses), de dénigrement des valeurs de l’environnement et de la société dans son ensemble (extrémisme, agressivité) et diverses autres manifestations asociales chez les jeunes. Devant ces menaces liées aux difficultés d’inclusion éducative et sociale, il est impératif de mettre en œuvre un plan de travail pédagogique inclusif en matière d’éducation aux valeurs, en relation avec la situation et les besoins des catégories sociales vulnérables. Dans ce cadre, le Conseil propose ce qui suit : a. La correction de la perception négative et des stéréotypes appliqués aux enfants en situation de handicap, en garantissant un traitement égal à tous les citoyens, sans discrimination, notamment en matière de droit à l’éducation, à l’instruction et à la formation qualifiante; b. L’élaboration de stratégies alternatives de réintégration de tous les enfants et jeunes en situation d’abandon ou de retard scolaire, à besoins spécifiques, ou en situation de précarité, parallèlement à l’effort de lutte contre les stéréotypes négatifs dont est victime cette catégorie des apprenants ; c. Une plus grande valorisation des programmes régionaux d’éducation aux valeurs, destinés aux différentes catégories sociales en situation de handicap ou à besoins spécifiques, notamment en milieu rural et dans les zones enclavées ; d. L’élaboration de programmes d’encadrement éducatif et culturel destinés à ces différentes catégories sociales d’enfants et de jeunes, ainsi qu’à leurs familles, afin de leur assurer l’acquisition des compétences nécessaires en termes de valeurs et de les prémunir contre le fanatisme, la violence, l’extrémisme, et contre toutes les autres dérives marginales et comportements inciviques ; e. Concernant les enfants et les jeunes des marocaines résidant à l’étranger, il convient de décliner des programmes d’action qui mettent à profit les cultures d’origine dans les domaines des valeurs.

RECOMMANDATIONS FINALES

Le Conseil Supérieur de l’Éducation, de la Formation et de la Recherche Scientifique réaffirme le caractère stratégique de l’éducation aux valeurs et considère qu’elle constitue un levier privilégié de développement du capital humain et de la promotion du système national de l’éducation-formation. En vue de traduire cette conviction en actions concrètes sur le terrain, le Conseil recommande ce qui suit : 1. Mise en place d’un plan d’action national et régional de mise en œuvre Il s’agit d’initier, à court terme, un plan d’actions national et régional ainsi qu’au niveau de chaque établissement d’éducation, de formation et de recherche, qui comprend les mesures de mise en œuvre des propositions et recommandations contenues dans le rapport. Afin d’assurer à ces dispositions davantage d’efficience et d’impact, il convient de mettre en place les structures et les mécanismes législatifs, réglementaires et institutionnels qui seront adoptés lors de la mise en œuvre, en impliquant effectivement les acteurs pédagogiques et sociaux, tous statuts et niveaux de responsabilité confondus (parents d’élèves, apprenants, étudiants et stagiaires des établissements de formation,…). 2. Elaboration d’une charte éducative nationale et contractuelle pour l’éducation aux valeurs Le Conseil recommande l’élaboration d’une charte éducative nationale et contractuelle pour l’éducation aux valeurs, en veillant à : • Adopter une approche participative pour l’élaboration de cette charte ; • Intégrer dans cette charte une matrice de valeurs communes ainsi que les objectifs et finalités de l’éducation aux valeurs et les engagements de l’école et de ses partenaires en la matière ; • Faire de cette charte un référentiel pour la mise en adéquation des curricula, des programmes scolaires et des formations universitaires, de la formation des acteurs, de l’élaboration du projet d’établissement, etc. ; • Veiller à l’application de ladite charte et à la définition précise des responsabilités de chaque partie concernée dans la bonne application de ses dispositions. 3. Préparation d’un cadre référentiel général du système des valeurs ciblées L’élaboration d’un cadre référentiel du système des valeurs scolaires à cibler dans les programmes et activités d’éducation aux valeurs s’appuie sur les principaux référentiels contractuels et législatifs de la société marocaine ; à savoir, la Constitution, les conventions internationales ratifiées par le Maroc, les chartes et conventions internationales relatives aux droits des enfants, des femmes et aux droits de l’Homme en général. 4. Diversification des approches de mise en œuvre des propositions en veillant à leur cohérence et à leurs complémentarités L’éducation aux valeurs est par nature riche et complexe. Sa mise en œuvre appelle une diversité d’approches et de modalités d’exécution, dans un cadre de complémentarité et de cohérence générale. Dans ce même esprit, il est nécessaire d’élaborer un plan de référence pour l’animation et la mise en œuvre des projets éducatifs et de formation programmés dans

le cadre de l’éducation aux valeurs, au sein duquel s’articulent des activités interactives, des actions de terrain, l’acquisition de connaissances et l’innovation. 5. Renforcement des mécanismes de veille, de suivi et d’évaluation continue Eu égard à l’importance des processus de veille et de suivi, il est essentiel de mettre en place des dispositifs appropriés pour le monitoring et l’évaluation continue des programmes de l’éducation aux valeurs. 6. Recommandations pour la mise en œuvre de ce rapport Le Conseil considère que les recommandations relatives à l’éducation aux valeurs émises dans ce rapport, constituent l’un des leviers essentiels pour la promotion du système national d’éducation, de formation et de recherche scientifique. Il recommande dans ce sens : • La mise à disposition des ressources humaines et matérielles et des dispositions législatives appropriées à l’application des recommandations de ce rapport ; • La mise en place d’ateliers dédiés au niveau des établissements éducatifs pour informer sur les orientations émises du Conseil, discuter des questions et problématiques liées aux valeurs et proposer des solutions et mesures pertinentes pour les résoudre; • La mobilisation continue des acteurs éducatifs, au sein de l’établissement et dans son environnement, afin d’intégrer l’éducation aux valeurs dans le projet d’établissement, depuis la phase de conception et jusqu’au stade de l’évaluation ; • La mise à profit de ce rapport pour : -Cadrer le débat public sur l’éducation aux valeurs ; -Définir les orientations de la recherche scientifique pédagogique en la matière ;-Orienter le cadre législatif, légal et institutionnel régissant l’éducation, la formation et la recherche scientifique ainsi que les politiques publiques éducatives ;-Produire des programmes audiovisuels et numériques autour de cette thématique;-Organiser des rencontres de communication, des séminaires et des colloques sur l’éducation aux valeurs. Enfin, il convient de signaler que ce rapport fera l’objet d’une actualisation régulière, sur la base des résultats de l’évaluation qui sera faite de l’éducation aux valeurs dans le système éducatif, ainsi que des tendances récentes dans ce domaine.

VALEURS DE L’APPARTENANCE RELIGIEUSE ET NATIONALE

• Les constantes constitutionnelles de la Nation : l’islam tolérant, l’unité nationale aux multiples affluents, la monarchie constitutionnelle et le choix démocratique ; • L’attachement à l’identité sociale et ancestrale de la société, aux affluents pluriels, la f ierté d’appartenir à ce socle identitaire et l’engagement en faveur du vivre ensemble; • L’intégration des valeurs de l’Etat de droit dans la conception et la pratique du vivre-ensemble ; • La capacité de participer à la vie démocratique locale et nationale et à contribuer à la préservation des acquis en la matière ; • L’engagement au respect des dispositions relatives à la protection de l’environnement et au développement humain et durable ; • L’observation des valeurs de la solidarité sociale, environnementale et intergénérationnelle; • La participation citoyenne effective de la femme et de la jeunesse, dans le respect de la différence ; • La valorisation de la diversité culturelle, linguistique et environnementale dans le pays, et l’attachement à la pérennisation de ces valeurs ; • La responsabilité et l’engagement à observer les valeurs morales publiques, ainsi que les principes de l’égalité des chances, l’intégrité intellectuelle et éthique et la culture du mérite; • L’attachement à la modération et à la tolérance, ainsi qu’aux valeurs de l’écoute et de la solidarité, du bon voisinage, de la coexistence pacifique, de l’acceptation de la différence et de la diversité ; • La confiance en soi et la foi en l’avenir pour l’édification d’une société et d’un monde plus sûrs, plus stables, plus équitables et plus humains. 2 1 VALEURS DE LA CITOYENNETÉ LOCALE ET UNIVERSELLE • La primauté aux principes de l’Etat de droit ; • L’éducation aux valeurs universelles des droits de l’Homme en vue de les intégrer dans les attitudes et les comportements et d’acquérir la capacité de les défendre; • L’imprégnation par la culture du devoir envers soi-même, envers autrui et envers la société, ainsi que l’engagement à observer scrupuleusement ce principe ; • L’appropriation des valeurs de la démocratie et de la liberté, de l’égalité, de la justice et de l’équité et de la capacité de participation à la vie politique ; • L’éducation aux valeurs de l’égalité entre les deux sexes, la lutte contre les stéréotypes discriminatoires et contre la violence à l’égard des femmes et des filles ; • Le rejet de la violence, de la haine et du racisme ; • L’initiation de différents projets citoyens (économiques, culturels, sociaux, pédagogiques, etc.), l’engagement à développer et à préserver la vie démocratique, l’égalité et les droits universels de l’Homme ; • L’attachement aux principes et valeurs de la citoyenneté universelle et des différents droits de l’Homme tels que reconnus mondialement ; • L’ouverture sur le monde, le respect de la diversité culturelle, l’attachement à la modération, au dialogue, à la tolérance, à la coexistence et à la compréhension mutuelle entre les cultures et les civilisations humaines. 22

VALEURS DE LA CITOYENNETÉ LOCALE ET UNIVERSELLE

• La primauté aux principes de l’Etat de droit ; • L’éducation aux valeurs universelles des droits de l’Homme en vue de les intégrer dans les attitudes et les comportements et d’acquérir la capacité de les défendre; • L’imprégnation par la culture du devoir envers soi-même, envers autrui et envers la société, ainsi que l’engagement à observer scrupuleusement ce principe ; • L’appropriation des valeurs de la démocratie et de la liberté, de l’égalité, de la justice et de l’équité et de la capacité de participation à la vie politique ; • L’éducation aux valeurs de l’égalité entre les deux sexes, la lutte contre les stéréotypes discriminatoires et contre la violence à l’égard des femmes et des filles ; • Le rejet de la violence, de la haine et du racisme ; • L’initiation de différents projets citoyens (économiques, culturels, sociaux, pédagogiques, etc.), l’engagement à développer et à préserver la vie démocratique, l’égalité et les droits universels de l’Homme ; • L’attachement aux principes et valeurs de la citoyenneté universelle et des différents droits de l’Homme tels que reconnus mondialement ; • L’ouverture sur le monde, le respect de la diversité culturelle, l’attachement à la modération, au dialogue, à la tolérance, à la coexistence et à la compréhension mutuelle entre les cultures et les civilisations humaines.

VALEURS DE LA PRÉSERVATION DE L’ENVIRONNEMENT ET DU DÉVELOPPEMENT DURABLE

• Le renforcement de l’éducation à l’environnement et l’enracinement de la « conscience écologique » à travers l’adoption de comportements respectueux de l’environnement, en cohérence avec les politiques de développement durable; • L’engagement à préserver les espaces et infrastructures publics et collectifs aux niveaux local, national et international ; • L’intégration de « l’environnement numérique et virtuel » dans l’éducation aux valeurs de préservation de l’environnement, eu égard à la place prépondérante que les technologies de l’information et de la communication occupent désormais dans la vie des individus, notamment celle des enfants et des jeunes, et à leur influence déterminante dans la construction de leur identité personnelle et sociale.

VALEURS SCOLAIRES

• La fierté d’appartenir à l’école, la préservation de l’environnement scolaire et la contribution effective à son développement ; • Le respect des camarades ou des collègues de travail, l’établissement de liens de communication efficiente et de partage d’expérience avec eux et l’engagement discipliné dans le travail collectif ; • La fidélité à l’esprit de la mission éducative et l’engagement au respect des obligations scolaires, des éducateurs, des enseignants et de l’ensemble des acteurs en milieu scolaire ; • L’équité, l’égalité des chances et la qualité ; • La responsabilité et le sens de l’intégrité ; • L’indépendance tant au niveau de la réflexion qu’à celui de la pratique et la mise en œuvre de la rationalité et de l’esprit critique ; • La valorisation du travail, de l’effort et de la persévérance et l’encouragement de la productivité et du rendement ; • La confiance en soi, l’esprit d’initiative, la créativité, l’innovation et la compétition honnête.

7 types d’évaluations dans l’éducation | Onlineassessmenttool.com

. Nourrir son ésprit par la lecture
Une solution de problème banal
Résolution de problème
Mesure et évaluation en éducation

Un article intéressant qui définit avec concision les sept formes d’évaluation en éducation nationale. Pour avoir une bonne idée 💡à ce sujet, suivez le lien ci-dessous

https://www.onlineassessmenttool.com/fr/base-connaissances/base-de-connaissances-evaluations/types-evaluations/item10637

Pourquoi on fait l’évaluation ?
Quand faire une évaluation ?
Qu’est-ce qu’une évaluation normative ?
Quel est le rôle de l’évaluation ?

Les buts de l’évaluation

L’évaluation est une démarche qui consiste à recueillir des renseignements sur l’apprentissage ou le développement de l’élève, à analyser et à interpréter ces renseignements en vue de porter un jugement sur la situation de l’élève et de prendre une décision relative à son cheminement ultérieur. L’évaluation joue un rôle essentiel dans la démarche d’enseignement et d’apprentissage. Son but principal est d’informer l’enseignant ou l’enseignante, l’élève, ses parents et l’administration, de la direction que doit prendre l’enseignement.

Le tronc commun offre à l’élève les connaissances, les capacités et les habiletés nécessaires pour son éducation future, son travail futur et sa vie quotidienne. Ceci demande qu’on s’éloigne des méthodes traditionnelles d’enseignement et d’évaluation. Traditionnellement, l’évaluation de l’apprentissage de l’élève ne s’intéressait qu’au contenu factuel et le progrès était évalué au moyen de méthodes telles que les examens écrits. Cependant, afin d’évaluer l’apprentissage dans des domaines tels que la créativité et le raisonnement critique, l’apprentissage autonome et les capacités et valeurs personnelles et sociales, il est nécessaire d’utiliser des méthodes non traditionnelles. De plus en plus, l’enseignant ou l’enseignante aura recours à des stratégies telles que l’observation, l’entretien, le travail écrit et oral et l’évaluation de la performance pour recueillir des données afin d’évaluer le progrès de l’élève.

Bien que la responsabilité pour l’établissement de l’évaluation des élèves et la manière de rapporter cette évaluation revienne à l’administration de l’école, à l’administration de la commission scolaire et au corps enseignant, l’enseignant ou l’enseignante a la responsabilité quotidienne de l’évaluation de ses élèves. Cette personne est en effet la mieux placée pour évaluer les progrès de l’élève grâce à une planification soigneuse, des stratégies d’évaluation appropriées et un jugement professionnel fondé.

Optiques de l’évaluation

Le ministère de l’Éducation a mis en place un mécanisme qui prévoit l’évaluation du programme lui-même. Le programme de mathématiques au niveau intermédiaire sera soumis à cette évaluation pour en déterminer l’efficacité.

Une composante importante de l’évaluation consiste en une réflexion de l’enseignant ou l’enseignante sur ses pratiques pédagogiques, dans le but de promouvoir l’amélioration de la démarche d’enseignement et d’apprentissage. Une liste de contrôle vous est fournie en fin de section pour faciliter cette réflexion.

L’évaluation peut chercher à recueillir des renseignements sur l’élève de façon à promouvoir ses progrès. Elle est effectuée par l’enseignant ou l’enseignante, mais il faut aussi encourager l’élève à participer activement à son apprentissage en lui donnant l’occasion d’utiliser des méthodes d’auto-évaluation pour suivre ses propres progrès. Vous trouverez dans cette section divers exemples de méthodes d’évaluation destinées à l’évaluation et à l’auto-évaluation de l’élève.

Principes de base

التقويم في عصر انحطاط التعليم

Le ministère de l’Éducation de la Saskatchewan suggère des principes de base pour aider les enseignants et les enseignantes à planifier l’évaluation de l’élève de telle manière qu’elle guide efficacement l’enseignement, et favorise la confiance en soi et la connaissance de soi chez l’élève. En voici quelque-uns:l’évaluation fait partie intégrante de la démarche d’enseignement et d’apprentissage. Il faut la prendre en considération tout au long de la démarche de planification de l’enseignement;l’évaluation doit faire l’objet d’une planification rigoureuse;l’évaluation est intimement liée aux objectifs du programme d’études;l’évaluation doit aider les enseignants et les enseignantes à pourvoir aux besoins individuels des élèves pour permettre l’appréciation de toute la gamme de capacités, d’intérêts et de styles d’apprentissage;l’enseignant ou l’enseignante doit indiquer à l’avance à ses élèves comment ils et elles seront évalués au cours de l’année;les activités, les situations de communication utilisées à des fins d’évaluation, ainsi que les méthodes d’évaluation doivent être justes et impartiales;l’évaluation doit aider l’élève à participer activement à son apprentissage en lui fournissant une rétroaction positive et constructive;l’évaluation des AEC doit se faire dans le contexte d’activités évaluatives pour les mathématiques et non pas isolément.

Dans le cadre du programme d’études de mathématiques, on veillera à respecter les lignes directrices suivantes:l’évaluation doit s’effectuer dans un contexte signifiant et similaire à celui de l’enseignement: si par exemple les élèves, encore à l’étape concrète, additionnent et soustraient des nombres entiers positifs et négatifs dans des activités de manipulation utilisant des tuiles d’algèbre, on évaluera leur habileté à additionner ou soustraire en les observant utiliser les tuiles d’algèbre et non au moyen d’un test traditionnel écrit;dans le choix des objectifs et des méthodes d’évaluation, l’enseignant ou l’enseignante doit prendre en considération les besoins individuels de l’élève: on ne cherche pas toujours à recueillir les mêmes renseignements sur tous les élèves;pour être en effet reliée aux objectifs du programme d’études de mathématiques, l’évaluation doit viser plus que la vérification des connaissances: elle doit aussi informer des progrès de l’élève en ce qui concerne des aspects comme la mise en oeuvre de stratégies de réflexion, l’intérêt pour les mathématiques, la prise de conscience de valeurs sociales, l’appréciation de la valeur de la technologie dans la société;l’évaluation n’est pas compétitive: elle vise à promouvoir et à mesurer les progrès de l’individu, et non à comparer les performances de celui-ci à une norme ou à ses pairs;l’évaluation sommative se fait surtout en référence aux objectifs généraux du programme, alors que l’évaluation formative peut être guidée par des objectifs spécifiques;l’évaluation signale aux élèves, ainsi qu’aux parents, les aspects de l’apprentissage qui sont valorisés: donc, si on évalue les élèves sur leurs habiletés de calcul et non sur leurs connaissances géométriques, on pourra facilement conclure que le calcul est plus important que la géométrie;on doit faire la distinction entre l’évaluation du contenu en mathématiques et l’évaluation de la langue seconde: il faut donner la possibilité aux élèves d’exprimer leur compréhension de notions mathématiques par des moyens non verbaux ou non écrits, ou de se servir de moyens non verbaux ou non écrits comme soutien à l’expression en langue seconde dans les situations d’évaluation.


Qu’est-ce que c’est l’évaluation ?

L’évaluation formative et sommative

Une des tâches essentielles lors de la planification de vos cours consiste à déterminer les formes et les méthodes d’évaluation qui vous permettront de faire état du degré d’atteinte des objectifs d’apprentissage par les étudiants.

En effet, pour assurer la validité du processus d’évaluation, il convient de savoir ce que vous allez évaluer, de quelle façon et à partir de quels outils vous le ferez, et ce, avant même de commencer votre enseignement. Vous pouvez avoir recours à deux formes d’évaluation qui se distinguent en fonction des objectifs que vous souhaitez atteindre : l’évaluation formative et l’évaluation sommative.

L’évaluation formative

L’évaluation formative a pour fonction de favoriser la progression des apprentissages et de renseigner l’étudiant et l’enseignant sur les acquis ou les éléments à améliorer. Elle vise des apprentissages précis et relève d’une ou de plusieurs interventions de nature pédagogique. Elle est effectuée en cours d’activité et vise à faire état des progrès des étudiants et à leur permettre de comprendre la nature de leurs erreurs et des difficultés rencontrées. Elle peut être animée par l’enseignant, mais peut aussi se réaliser sous forme d’autoévaluation ou de rétroaction par les pairs. Aucun point, note ou pourcentage n’y est associé.

Voici quelques exemples d’activité d’évaluation formative que vous pouvez proposer aux étudiants :

  • Résumer les éléments essentiels qu’ils retiennent d’un cours de façon individuelle.
  • Répondre à des questions de type vrai ou faux ou choix multiples afin de vérifier leur compréhension d’une notion enseignée.
  • En équipe, expliquer à des collègues ce qu’ils ont compris du contenu présenté.
  • Réaliser une carte conceptuelle des notions importantes vues au cours.
  • Répondre à un questionnaire après avoir lu un chapitre de livre.
  • Remettre une partie d’un travail de session afin d’obtenir de la rétroaction qualitative sur le travail réalisé.


Les activités d’évaluation formative que vous choisissez doivent être en relation directe avec vos évaluations sommatives, pour que ce soit cohérent pour les étudiants et afin de les encourager à les compléter.

Par ailleurs, selon le Règlement des études de l’Université Laval, vous êtes tenus de réaliser, dans vos cours, des activités d’évaluation formative. En effet, avant de procéder à une évaluation sommative, vous devez avoir offert à vos étudiants l’occasion de démontrer leurs apprentissages dans un contexte formatif leur permettant de faire des erreurs, de les repérer et de s’ajuster en vue de l’évaluation sommative.

L’évaluation sommative

L’évaluation sommative ou certificative a pour fonction l’attestation ou la reconnaissance des apprentissages. Elle survient au terme d’un processus d’enseignement et sert à sanctionner ou à certifier le degré de maîtrise des apprentissages des étudiants. Elle est sous la responsabilité de l’enseignant et doit être réalisée de façon juste et équitable en reflétant les acquis des étudiants.

Comment choisir convenablement entre le travail de session, l’examen de mi-parcours, les questions à choix multiples, la dissertation? Pour élaborer une activité d’évaluation sommative, vous devez d’abord cerner les objectifs que vous souhaitez évaluer et spécifier quel niveau de performance vous attendez de la part de vos étudiants. Vous devez ensuite réfléchir à la meilleure activité d’évaluation pour permettre aux étudiants de démontrer l’éventail de leurs apprentissages. Chaque méthode comporte ses avantages et ses inconvénients et permet de mesurer des objectifs de niveaux de complexité différents. Pour bien déterminer la méthode d’évaluation qui convient à votre cours, référez-vous aux documents : Tableau des types, définitions et méthodes d’évaluation et le Tableau des activités pédagogiques et des méthodes d’évaluation.

Par ailleurs, lorsque vous donnez un cours qui est offert également par d’autres enseignants, assurez-vous de l’équivalence de vos activités d’évaluation sommative, de même que de vos critères de correction.

Planifiez vos formes d’évaluation

Comment déterminer quand les évaluations doivent compter ou non? Pour vous aider dans cette démarche, planifiez, dès le début de la session, le chevauchement des formes d’évaluations en fonction de votre cible finale (atteinte des objectifs). Rappelez-vous que vos évaluations sommatives doivent être précédées d’évaluations formatives. Pour faciliter votre travail, inspirez-vous du schéma proposé par Lussier (2009):

Lussier, S. & Bélanger, D.-C. (2009). Petit tour d’horizon sur l’évaluation formative. Service de développement pédagogique, Collège de Maisonneuve.

Aller plus loin

Participer à une formation

Qu’est-ce que le Soutien Scolaire ? | Superprof

Problème : s’inscrire dans des leçons de soutien est devenu une mode chez toutes les classes sociales, dés le jeune âge, jusqu’à les niveaux d’enseignement avancés, ce phénomène qui touche en premier lieu les pays sous-développés attire le signal d’alarme, d’abord sur l’égalité des chances, puis sur les capacités cognitives et professionnelles des futurs cadres qui étaient obligés de suivre ces cours tout le long de leurs formations !?

À l’ére où il n’y avait pas de cours de soutien, il y avait l’autorité des enseignants qui obligeait les élèves des classes populaires à apprendre

Pour se construire une idée de ce sujet d’actualité , vous pouvez commencer par like le sujet du lien ci-dessous

https://www.superprof.fr/blog/definition-soutien-scolaire/

Soutien scolaire

Description

Le soutien scolaire est l’aide individuelle dispensée aux élèves. La notion de soutien scolaire proprement dit concerne l’aide dispensée à l’école, sur le temps scolaire, par les équipes éducatives. Wikipédia

Pourquoi les cours de soutien scolaire ?Comment donner des cours de soutien ?
C’est quoi l’aide aux devoirs ?
Comment s’appelle les aides scolaires ?

Cours de soutien scolaire

 Rédigé par des auteurs spécialisés Ooreka

Sommaire

  • Cours soutien scolaire : définition
  • Comment fonctionne le soutien scolaire ?
  • Comment choisir les cours de soutien scolaire ?

Rassurez-vous, le soutien scolaire n’est pas forcément synonyme d’échec ou de retard !

« Mon enfant a-t-il réellement besoin de soutien scolaire ? », c’est une question récurrente chez les parents… Voici quelques clés pour répondre à toutes vos interrogations.https://www.dailymotion.com/embed/video/k3GsiYlSjrFSZGvR7w4?ads_params=Video_Targeting%253Dvechicule%2526famille&api=postMessage&apimode=json&autoplay=false&embed_index=1&id=ff0ed3885e02&mute=true&origin=https%3A%2F%2Fsoutien-scolaire.ooreka.fr&pubtool=cpe&queue-autoplay-next=true&queue-enable=true&ui-highlight=false

Cours soutien scolaire : définition

Les cours de soutien scolaire sont un accompagnement qui permet aux enfants de développer leurs capacités afin de mieux répondre à des exigences de réussite qui sont de plus en plus fortes : BAC, intégrer la filière de son choix ou une grande école…

Les cours de soutien scolaire vont donc s’adresser à des élèves de primaire jusqu’à la terminale voire aux étudiants de l’enseignement supérieur. Le cours de soutien scolaire permet d’acquérir la bonne méthode et de redonner confiance à l’enfant.

Le soutien scolaire leur permet aussi de dépasser les difficultés :

  • dans une ou plusieurs matières ;
  • en méthodologie ;
  • avec le système scolaire dans son ensemble ;
  • d’orientation.

Le soutien scolaire n’est pas là pour se substituer aux parents mais pour en prendre le relais.

Bon à savoir : le dispositif « 1 jeune, 1 mentor » permet aux jeunes de bénéficier de l’accompagnement d’un mentor (étudiant, professionnel en exercice ou retraité). Il s’agit d’un engagement personnel pour le mentor comme pour le mentoré qui doit avoir moins de 30 ans. Ce dernier bénéficie ainsi d’une aide en cas de difficultés scolaires (organisation du travail et accompagnement pour l’amélioration des résultats scolaire), de conseils dans son orientation après le bac et dans le cadre d’une recherche de stage, d’une alternance ou d’un premier emploi.

Comment fonctionne le soutien scolaire ?

Le soutien scolaire peut avoir lieu après les cours à l’aide de l’accompagnement scolaire ou encore de l’assistance scolaire personnalisée. Tout dépend du type de soutien scolaire choisi : à domicileen ligne, en groupe, etc.

Pour aider au mieux votre enfant à développer tout son potentiel, les professeurs commencent par repérer ses difficultés : pour cela, ils procèdent à une évaluation de l’élève. En fonction des résultats, l’organisme de soutien scolaire vous propose la formule de cours la plus adaptée à votre enfant. Ensuite, l’enseignant prépare ses cours et ses exercices en fonction de ces mêmes résultats.

Comment choisir les cours de soutien scolaire ?

Tout d’abord, il est pertinent de choisir des cours de soutien scolaire qui s’adaptent aux attentes et aux besoins de votre enfant. Ainsi, il faut vous poser les questions suivantes :

  • Quel est exactement votre objectif ?
  • Souhaitez-vous améliorer les connaissances de votre enfant sur l’ensemble des matières ou approfondir ses connaissances dans des matières spécifiques ?

Quels types de cours de soutien scolaire ?

Vous aurez le choix entre plusieurs cours de soutien scolaire dispensés par un professeur ayant les compétences dans la matière choisie.

La théorie de la Gestalt ou Psychologie de la forme – UX-REPUBLIC

Quels sont les 4 principes de la Gestalt ?
Comment fonctionne la Gestalt-thérapie ?

PSYCHOL. Structure à laquelle sont subordonnées les perceptions. La théorie de la Forme ou Gestalt s’est développée dans l’ambiance de la phénoménologie, mais n’a retenu d’elle que la notion d’une interaction fondamentale entre le sujet et l’objet (J. Piaget, Le Structuralisme, Paris, P.U.F., 1968, p. 47) :Prolonger un côté, mener par un sommet une parallèle au côté opposé, faire intervenir le théorème concernant les parallèles et leur sécante, cela n’est possible que si je considère le triangle lui-même dessiné sur le papier, sur le tableau ou dans l’imaginaire, sa physionomie, l’arrangement concret de ses lignes, sa gestalt [it. ds le texte]. Merleau-ponty, Phénoménol. perception,1945, p. 441.♦ Gestalttheorie, gestalt-theorie. Doctrine affirmant que les « formes » sont les données premières de la psychologie. Synon. théorie de la forme.Quand la gestalt-theorie nous dit qu’une figure sur un fond est la donnée sensible la plus simple que nous puissions obtenir… (Merleau-ponty, Phénoménol. perception,1945p. 10).Déjà les pionniers de la gestalttheorie (…) à travers ces formes, visaient en fait le sens des « situations » vécues par l’homme dans le travail (J. Vuillemin, Être et trav.,1949, p. 150).♦ Gestaltpsychologie, gestalt-psychologie. Même sens. La gestaltpsychologie (…) met l’accent sur les ressemblances structurales entre les formes perçues globalement et les ensembles moteurs considérés également comme totalités (Ricœur, Philos. volonté,1949, p. 233).− [En parlant du comportement] Bref, les régulations, par feed back ou par gestalt et self-distribution, ne sont pas essentiellement différentes dans le champ de comportement ou dans l’espace des phénomènes physiques (Ruyer, Cybern.,1954, p. 104).REM. 1.Gestaltique, adj.Formant une gestalt, un ensemble structuré. Le rêve de tout décomposer en éléments premiers est à la base de la pensée cybernétique, car la chasse à l’obscur et aux fantômes est à ce prix : pas de coins d’ombre, pas de pensée molaire, pas d’ensembles imprécis ou gestaltiques, c’est-à-dire indécomposables en éléments régulièrement sommables (David, Cybern.,1965, p. 51).2.Gestaltisme, subst. masc.Synon. de gestalt-theorie.Malheureusement il est à craindre que le gestaltisme et sa doctrine du « champ physiologique total » ne soient qu’une vaste mythologie (Ricœur, Philos. volonté,1949p. 211).3.Gestaltiste, adj. et subst.a)Adj. Propre à la gestalt-theorie. Le structuralisme gestaltiste (J. Piaget, Le Structuralisme, Paris, P.U.F., 1968p. 48).b)Subst. Personne qui se réclame de cette théorie. Pour les gestaltistes comme pour les cybernéticiens, l’attraction dans le champ de comportement est néanmoins un fait entièrement analogue au phénomène physique (Ruyer, Cybern.,1954p. 105).Prononc. et Orth. : [geʃtalt]. Les aut. soudent ou utilisent le trait d’union, indifféremment : Merleau-Ponty écrit tantôt gestalt-theorie (op. cit., p. 10), tantôt gestalttheorie (p. 59); J. Vuillemin écrit gestaltpsychologie (op. cit., p. 150) ou gestalt-psychologie (p. 148). On notera la graphie avec un chez Huyghe, Dialog. avec visible, 1955, p. 424 et 430 où le mot est orthographié gestaltheorie. Étymol. et Hist. 1945 (Merleau-Ponty, loc. cit., p. 72). Mot all. signifiant proprement « structure, forme, configuration », qui est entré dans le vocab. psychol. en partic. avec l’apparition de la Gestalttheorie (M. Wertheimer, Experimentelle Studien über das Sehen der Bewegung ds Zeitschrift für Psychologie, 1912; v. Lal., p. 373). Les psychologues fr. et angl. adoptèrent le mot sous sa forme all. avant d’en proposer l’adaptation : fr. « forme » (v. Lal., pp. 1031-1032), angl. « configuration » (v. ibid., p. 373). Bbg. Quem. DDL t. 13 (s.v. gestaltisme).


Pourquoi choisir la Gestalt-thérapie ?
Pourquoi la Gestalt ?

une abeille vue par un microscope
L’abeille vue au microscope
La vision globale de Gandhi
L’approche globale de GANDHI

Si vous n’avez pas d’idée sur ce que le Gestalt, comme méthode d’apprentissage et qui adopte une approche globale qui se concentre sur l’appréhension de la forme en générale, avant de s’intéresser à la compréhension des parties. Alors suivez le lien ci-dessous

https://www.ux-republic.com/theorie-de-gestalt-psychologie-de-forme/

Psychologie de la forme

Description

La psychologie de la forme, théorie de la Gestalt ou gestaltisme est une théorie psychologique et philosophique proposée au début du XXᵉ siècle selon laquelle les processus de la perception et de la … Wikipédia

« Le tout est supérieur à la somme des parties », « l’ensemble prime sur les éléments qui le composent »… On pourrait trouver plusieurs formules pour résumer l’esprit de la théorie de la forme. L’idée centrale est que la perception d’un objet passe d’abord par une vue d’ensemble, et non par la somme des détails.
La notion de forme est théorisée par le philosophe viennois Christian von Erhenfels (1859-1932) qui, en 1890, publie un article, « Uber Gestaltqualitäten », dans lequel il explique que dans l’acte de perception nous ne faisons pas que juxtaposer une foule de détails, mais percevons des formes (Gestalt) globales qui rassemblent les éléments entre eux. L’auteur propose un exemple musical : lorsque l’on se rappelle une mélodie, ce n’est pas d’une suite successive de notes prises isolément. La mélodie est une structure globale. C’est de cela dont on se souvient.
L’article d’Erhenfels marque le point de départ tout un courant de pensée, dont l’école berlinoise de la psychologie de la forme n’est qu’une facette. L’école de la Gestalt prend corps dans les années 1920 autour de trois personnages clés : Max Wertheimer (1880-1943), Kurt Koffka (1886-1941) et surtout Wolfgang Köhler (1887-1967).
Les psychologues s’attachent d’abord à appliquer la théorie de la forme à la perception visuelle, avant que le principe soit appliqué à d’autres domaines. Köhler démontre que chez les grands singes, la résolution de problèmes suppose également la saisie globale d’une forme, c’est-à-dire d’une nouvelle vue d’ensemble d’une solutio…

Créez votre site Web avec WordPress.com
Commencer