Affichage des articles dont le libellé est Finalité. Afficher tous les articles
Affichage des articles dont le libellé est Finalité. Afficher tous les articles

lundi 28 décembre 2009

V-7) Transcendance versus Immanence et hétéronome versus autonome


L'Immanence - et son corollaire la Transcendance - est un concept clé de la Systémique. Ce débat existe dans plusieurs domaines : juridique, religieux, épistémologique, politique :
  a)  Au plan juridique tout d’abord, l’immanence considère que le droit vient « du terrain », de l’expérience des jugements passés qui se sont accumulées au cours du temps. C’est donc un droit basé sur la jurisprudence, comme aux États-Unis par exemple où à chaque procès il s’agit de retrouver un cas analogue déjà jugé auparavant, la justice ne pouvant se contredire. La transcendance au contraire considère que le droit vient de lois votées par le pouvoir législatif, d’en haut en quelque sorte, la jurisprudence ne pouvant intervenir que si aucun texte de lois existant ne corresponds au cas jugé, ce qui est rare ; ou bien après un arrêt de la Cour de Cassation. Donc on voit bien alors la logique de ces droits transcendants : priorité à la loi transcendante, la jurisprudence immanente n’intervenant que en « roue de secours ». De la même manière que les Idées de Platon tombent dans la matière pour l’animer, les lois tombent d’une chambre des députés qui se croient autorisés, au nom de la majorité, du « Peuple », à voter des lois à tort et à travers sans la moindre étude sérieuses d’ailleurs la plupart du temps. Il leur suffit de voter selon une procédure légale, c'est-à-dire respectant... les lois qu’ils avaient votées précédemment. Il n’y a plus de garde-fou, puisque même la Constitution a été votée par le même cercle étroit et fait d’ailleurs l’objet de modifications incessantes, contrairement aux Constitutions anglo-saxonnes immanentes. Pour justifier cette transcendance, on retrouve bien entendu les discours déjà évoqués faisant appel aux diverses personnalisations : « Peuple », « Bien Commun », etc.. A l’inverse du droit anglo-saxon immanent, c’est alors la loi qui génère le droit. Et bien que les abstentionnistes constituent factuellement la véritable majorité, ces députés peuvent alors exercer la dictature de la soit-disant majorité sur les minorités et en dernier lieu la plus petite des minorités : le citoyen.

  b)  Au plan religieux ensuite, l’immanence consiste à affirmer que Dieu se trouve dans toutes choses ou être du monde, à l’intérieur du monde lui-même. La transcendance par contre soutient que Dieu est extérieur, au dessus du monde, qu’il gouverne et dirige (le « roi des rois » des religions judéo-chrétiennes ou musulmanes). Comme le souligne R.R. Ruether, l’immanence est assimilée à la féminité (Gaïa la Terre ou la Nature vue comme féminine chez les Indiens d’Amérique et d'autres peuples), et la transcendance à la masculinité (l’image d’Épinal du Dieu tout puissant en vieillard barbu assis sur son trône dans le ciel, au dessus des contingences terrestres). Ces concepts religieux -souvent implicites dans les différentes cultures- ne sont pas sans conséquences et déterminent un certain nombre de comportements. Ainsi nos sociétés développées vont avoir recours à la culture intensive et l’exploitation à outrance des ressources naturelles suivant en cela l’image d’un homme transcendant la nature et donc logiquement propriétaire de celle-ci. A l’opposé, les peuples « primitifs » chasseurs/cueilleurs seront respectueux des ressources. Ils remercient leurs proies d’avoir bien voulu se faire tuer et jouent naturellement (sans connaître la Systémique…) un rôle de chasseur-régulateur au sein du système écologique global en état d’équilibre dynamique. Ces cultures suivent alors un schéma où l’homme est immanent au monde, au même titre que les autres espèces.

  c)  Au plan épistémologique et bien sûr exclusivement pour les systèmes naturels, ou les systèmes artificiels inintentionnels (économie, sociétés,...), voir (III-2-14-c), l’immanence soutient qu’un système peut « vivre » par lui-même, trouver ses propres états d’équilibres dynamiques spontanément (équifinalité et ergodicité) par ses propres systèmes stabilisateurs -voir pilotes- internes. C'est un système dont le pilotage est donc interne : il est autonome. La transcendance soutien qu’un système naturel ne peut se stabiliser -et donc « vivre »- que par le recours à des causes finales externes (on retrouve Aristote et le débat cause finale versus équifinalité). C’est un système dont le pilotage est externe : il est hétéronome. Se pose alors la question du mode de pilotage du.... système de pilotage : soit interne et immanent, soit externe et transcendant partant ainsi sur une boucle récursive sans fin...
Enfin en épistémologie, il est très intéressant de noter que ce débat transcendance / immanence ressort dans l’étude de ce que l’on entends par le concept d’« explication » en sciences. Ainsi Francis Halbwachs propose 3 formes d’explications résumées par Pierre Sagaut dans son papier « Introduction à la pensée scientifique moderne », page 134, citation :
« • L’explication homogène (aussi appelée explication formelle), qui ne fait intervenir aucun élément extérieur au système dont on cherche à expliquer l’évolution. L’explication portera donc sur des variables internes de ce système et sur les relations, les lois, qui lient ces variables. Le plus souvent, de telles explications font appel à la notion de conservation d’une quantité (énergie, masse, …) ou de propriétés de symétrie du système considéré.
L’explication causale (encore appelée explication hétérogène), qui est basée sur l’interaction entre le système et le monde extérieur, ou précisément une sous-partie du monde extérieur représentée par un ou plusieurs objets. L’explication repose alors sur la notion d’échange entre les différents objets en interaction.
L’explication bathygène (du grec bathus, « profond »), qui consiste à se référer à un autre niveau de description. Il s’agit ici de faire référence à un autre modèle du même système physique, qui le plus souvent repose sur une description à une échelle plus petite. […] (étudions le ) choc de deux boules de billard, l’une étant initialement au repos. Qu’est-ce qui cause le mouvement de la seconde ? La réponse classique est le choc avec la première boule. Lorsque l’on considère la seconde boule, l’explication de sa mise en mouvement lui est extérieure : c’est son interaction avec le monde extérieur (en l’occurrence la première boule) qui est évoquée pour expliquer le changement de ses paramètres internes (quantité de mouvement, énergie cinétique). […] le choix d’un type d’explication pour un phénomène observé n’est pas imposé par l’explication : il résulte d’un choix du scientifique. En modifiant par exemple sa définition du système dont on suit l’évolution, il est possible de changer de type d’explication. Reprenons l’exemple du choc des boules de billard. En ne considérant que l’une des boules, nous avons affaire à une explication causale. Mais que se passe-t-il si maintenant nous considérons le système formé par les deux boules ? La description du système ne fait plus intervenir d’éléments extérieurs à celui-ci, et les propriétés des deux boules (quantité de mouvement, énergie cinétique) peuvent être à tout moment décrites au moyen de lois de conservation (ces deux quantités sont des invariants). D’une explication causale nous sommes donc passés à une explication homogène !
».

  d)  Au plan politique, le libéralisme ressort comme relevant de l'immanentisme (système autonome). La « main invisible des marchés » s'auto-régulant par eux-mêmes sans qu'il soit nécessaire à un état ou à un gouvernement d'intervenir, cette intervention étant même jugée nuisible et dangereuse. C'est le fameux « Surtout Sire laissez-nous faire » (très différent du « laissez-faire » tronqué qu'on nous répète à loisir...), réponse du Capitaine de bateaux à Nantes à l'envoyé de Colbert lui demandant ce que le gouvernement pouvait faire pour les aider… face à la plainte des capitaines contre la bureaucratie de l’État français, déjà à l’époque ! A l'inverse le socialisme ressort de la transcendance (système hétéronome). Un système économique étant vu comme ayant besoin d'être contrôlé, régulé de l'extérieur par une force politique, un état fort et nécessairement centralisé. Cet État est censé être dirigé par une élite détenant le Savoir et la Connaissance bien mieux que les citoyens considérés comme intrinsèquement assez irresponsables et inintelligents. Le socialisme prétends ainsi échapper à la boucle récursive sans fin, identifiée en épistémologie, pour savoir comment est piloté le pilote. On est alors en plein débat Platon et Rousseau contre Aristote et Machiavel, les premiers considérant qu'il suffit de bien former l'élite, les seconds que tôt ou tard des dirigeants dangereux arriveront fatalement au pouvoir, on reviendra sur cette question.  Un petit paradoxe en passant: une démocratie juge ses citoyens assez intelligent pour élire leur élite dirigeante, mais pas suffisamment pour savoir par eux-même directement ce qu'il leur faut...

Il est possible de trouver des variations dans ce débat :
-  La social-démocratie où les marchés sont jugés nécessaires et acceptables mais devant faire l'objet d'une régulation par l'état « transcendant » afin de limiter les crises et les excès. On retrouve là le principe de subsidiarité de l'Europe où il est admis un équilibre entre centralisation et décentralisation. Le point faible de cette approche tenant naturellement sur deux questions insolubles : Qui peut prétendre avoir la science infuse pour décider où, quand et en quoi les marchés ont mal fait ? C'est la dénonciation par F.Hayek du scientisme positiviste des dirigeants socialistes. Quels sont les critères clairs et objectifs définissants lesdits « excès » des marchés ? C'est la Présomption Fatale de F. Hayek. En effet le problème de cette approche est que l'histoire montre que ce sont plutôt les excès des États, l'instabilité des lois et leurs incohérences dans le temps suite aux changements de majorité qui ont été à l'origine des crises... Ainsi la crise de 1929 vient de la 1° guerre mondiale entre États, les États vainqueurs décrétant une dette énorme sur l’État Allemand, dette impossible à payer, sinon par des emprunts énormes auprès des seules banques capable de les financer, les banques américaines, ce qui a fini par déclenché la crise. La crise de 2008 vient de décisions électoralistes de l’État américain prises en 2001 et avant, obligeant les Banques à ouvrir des crédits immobilier pour les citoyens en "Red Line" et donc insolvables, etc... On y reviendra plus loin. La question devient alors : si on parle d'excès possibles des marchés devant être contrôlés par les États, qui alors contrôle les excès des États ? Problème typique de récursivité systémique du pilotage du système pilote !
-  Le socialisme marxiste où l'existence même des marchés est jugée dangereuse, ceux-ci devant être supprimés pour être remplacés par une économie entièrement pilotée depuis le haut, centralisée (centralisme dit soit-disant « démocratique ») totalement transcendant et hétéronome avec toutes ses lourdeurs tenant à la non prise en compte de la complexité du système en question. Cela rejoint les questions traitées en (II-4-1 et II-4-2) sur la mesure de la variété requise d'A. Kolmogorov et la Rationalité limitée de H.A. Simon par le système de pilotage central. Le problème supplémentaire de mode de pilotage est qu'un petit groupe va décréter pour tout le monde ce qu'ils doivent faire. Cela ne peut se faire que par la coercition, la force et pour finir la terreur d'un totalitarisme comme on l'a vu avec Staline, Mao, Pol-Pot, Maduro, etc... ou Hitler et Mussolini avec un autre type de Socialisme, le Socialisme National mal traduit en français par National-Socialisme.
Ce type de débat entre immanence et transcendance a été, et est toujours notamment aux États-Unis, particulièrement violent par l’opposition des thèses évolutionnistes implicitement immanentes (Darwin) et créationnistes implicitement transcendantes. On mélange alors religion et sciences. Ces débats rejoignent étrangement les débats de politiques économiques… bien que les protagonistes ne semblent pas s’en rendre compte comme on va le voir ci-dessous... Il est possible de trouver des degrés dans ce débat :
  • Entre les créationnistes « purs et durs » équivalents ici au centralisme des marxistes en économie, niant toute évolution et jugeant nécessaire et même vital une intervention divine de tous les instants. Tout être vivant ayant été directement créé par un dieu unique « central » et transcendant bien sûr, ces êtres - bien que donnés comme étant libres- devront ensuite être sous la surveillance et même la conduite permanente de ce dieu tout-puissant. On trouve donc ici un lien manifeste entre ces créationnistes Chrétiens et le Marxisme le rôle du pilote central étant tenu par le dieu unique dans un cas et le parti unique et l’État avec son dirigeant "Petit Père du Peuple" divinisé dans l'autre. Les deux prétendent même contrôler jusqu'aux pensées intimes des « croyants » et ont besoin pour ce faire de commissaires politiques pour les uns et de prêtres pour les autres. . On peut noter en passant que le problème de la prise en compte de la Variété requise et de la Rationalité limitée par le pilote unique central à été -si l'on peut dire- vu et « traité » par les créationnistes en déclarant dieu omniscient, bien que personne ne soit en mesure d'expliquer comment une telle omniscience peut être possible...Et par les marxistes ou autres socialistes nationaux par la déification des dirigeants affublés soudainement de pouvoirs exceptionnels : représentant de la pureté extrême de la race et Guide suprême avec Hitler ou Mussolini ; référence absolue de l’idéologie marxiste avec le « Petit Père des Peuples » avec Staline , Grand Timonier avec Mao, tous supposés être des êtres d’exception de part leur intelligence et leur vision de la fin de l’Histoire, etc...
  • Et les adeptes de l' « intelligent design », équivalent ici à la social-démocratie, qui admettent une certaine forme d'évolution locale et limitée mais toujours avec un dieu central transcendant, fixant les objectifs finaux, pilotant globalement mais non dans le détail le projet, cause finale d'Aristote mais sans avoir besoin d'être « présent » en tout et pour tout comme chez les créationnistes « purs ». On retrouve encore le principe de subsidiarité de l'Europe sous une autre forme...
En passant, on note que beaucoup d'individus parviennent à être des tenants de la transcendance en religion et de l’immanence en économie (souvent dits "de droite") ET vice-versa athées et donc immanents en religion mais marxistes transcendants en économie  (pour ceux dits "de gauche")... cela est incohérent.
Il y a un lien entre les aspects culturel de ce débat et les aspects épistémologiques de celui-ci. Ce n’est pas un hasard si les sciences se sont développées sur une base transcendantale à partir de la Renaissance dans le monde occidental. La croyance en effet en un Dieu unique posant d'en haut ses lois stables et prédéfinies a été en effet le moteur de la recherche des lois scientifiques et à l’origine du rationalisme. Ici encore on retrouve le lien entre d'un côté rationalisme, idéalisme -les Idées étant fixes et venant d'en haut, il est donc possible de les (re)découvrir-, et de l'autre transcendance.

  • Enfin, sur tous les plans, le problème de la récursivité à l’infini avec l’approche transcendante : Le point faible de l’approche transcendante, quelque soit le domaine étudié, c’est de tomber dans une boucle récursive sans fin. Aristote déjà avait parfaitement identifié ce problème. En remontant de cause externe en cause externe, on tombe inévitablement sur un enchaînement qui part à l’infini. Pour tenter d’éviter ce cercle vicieux, il a alors inventé – par décret autoritaire - la Cause Première, pseudo solution à un vrai problème, « cause incausée », cause d’elle-même qu’il a également appelé Moteur Premier. Le problème est que cela n’explique rien d’une part et, d’autre part, cet enchaînement de causes transcendante aboutit de fait à… une cause immanente ! Même problème pour les religions tentant d’expliquer sur quoi repose la terre vue comme plate : elle est posée sur le dos d’une tortue, elle-même sur une vache, elle-même sur un éléphant, et… ensuite nul ne sait ! S’il faut un Dieu unique tout-puissant pour expliquer la création du monde alors qui a créé Dieu ? Idem en politique, comme déjà souligné plus haut : si les citoyens sont immatures et doivent être dirigé par un État pour palier aux « défaillances du marché », alors qui palliera aux défaillance des États (guerres, massacres, déportations, racisme institutionnel, propagande, dettes publiques massives, etc.) ? A chaque fois, lorsque l’on analyse ce problème, on ne peut s’empêcher de penser qu’il serait plus simple d’aller directement à une explication immanente, plutôt que d’aller inventer ces longues chaînes de causes externes transcendantes pour – de toutes façons – inévitablement retomber sur une explication immanente….
Apport de la Systémique : le but de la Systémique n’est pas de rentrer absolument dans ce débat par trop idéologique, mais plutôt de l’approcher (à défaut de le trancher) par des voies pragmatiques, pondérées et prudentes, comme le demande J.B. Vico. En effet la Systémique se voulant avant tout comme un outil heuristique ne peut pas avoir comme but de trancher ce débat -cela n’apporte rien-. Mais cependant, de part ses origines et ses concepts centraux (auto-organisation, ergodicité et équifinalité et non cause finale surtout), la Systémique relève bien des concepts d’immanence, en opposition à Platon, Descartes, Marx et au positivisme en général qui sont clairement dans la transcendance (divine ou étatique en particulier). Dans ses outils méthodologiques du travail scientifique par contre elle tente plutôt d’utiliser par les deux approches simultanément comme cela a été vu plus haut. L’usage relativisé de concepts aristotéliciens (comme la cause finale, la forme,…) ou encore de concepts cartésiens (réductionnisme, idéalisme,…) doivent être compris comme étant des étapes possibles de raisonnements, des outils temporaires de pensée, surtout dans les phases initiales d’études de systèmes mal ou très mal connus comme décrit en (II-3-6-b). Cela peut permettre de commencer à « ranger » les questions et problèmes dans quelques grandes catégories, à la condition expresse -comme cela a souvent été dit- de relativiser ces catégorisations, en étant prêt à les abandonner si la comparaison du système tel qu’il est (re)construit par le chercheur ne correspond pas à la réalité. En effet il faut bien comprendre ici qu'il s'agit pour la Systémique de considérer le système de pilotage du système étudié comme étant à l'intérieur (immanent) ou à l'extérieur (transcendant) du système. G. Bateson [BATESON G., T1, 1977, pages 270 et suivantes] explicite fort bien cette question en remarquant qu'il faut repartir des boucles de rétroactions que l'on a décidé de retenir dans l'étude du système considéré. Si l'on décide que le système doit englober ces boucles de rétroactions qui permettent au système d'arriver à s'équilibrer dynamiquement, c'est que l'on est implicitement immanentiste. Si au contraire on croit nécessaire de séparer le système de pilotage du reste du système, et par conséquent de couper les boucles de rétroactions par une frontière entre système de pilotage et le reste du système pour en voir deux séparés, c'est que l'on préfère l'approche transcendante. Pour sortir de cela, il faut donc parvenir à rééquilibrer la balance entre approches immanentes versus transcendantes en prenant le dessus sur nos croyances culturelles transcendantes ou immanentes. Il faut enfin parvenir à comprendre qu'il y a en effet un système « complet » qui inclue un (ou des) sous-système(s) de pilotage ainsi que les autres sous-systèmes pilotés (au pluriel). Il faut donc savoir utiliser les deux approches -on retrouve à nouveau la multiplicité des points de vues- entre la vue d'un système « complet » et simultanément la vue du système de pilotage séparé des autres systèmes qu'il pilote. Le schéma suivant résume cette nécessaire double approche :
Note : dans ce schéma il aurait fallu ajouter que chaque sous-système est probablement muni de son propre système de pilotage... externe ou interne : on retrouve le problème classique de la récursivité complexe du monde réel !

Dit autrement, selon l’approche de Francis Halbwachs, il faut donc impérativement « tester » les différents périmètres / frontières des système(s) afin d’étudier les cas d’explications homogènes (alias immanentes ou autonome) versus causales (alias transcendantes ou hétéronome) en adoptant de multiples points de vues comme le recommandait Montaigne ou L. von Bertalanffy avec son « perspectivisme »... Il faudra également inclure l’explication bathygène faisant alors appel à d’autres moyens au sens de Gödel : échelle moléculaire, atomique ou au contraire astronomique ou méta-système d’ordre supérieur comme l’algèbre par rapport à l’arithmétique…
Mais la Systémique va un pas plus loin car comme déjà dit dans cet essai, on ne peut ignorer que le chercheur étudiant ce système fait partie en réalité de celui-ci. Bien entendu l’étude, la prise en compte par le chercheur de sa propre influence sur le système, de ses actions, de ses mesures perturbant celui-ci, n’a rien à voir avec l’introspection cartésienne... 
Le schéma ci-dessus devient alors :

 
On est très loin de Descartes. Comme on le voit, ces concept d’immanence versus transcendance sont décidément centraux pour la Systémique, et soulignent le caractère ultra-complexe de toute approche du monde réel, dans un contexte de Rationalité limitée (H.A. Simon) et à aborder avec toute la modestie et la prudence / phronésis d’un Aristote et G.B. Vico !

SUITE du Blog : V-8) Créationnisme versus Évolutionnisme

Benjamin de Mesnard

vendredi 31 octobre 2008

II) Présentation détaillée de la Systémique (8/8)

II-5-5) Conséquences des propriétés des systèmes : Niveaux du réel et articulation de ces niveaux :

a) Structuration en niveaux du réel :

La conséquence principale des trois propriétés citées est de permettre d’expliquer la structuration en niveaux du réel et l’articulation de ces niveaux. Chaque niveau, s’appuie donc sur le niveau inférieur. Il supporte et a besoin (au sens de Gödel) du niveau supérieur pour « s’expliquer » au plan de sa finalité, intentionnalité ou téléonomie selon le débat. A nouveau cependant (méfions-nous des simplifications trop cartésiennes !), la plupart des systèmes ne présentent pas des niveaux stratifiés clairement en couches successives, mais plutôt des enchevêtrements d’inter-relations complexes entre sous-systèmes…
Le réel est ainsi plus complexe encore qu'une gigantesque poupée russe, fait d’une succession d’un nombre inconnu de niveaux de « réalités ». « Réalités » est mis ici intentionnellement entre guillemets car c’est bien de cela qu’il s’agit. Car lorsque vient l’étude de ces niveaux de réalités par les sciences, on assiste bien entre deux niveaux trop distants à l’établissement par les scientifiques qui les étudient de lois complètements différentes et indépendantes. Un exemple : les lois de la physique d’Einstein par rapport aux lois du « monde » de la finance. Il s’agit bien de niveaux authentiques de réalités -bien réels-, mais tellement distants, qu’ils n’ont plus rien à voir entre eux et sont (presque) totalement indépendants.
On observe le même phénomène entre Théorie de la Relativité et Théorie Quantique, ces deux théories sont en opposition car opérant à deux niveaux séparés du réel. Pour les réunir, il faudrait avoir recours à l’étude d’un système formel de niveau supérieur (voir ci-dessus), plus englobant, plus fort (au sens strict de Gödel).

Leibniz a construit un modèle à deux mondes, deux niveaux :
1° niveau : le premier niveau est constitué des « replis » de la matière vue comme « composé à l’infini », complexe, dirait-on de nos jours.,
2° niveau : le second est constitué des « replis » de l’âme, vue comme « simple ».

K. Boulding a imaginé 8 niveaux découpés dans le réel :
1° niveau : objets élémentaires de la physique (atomes, …),
2° niveau : structures dynamiques naturelles ou artificielles, domaine de la mécanique,
3° niveau : systèmes artificiels, domaine de la cybernétique,
4° niveau : la cellule vivante, domaine de la biologie,
5° niveau : la plante,
6° niveau : l’animal,
7° niveau : l’homme,
8° niveau : la « socio-culture ».

Mais K. Popper en a imaginé trois :
1° niveau : les objets physiques, matériels,.............................) similaires aux deux mondes
2° niveau : les expériences subjectives ou états mentaux......) de Leibniz donnés ci-dessus
3° niveau : les productions de l’esprit humain vraies ou fausses à la différence du monde des Idées de Platon.

De même L. von Bertalanffy : « (…) on peut en gros trouver trois domaines ou niveaux principaux dans l’observation du monde : la nature inanimée, les systèmes vivants et l’univers symbolique, chacun ayant ses lois immanentes caractéristiques. [Robots, Men and Minds, New York, Braziller, 1967, p 30].
 
L’ISO a normalisé 7 couches dans le domaine des réseaux informatiques :
1° couche : physique, codage électrique ou optique au niveau du bit d’information.
2° couche : couche trame, des trames de bits sont constituées en transmission entre deux points.
3° couche : paquets, ces trames contiennent des paquets d’informations que l’on peut commuter de commutateurs en commutateurs pour les acheminer, en assurant leur routage, entre deux utilisateurs sur le réseau.
4° couche : transport, cette couche assure le transport de bout en bout des échanges entre les deux utilisateurs du réseau d’une manière transparente, indépendante des routes utilisées par la couche paquet.
5° couche : session, une session de communication identifiable en tant que telle est crée entre ces deux utilisateurs, ce qui permet de faire des points de reprise de session en cas d’interruption de celle-ci.
6° couche : présentation, cette couche assure la présentation –sur un écran par exemple- des informations dans un format directement compréhensible par l’application.
7° couche : application, on arrive enfin à l’application informatique elle-même ou encore à l’utilisateur final derrière son poste de travail.

La Systémique a défini un modèle archétype de l’articulation d’un système en neuf niveaux :
1er niveau : le phénomène est identifiable
2ème niveau : le phénomène est actif : il « fait »
3ème niveau : le phénomène est régulé
4ème niveau : le phénomène s'informe sur son propre comportement
5ème niveau : le système décide de son comportement
6ème niveau : le système mémorise
7ème niveau : le système coordonne ses décisions d'action
8ème niveau : le système imagine et conçoit de nouvelles décisions possibles
9ème niveau : le système se finalise.
A noter : à partir du 5° niveau on passe de l’appellation « phénomène » à celle de « système », les niveau inférieur ne méritant pas en effet la dénomination de système au sens propre du terme de la systémique.
Tous ces découpages pouvant se discuter et critiquer à loisir, mais chacun se rejoignant sur l’idée d’un réel ordonné et hiérarchique. Ces découpages sont à prendre avec précautions, comme ils doivent l’être, c’est à dire comme des outils de pensée, des modèles, avec leurs limites et leurs dangers d’enfermements caricaturaux. En effet la nature -comme on vient de le voir- présentant souvent des niveaux en réseaux, voir multi-hiérarchiques et enchevêtrés.

b) Effets de bords et effets pervers :

L’une des conséquences des propriétés des systèmes s’exprime sous le nom d’effets de bord ou encore d’effets pervers. Un système artificiel, dès lors qu’il s’imbrique dans un système de niveau supérieur -à côté d’autres systèmes du même niveau – ou lorsqu’il est mis en réseau, peut influencer d’une manière imprévue les autres systèmes. Ces influences peuvent être qualifiées de simples effets de bord lorsqu’ils sont jugés gérables et prévisibles. Ils peuvent être qualifiés d’effets pervers, lorsqu’ils sont imprévus, agissant sur un périmètre mal contrôlé, ou encore issus d’une boucle rétroactive inattendue. En effet, surtout pour les systèmes artificiels de grande taille, il est important de prévoir ces effets de bord. Ces effets de bords sont à l’origine de la complexité de toutes les tâches ou activités d’intégration au sens large du terme. Ainsi des sous-systèmes fonctionnant parfaitement séparément, peuvent aboutir à un système aux comportements aberrants, incompréhensibles, une fois les sous-systèmes intégrés. De même un système naturel qui semble simple à appréhender lorsqu’il est étudié en pièces, éléments ou sous-systèmes séparés, acquiert un comportement incompréhensible, voir mystérieux à l’état naturel, c’est à dire intégré. Par exemple, c’est le cas d’un cerveau, chaque neurone étant (semble-t-il!) compréhensible, mais personne ne parvenant à véritablement comprendre le fonctionnement du cerveau complet à l’état vivant.

c) Destruction créatrice versus Création destructrice

La Destruction créatrice chère à J. Schumpeter [SCHUMPETER, Joseph, 1942], ou « Vivre de mort, mourir de vie » (Héraclite cité par E. Morin dans La Méthode I) :
Une autre conséquence importante des propriétés d’un système est que celui-ci ne peut souvent se maintenir en équilibre dynamique qu’au prix d’une construction ou production permanente de briques, éléments, ou sous-systèmes nouveaux pour compenser le vieillissement de ceux existants. Cela paraît relativement évident lorsque l’on observe n’importe quel être vivant. Mais le plus étonnant, et qui a été (re)découvert après Héraclite récemment, est que les systèmes ont aussi souvent besoin d’auto détruire des briques, éléments ou des sous-systèmes internes pour maintenir leurs équilibres dynamiques. Cette destruction, bien que paradoxale, est nécessaire à la survie soit en vue d’éliminer un sous-système peu ou plus adapté à l’environnement ou aux besoins du système, soit pour éliminer plus rapidement un sous-système en cours de vieillissement mais non encore mort par lui-même. Il enfin possible de voir un sous-système se faire éliminer après avoir servit à construire un ou plusieurs autres sous-systèmes, comme un échafaudage ou une machine-outil peuvent être enlevés après avoir soutenu la construction d’un bâtiment ou servi à la fabrication d’une automobile. Cette destruction/ construction est un exemple typique d’approche dialogique nécessaire en systémique, différente des approches dialectiques, et inconnue des approches cartésiennes, nous y reviendrons.

d) Référentiel relatif

Une dernière conséquence des propriétés des systèmes et de faire appel à ce que l’on pourrait appeler d’une manière générale un référentiel relatif. En effet, tous ces aspects multi-niveaux emboîtés hiérarchisés ou non, d’émergences, d’équifinalité, d’Eco-Auto-Re-Organisation des systèmes loin de l’équilibre, de dynamique, de variété, d'ergodicité, ou enfin de modèles jetables (réfutables !) découpés plus ou moins pertinemment dans le réel montre combien nous nous trouvons alors dans un référentiel très relatif et pour le moins instable.
Comme on le verra plus loin, il nous faut donc abandonner –ô combien cela est déchirant !- beaucoup de constructions :
· le référentiel absolu cher à Platon (Idées Immuables) ;
· Descartes (la Tabula rasa et son « je pense » en point fixe) ;
· A. Comte (Sciences dures références absolues se passant de la métaphysique) ;
· les religions ou idéologies millénaristes que sont les différents monothéismes ou Marx avec un paradis terrestre en finalité certaine de l’Histoire (on y reviendra) ;
· et la rassurante dialectique idéaliste ou matérialiste binaire prétendant que l’opposition binaire de deux absolus (thèse/antithèse) nous permet de faire le tour complet d’une question/système ;
Et bien d’autres, si confortables et rassurantes. Il nous faut alors aborder les incertaines constructions sur pilotis s’enfonçant dans les sables mouvants de K. Popper mais aussi de Kant, ou encore la connaissance de la connaissance d’E. Morin.
Attention cependant, il ne faut pas pour autant classer la Systémique et -le Constructivisme épistémologique- dans la catégorie des épistémologies relativistes. Si la Systémique a intégré le fait que l'on doit travailler sur des référentiels instables, « jetables », ou temporaires, elle n'est pas pour autant ce que l'on appelle relativiste en opposition à l'absolutisme. Nous reviendrons sur cette question au chapitre V.

e) Information limitée versus raison limitée ou rationalisme limité (« bounded rationality »)

C’est dans l'idée de la Variété requise d’un système de pilotage qu’apparaît le concept de « raison limitée », « rationalité limitée » ou encore « d’horizon de connaissance ».
Sous cette terminologie se confondent souvent deux choses différentes :
  • l’information limitée sur laquelle s’exerce une rationalité efficace qui correspond au phénomène d’horizon de connaissance : c'est la rationalité limitée exogène : c’est l’impossibilité d’avoir connaissance de toutes les informations venant de l’environnement, de l’extérieur. Voire même d’avoir des informations fausses ou de croire en des choses erronées. Cela a été étudié en théorie des jeux, en particulier par :
    - J. Nash dans son mémoire : « Non-cooperative games. » (The Annals of Mathematics, 1951, 54(2):286–96).Avec sa théorie des équilibres en théorie des jeux.
  • - Oskar Morgenstern avec un exemple tiré de Conan Doyle où Sherlock Holmes croyant que Moriarty l’a vu sur le quai du train à la gare de Londres se demande s’il doit descendre au seul arrêt intermédiera de Canterbury ou bien aller jusqu’au terminus de Douvre pour lui échapper. Il ne cesse de changer d’avis car s’il décide de descendre à Canterbury pour tromper Moriarty, il se dit que celui-ci va s’en douter et y descendre aussi. Donc, il va descendre plutôt à Douvre mais craint Morairty ne fasse ce même raisonnement, etc. jusqu’à la régression à l’infini.
    - J. Von Neumann qui est le plus cité comme père de la Théorie des Jeux. Il a travaillé avec O. Morgenstern pour sortir ensemble le livre de référence : « Theory of Games and Economic Behavior » en 1944.
    Certains acteurs au cours d’un jeu mettant en relation plusieurs acteurs, pourront poursuivre une stratégie en fonction des informations limitées en leur possession, de ce qu’ils perçoivent des décisions supposées des autres joueurs. Les décisions prises par chaque joueur leurs sembleront donc bonne, croyant optimiser efficacement et rationnellement leur espérance de gain, en fonction de ce qu'ils savent (je sais que tu sais peut-être que je sais peut-être...). C’est ainsi par exemple que Sherlock Holmes sachant que Moriarty est intelligent, va finalement décider de tirer au sort entre les deux gares pour mieux empêcher celui-ci de mener ses supputations efficacement et avoir au minimum 50 % de chance d’échapper à Moriarty. Un observateur externe omniscient, ayant la possibilité de voir tous les joueurs simultanément et ayant une parfaite connaissance globale de leurs jeux respectifs, comprendra que ces joueurs ne prennent pas les bonnes décisions et vont à leur perte. Le problème bien entendu est que les scientifiques étudiant ainsi ces joueurs ne sont pas ce « Dieu » externe pouvant tout voir. C’est par exemple le problème des économistes qui, même après coup, presque un siècle après la crise de 1929, ne parviennent pas à avoir la totalité des informations en main sur les décisions prises par les nombreux acteurs de l’époque. Ils ne parviennent donc pas être d’accord entre eux et échafaudent alors des théories différentes voire opposées. Cela rejoins la thèse de K. Popper et F. Hayek, sur le Constructivisme social des dirigeants politiques qui prennent quantité de décisions sans avoir la moindre idée – en réalité – de leurs conséquences, et de ce qui va en découler. O. Morgenstern avait d’ailleurs échangé avec eux via le défunt Cercle de Vienne et il a apporté cette approche très épistémologique concernant les limitations des sources d’informations externes aux acteurs et le bien fondé de leurs décisions. On est ici devant un excellent exemple de ce que l’on entends par « Complexité » en Systémique
  • la rationalité limitée (intrinsèquement) étudiée par H.A. Simon dans « Sciences des systèmes. Sciences de l’artificiel », et « A Behavioral Model of Rational Choice » (1955) où la raison de l’individu est insuffisante et commet des erreurs : c'est la rationalité limitée endogène.
    En effet, encore faut-il que les joueurs soient un tant soit peu rationnels pour prendre donc en compte l’habilité, la rationalité ou l’intelligence des autres joueurs. Et pire encore, cela suppose également que chaque joueur puisse estimer correctement le degré de rationalité de chacun des autres..Cette limitation est liée au fait que la Variété requise d’un centre de pilotage quelconque d’un sous-système au sein d’un système plus vaste, est inférieure à la valeur nécessaire (requise) pour parvenir à dominer ce sous-système piloté. En clair le pilote doit être plus « fort » au sens de Gödel que le piloté. H.A. Simon parle de rationalité cognitive limitée, en bref, le système de pilotage n'a pas les capacités de traitements computationnelles, en clair il n'est pas assez intelligent, raide, et efficace, pour pouvoir comprendre toutes les informations qui lui remontent et prendre les bonnes décisions dans les temps impartis.
Cette situation est très courante dans les grandes entreprises où un manager ne disposant pas des informations globales concernant la situation et la stratégie de son entreprise, sera réduit à utiliser celles disponibles, visibles, accessibles dans son horizon (exogène), et prendra des décisions qui lui sembleront optimales et rationnelles... sans avoir pour autant les compétences ou les connaissances pour comprendre ce qu'il faut faire (endogène) . Celles-ci pourront certes sembler bonnes à son niveau, voire correctes à court terme. Par exemple, ce manager donnera la priorité aux tâches demandant le moins de ressources, les plus rapides à exécuter à son niveau. Malencontreusement, ces tâches faites en priorité pourront ne pas correspondre à celles réellement prioritaires vues du pilote du système englobant, le patron de l’entreprise dans notre exemple. Le résultat final, si de nombreux managers sont dans le même cas, pourra aboutir à une entreprise, un système, en ébullition, désordonné, incapable de suivre une stratégie stable, de poursuivre un but identifiable, anarchique, et sera condamné à mort assez rapidement. Il va s'en dire que cela s'applique d'autant plus aux décideurs politiques à l'échelle d'un pays, à l'échelle d'un gouvernement ou d'élus locaux de collectivités locales un peu importantes. L'économie de nos pays étant devenue de plus en plus complexe, ces élus sont clairement dans un contexte de rationalité limitée.
Enfin, cette raison limitée ne s’applique pas qu’à des managers ou à des êtres humains. On peut retrouver par exemple la même limitation dans les phénomènes de rejet en médecine, lors de greffes. Le (sous-)système immunitaire d’un patient ayant eu une greffe va entrer en action en fonction des informations locales limitées disponibles, « interpréter » celles-ci comme une attaque microbienne externe qu’il faut éliminer, déclenchant le rejet du greffon, alors que le patient lui-même (ici le système global) souhaiterait naturellement voir réussir la greffe.
Remarque : il est facile de parier que la croyance en la possibilité d'un système de pilotage plus « fort » au sens de Gödel que le système piloté nous embarquerait immédiatement dans une régression à l'infini. C'est le célèbre adage : « s'il faut un État pour corriger les supposés excès des marchés (et qui va le décider et sur quelles bases ?) , qui alors va corriger les excès des États (guerres, lois scélérates, racismes d’États, camps de la mort, déficits, dettes,... ) ??  C'est pourquoi le chercheur, le citoyen, le politicien doivent considérer que de toutes manières, les systèmes de pilotage (ex : pilote d'avion, conducteur de véhicule, gouvernement, administration, dirigeant de toute entreprise) sont condamnés à être en situation de rationalité limitée  : c'est Aristote et Machiavel contre Platon et Rousseau, on y reviendra.

SUITE du Blog : Théories alliées à la systémique (1)
Benjamin de Mesnard

dimanche 26 octobre 2008

II) Présentation détaillée de la Systémique (7/8)

II-5) Les propriétés d’un système :
II-5-1) Émergence

Le principe d’émergence est au centre du discours systémique. La Systémique soutien, en opposition avec Descartes et le réductionnisme, que quelque chose de neuf, de nouveau, de supplémentaire émerge de l’organisation, des relations, de la structure, qui relient entre eux les différents composants (sous-systèmes) constituant le système étudié. Ce « quelque chose » n’est pas prévisible, calculable, intrinsèque, suite à une étude (analyse) des composants du système. Il ne faut pas confondre ici deux choses : l’émergence, telle que décrite ici, et le résultat « prévisible » (plus ou moins facilement) d’en groupe de composants. Ainsi, le comportement d’un être humain n’est pas déductible des organes le composants (foie, viscères,...), il est donc émergeant. Par contre, il est d’usage de prendre comme exemple de comportement non-émergent un tas de sable donné comme « calculable », disons prévisible (bien que fort complexe en réalité !), à partir des qualités intrinsèques des grains de sables (mouillés, ronds, pente du tas de sable, etc.…). C’est pourquoi l’image d’un « tas » revient souvent en opposition à celui d’un système : les grains d’un tas de sable sont faiblement reliés, en inter-actions entre eux, ils ne constituent pas un système.
Dans le cas d'un tas de sable, cela ne signifie pas que ces « prévisions » ou « calculs » sont faciles et simples, bien sûr, car ils peuvent demander de grandes puissances de calculs mais, un algorithme existe (du moins en théorie…) qui permet de prévoir ce comportement. On n’est pas alors en face d’un système mais plutôt « d’un tas ». La différence entre ces deux cas tient à la densité des inter-relations. Ainsi le tas de sable n’est composé, que de grains quasi identiques entre eux, en inter-relations faibles (les frottements entre les grains), deux grains éloignés n’étant pas reliés. A l'inverse, tous les organes d’un être humains, mêmes éloignés, sont en interrelation très étroitement.
Enfin, cette non-prévisibilité, cette impossibilité de calculer, n’as rien à voir avec le principe d’Heisenberg de la Théorie Quantique. Ainsi, nous sommes au cœur du concept, au centre du principe même de l’émergence en théorie des systèmes et le refuser revient à démontrer une incompréhension profonde de l’idée d’émergence. Même en considérant que chaque élément du système serait le plus simple possible, en allant jusqu’à le décomposer en « atomes » (monades !) non quantiques, on peut fort bien tomber sur des systèmes non calculables et non prévisibles du fait de leurs richesses et de leurs complexités d’inter-relations. Un bon exemple, travaillé par Poincaré, est le problème des trois corps tournants les uns autour des autres dans l'espace en gravité newtonienne (inutile d’avoir recours à Einstein...). Même si -par exercice de pensée mathématique- on part du principe que ces trois corps sont des points mathématiques que l’on peut situer (position et vitesse) aussi précisément que demandé, leurs trajectoires au bout d’un certain temps deviendront imprévisibles. Ce temps est d’ailleurs un paramètre enregistrable du système, dépendant directement du degré de précision des positions initiales mesurées. Plus la précision des positions et vitesses initiales sera précise, plus ce temps « d’horizon de la prédiction » s’allongera, mais il existera toujours. Seule une mesure infiniment précise des positions initiales pourrait -en théorie- faire reporter ce temps d’horizon de la prédiction à l’infini également.
Ce qui est intéressant de noter ici, c’est que l’on retrouve une sorte de principe d’incertitude d’Heisenberg, par un fait que l’on pourrait qualifier de loi de la nature des systèmes mêmes.
On retombe ici sur l’apparition du chaos, des « attracteurs étranges » et des fractals, dans un système. On retrouve aussi naturellement l’apparition de la flèche du temps sans avoir besoin d’avoir recours au petit diable de Laplace.
Parmi les spécialistes travaillant sur le concept d’émergence, certains défendent l’émergence comme étant substantielle, d’autres non, défendant alors l'émergence comme étant accidentelle en s’opposant quelque fois durement. Il est à noter que les tenants de l’émergence substantielle –qualifiée d’ailleurs alors de substance émergente- peuvent être assimilés à la Systémique comme le fait I. Prigogine décrivant l’émergence de structures, les cellules de convection de Bénard, dans un liquide soumis à un gradient de température, voir (II-5-2). Ceci est erroné car on peut accepter le fait qu’il y a bien deux types d’émergences : substantielle et accidentelle. On retrouve alors fidèlement les qualités aristotélicienne de substance et d’accident, aucun argument ne permettant de rejeter à priori l’émergence accidentelle comme non authentique, ou inacceptable aux yeux de la Systémique. Ce débat peut être utilement clarifié encore une fois par l'idée de mouvement lent (substantiel) versus mouvement rapide (accidentel) de F. Hayek montrant bien le flou de la dichotomie -typiquement cartésienne !- ainsi décrétée et par là même les limites de ce débat. Nous reviendrons sur ce débat en (III-2-1). 
Enfin il faut distinguer deux conceptions de l’émergence. Ces deux conceptions sont déterminantes dans le débat sciences de la nature versus « sciences » humaines, on y reviendra. Je cite : «  La première, que j’appellerai « émergentisme épistémologique », pose les thèses complémentaires suivantes : (2) les caractéristiques d’une entité, y compris constitutives, sont toujours dérivables en principe de celles de ses parties et de leurs relations (externes et internes) ; (3) dans le cas général, le manque de connaissance exhaustive des relations internes et des propriétés relationnelles des parties impose d’admettre au moins provisoirement des traits émergents, non réductibles, ainsi que des niveaux de réalité correspondants, dans une perspective heuristique et en vue d’obtenir une connaissance significative de nature holistique ; (4) chaque science référant à un niveau de réalité distingué doit au moins provisoirement développer ses propres termes, concepts et lois, ne serait-ce qu’afin de fournir les connaissances de type holistique nécessaires à l’actualisation de (2). Une autre variante, que j’appellerai « émergentisme métaphysique », pose des thèses plus radicales : (2’) à supposer que l’on connaisse toutes les propriétés des parties d’une entité et toutes leurs relations, on ne pourrait toutefois pas encore en dériver toutes les propriétés de cette entité, dont les traits holistiques forment une nouveauté radicale et définitivement irréductible ; (3’) les traits émergents doivent être acceptés sans explication et former le point de départ de nouvelles recherches dans une perspective holistique admettant une stratification du réel en niveaux ontologiquement distincts ; (4’) chaque science référant à un niveau de réalité doit avoir ses propres vocabulaire, principes et lois, sans souci des sciences référant à des niveaux de réalité auxquels appartiendraient les parties constitutives des entités qu’elle considère, dans la mesure tout au moins où aucune contradiction n’est ainsi engendrée. » [POUVREAU, David, Une histoire de la « systémologie générale » de Ludwig von Bertalanffy, Thèse EHESS, 2013, p 51-52]. La première, l’épistémologique, que l’on pourrait qualifier de juste milieu aristotélicien raisonnable est l’outil utilisé avec prudence par les sciences de la nature ; la seconde, la métaphysique, a tendance à être érigée en absolu dans les « sciences » sociales en ayant recours à des personnifications abusives dénoncées par S. Weil, K. Popper ou F. Hayek souvent cités par la suite dans cet essai. En bref, cette émergence métaphysique fini par voir des systèmes et en faire des êtres, des personnes agissant et se comportant comme des êtres humains, ce qui n’est pourtant pas le cas, c’est le mécanisme de la personnification, on y reviendra. Bien entendu L. von Bertalanffy se situe clairement sur l’émergence épistémologique.

II-5-2) L’intentionnalité versus la finalité

Il ne faut pas confondre finalité et intentionnalité dans un système. Un exemple permet d’illustrer très simplement cette différence : l’intention d’une équipe d’ingénieur est de créer tel type d’avion, la finalité d’un avion (constat) est de voler.
Avec l’intention, on constate une propriété affichée ou imposée à un système mais pas forcément réalisée par lui. Avec la finalité : « tout se passe comme si... » : propriété révélée par le comportement du système, optimisation d’une fonction, d'un objectif,... le système tends de lui-même à réaliser ou atteindre une ou des fonctions ou objectifs.
La non compréhension de la différence de ces deux concepts explique les débats entre vitalistes ou mécanistes, finalisme et téléonomie, tout particulièrement sur les systèmes vivants où il est difficile de séparer téléonomie simple et finalisme. En effet la finalité de l’avion à voler du fait de l’intention des ingénieurs qui l’on conçu ne pose pas débat, par contre celui-ci est posé avec les êtres vivants.
Dans un système comme le pendule (similaire au problème des trois corps), on voit apparaître les phénomènes d’attracteurs étranges (fractals), sans qu’il soit possible de décréter que le pendule est soumis à l’intention d’un créateur de le faire converger vers cet attracteur étrange. Il existe aussi d’autres systèmes simples non créés intentionnellement et convergeant eux aussi vers un état qui semble « pré désigné » sans intention d’un inventeur. Ainsi, les cellules de convections découvertes par Bénard apparaissant spontanément dans une casserole remplie d’eau chauffée à feu doux, et présentant un certain gradient de températures, ne peuvent en aucun cas être le résultat d’une intention. Pourtant, l’eau converge spontanément vers cet état « final », plus exactement d’équilibre dynamique, si la température de la casserole reste dans une plage correcte.
François Jacob va jusqu’à écrire : « la reproduction d'un organisme est devenue celle des molécules qui le constituent. […]
Ce qui est transmis de génération en génération, ce sont les «instructions » spécifiant les structures moléculaires. Ce sont les plans d'architecture du futur organisme. Ce sont aussi les moyens de mettre ces plans à exécution et de coordonner les activités du système. Chaque œuf contient donc, dans les chromosomes reçus de ses parents, tout son propre avenir, les étapes de son développement, la forme et les propriétés de l'être qui en émergera. L'organisme devient ainsi la réalisation d'un programme prescrit par l'hérédité. A l'intention d'une Psyché s'est substituée la traduction d'un message. L'être vivant représente bien l'exécution d'un dessein, mais qu'aucune intelligence n'a conçu. Il tend vers un but, mais qu'aucune volonté n'a choisi. Ce but, c'est de préparer un programme identique pour la génération suivante. C'est de se reproduire. Un organisme n'est jamais qu'une transition, une étape entre ce qui fut et ce qui sera. La reproduction en constitue à la fois l'origine et la fin, la cause et le but. Avec le concept de programme appliqué à l'hérédité, disparaissent certaines des contradictions que la biologie avait résumées par une série d’oppositions : finalité et mécanisme, nécessité et contingence, stabilité et variation. Dans l'idée de programme viennent se fondre deux notions que l'intuition avait associées aux êtres vivants : la mémoire et le projet. Par mémoire s'entend le souvenir des parents que l'hérédité trace dans l'enfant. Par projet, le plan qui dirige dans le détail la formation d'un organisme. » (17, introduction).

II-5-3) Ago-antagonisme et homéostasie
 
Souvent confondue avec la dialectique , remplacée en l'occurrence par le terme de dialogique par E. Morin. Les systèmes en équilibres dynamiques se trouvent dans un « jeu » de forces variées, souvent nombreuses, s'exerçant dans des sens différents (et non forcément opposés) mais plus ou moins égales. Certaines forces, ou sous-systèmes, jouent dans le même sens (agonistes), d'autres en opposition (antagonistes). Ainsi, en médecine, comme l'observe E. Bernard-Weil dans un article sur le sujet « Théorie et praxis des systèmes ago-antagonistes » : « Très simplement, il y a deux hypophyses. L'hypophyse postérieure sécrète une hormone, l'hormone anti-diurétique (HAD), et l'hypophyse antérieure sécrète indirectement (via l’ACTH) une hormone diurétique cortico-surrénalienne, la cortisone. Vous enlevez l'hypophyse postérieure, chez l’animal […] et l'on comprend pourquoi apparaît un diabète insipide, émission quotidienne de plus de 10 litres d'urines par jour. Et maintenant enlevez l'hypophyse antérieure […], le diabète insipide disparaît, car il n'y a plus ni hormones diurétique ni anti-diurétique, en fait il n'y a pas eu de guérison, mais deux maladies au lieu d'une et qui paraissent s'annuler. ». Il a donc découvert ici un système composé de deux sous-système dialogiques (les deux hypophyses) produisant chacun une hormone qui va venir équilibrer en permanence l'autre et vice-versa. Ces deux hypophyses ne travaillent pas en simple opposition dialectique, elle ne sont pas la même choses (« A » et « non A ») s'opposant à lui-même car ce sont bien deux hypophyses différentes. Non, elles travaillent de concert, ensemble (agonisme) et simultanément en équilibre instable par équilibration dynamique (antagonisme) permanent. La rupture de cette dialogique, de ce travail en commun comme deux jambes s'équilibrant l'une l'autre, amène la maladie, qui n'est pas autre choses qu'un déséquilibre.
En mécanique, sur une voiture, les sous-systèmes « accélérateur » et « freins » loin de s’opposer comme l’aurait conclu un dialecticien comme Hegel ou Marx, coopèrent ensemble au contraire en mode dialogique pour faire avancer correctement le véhicule. Ainsi par exemple lors d’une course des 24 Heures du Mans un concurrent a gagné car pour la première fois sa voiture avait des freins à disques beaucoup plus efficaces, lui permettant d’aller… beaucoup plus vite !
De même en matière de socio-politique, le maître mot est là aussi le jeu des forces ago-antagonistes. Simone Weil résume très bien ce jeu des forces, se livrant en passant à une critique destructrice du Marxisme dès 1937... : « Les marxistes n’ont pas facilité une vue claire du problème en choisissant l’économie comme clef de l’énigme sociale. Si l’on considère une société comme un être collectif, alors ce gros animal, comme tous les animaux, se définit principalement par la manière dont il s’assure la nourriture, le sommeil, la protection contre les intempéries, bref la vie. Mais la société considérée dans son rapport avec l’individu ne peut pas se définir simplement par les modalités de la production. On a beau avoir recours à toutes sortes de subtilités pour faire de la guerre un phénomène essentiellement économique, il éclate aux yeux que la guerre est destruction et non production. L’obéissance et le commandement sont aussi des phénomènes dont les conditions de la production ne suffisent pas à rendre compte. Quand un vieil ouvrier sans travail et sans secours périt silencieusement dans la rue ou dans un taudis, cette soumission qui s’étend jusque dans la mort ne peut pas s’expliquer par le jeu des nécessités vitales. La destruction massive du blé, du café, pendant la crise est un exemple non moins clair. La notion de force et non la notion de besoin constitue la clef qui permet de lire les phénomènes sociaux. ». [WEIL, Simone, « Méditation sur l’Obéissance et la Liberté », Œuvres, Ed. Quarto Gallimard, p 490].

II-5-4) Eco-Auto-Re-Organisation des systèmes loin de l’équilibre

C’est ici qu’interviennent dans l’étude des systèmes les phénomènes d’auto-organisation permettant d’éclairer le débat finalisme-intention, à condition de ne pas oublier les phénomènes d’émergences cités plus hauts.
Ces aspects ont été particulièrement développés par E. Morin et JL Le Moigne.
Loin de l’équilibre, signifie que le système n’est pas au repos, et est soumis à des flux d’énergies, informations et/ou de matières. Ces flux ne doivent pas être ni trop faibles ni trop fort, dans les limites de ce que peut « encaisser » le système. Dans cet état, le système se trouve probablement dans l’état qui lui est « le meilleur ». Ce dernier terme entre guillemets montre bien le penchant de l’être humain pour les termes finalistes…
Dans ce régime, un système peut spontanément, sur des délais variables, se mettre à présenter des phénomènes de réorganisations internes. Ces réorganisations interviendront surtout si les natures ou les régimes des flux entrants ou sortants évoluent dans le temps, ceci, à nouveau, sans dépasser une plage admissible pour le système.
Ces réorganisations internes peuvent provenir soit :
  • de l’apparition de nouvelles relations ou inter-relations entre ses sous-systèmes. Par exemple l’établissement de nouvelles synapses dans un cerveau réalisant un apprentissage.
  • d’une modification limitée de l’un ou de plusieurs sous-systèmes (qu'il faudrait alors à leur tour individuellement étudier en tant que systèmes).
  • D’une transformation en profondeur de l’un ou de plusieurs sous-systèmes aboutissant à l’apparition d’un sous-système réellement nouveau.
A nouveau un exemple simple est l’auto-organisation des cellules de convection dans une casserole d’eau chaude. Aucun ingénieur n’est présent avec l’intention (intentionnalité) de les créer, et pourtant le système s’auto-organise spontanément en un réseau de cellules avec une structure typique en cellule d’abeilles.
Cet état est instable, les cellules varient en permanence de taille et de forme, tout en restant proche de la section hexagonale. Une cellule peut presque même par instants disparaître pour quelques secondes, plus la température augmente et plus ces mouvements deviendront des soubresauts violents qui finiront par anéantir cette nouvelle (auto) organisation : le système est mort, il a explosé sous la trop grande intensité des flux auquel il a été soumis.
Comme déjà évoqué en (II-3-3) au sujet de JL Le Moigne, Edgar Morin dit que l’organisation est en fait bien plus qu’une simple auto-organisation, mais est un processus de transformation permanente sur 3 registres imbriqués :
« - celui de l’éco-organisation, qui est l’ouverture aux évolutions et à la diversité de l’environnement, éco-organisation qui est à la fois dépendante de l’environnement, mais aussi créatrice de son environnement.
- Ensuite l’auto-organisation, qui est le développement de l’autonomie, la capacité à élaborer et à mettre en œuvre ses propres projets, d’organiser ses modes d’action et ses processus pour s’auto-produire de façon adaptée aux contraintes et sophistications de l’environnement.
- Troisièmement, la ré-organisation qui est la transformation permanente assez subtile, entre le renouvellement et la reproduction, ré-organisation qui ne peut s’opérer qu’en complète symbiose avec l’éco et l’auto-organisation. ». (Evelyne Biausser, éditrice du dossier MCX XVIII, Une Pragmatique du « bien penser »).
Ainsi l’éco-organisation consiste à s’adapter aux changements de l’environnement, et en retour à modifier celui-ci, de la bactérie qui va alcooliser son environnement en consommant le sucre contenu par celui-ci pour produire de la bière, jusqu’à l’homme et le réchauffement planétaire… qui devront ensuite s’adapter en retour aux changements de l’environnement pourtant provoqués par eux-mêmes. C’est le système actif.
L’auto-organisation a été traitée plus haut, c’est le système dynamiquement stable capable de s’organiser de lui-même (immanence) .
La ré-organisation qui consiste à détruire/ construire son organisation interne comme explicité plus bas en (II-5-4-c), c’est le système évoluant. On arrive alors à la phrase à méditer d’E. Morin : « l’organisation est l’organisation de l’organisation ».

SUITE du Blog : Les propriétés d'un système

Benjamin de Mesnard