Affichage des articles dont le libellé est Régulation. Afficher tous les articles
Affichage des articles dont le libellé est Régulation. Afficher tous les articles

vendredi 31 octobre 2008

II) Présentation détaillée de la Systémique (8/8)

II-5-5) Conséquences des propriétés des systèmes : Niveaux du réel et articulation de ces niveaux :

a) Structuration en niveaux du réel :

La conséquence principale des trois propriétés citées est de permettre d’expliquer la structuration en niveaux du réel et l’articulation de ces niveaux. Chaque niveau, s’appuie donc sur le niveau inférieur. Il supporte et a besoin (au sens de Gödel) du niveau supérieur pour « s’expliquer » au plan de sa finalité, intentionnalité ou téléonomie selon le débat. A nouveau cependant (méfions-nous des simplifications trop cartésiennes !), la plupart des systèmes ne présentent pas des niveaux stratifiés clairement en couches successives, mais plutôt des enchevêtrements d’inter-relations complexes entre sous-systèmes…
Le réel est ainsi plus complexe encore qu'une gigantesque poupée russe, fait d’une succession d’un nombre inconnu de niveaux de « réalités ». « Réalités » est mis ici intentionnellement entre guillemets car c’est bien de cela qu’il s’agit. Car lorsque vient l’étude de ces niveaux de réalités par les sciences, on assiste bien entre deux niveaux trop distants à l’établissement par les scientifiques qui les étudient de lois complètements différentes et indépendantes. Un exemple : les lois de la physique d’Einstein par rapport aux lois du « monde » de la finance. Il s’agit bien de niveaux authentiques de réalités -bien réels-, mais tellement distants, qu’ils n’ont plus rien à voir entre eux et sont (presque) totalement indépendants.
On observe le même phénomène entre Théorie de la Relativité et Théorie Quantique, ces deux théories sont en opposition car opérant à deux niveaux séparés du réel. Pour les réunir, il faudrait avoir recours à l’étude d’un système formel de niveau supérieur (voir ci-dessus), plus englobant, plus fort (au sens strict de Gödel).

Leibniz a construit un modèle à deux mondes, deux niveaux :
1° niveau : le premier niveau est constitué des « replis » de la matière vue comme « composé à l’infini », complexe, dirait-on de nos jours.,
2° niveau : le second est constitué des « replis » de l’âme, vue comme « simple ».

K. Boulding a imaginé 8 niveaux découpés dans le réel :
1° niveau : objets élémentaires de la physique (atomes, …),
2° niveau : structures dynamiques naturelles ou artificielles, domaine de la mécanique,
3° niveau : systèmes artificiels, domaine de la cybernétique,
4° niveau : la cellule vivante, domaine de la biologie,
5° niveau : la plante,
6° niveau : l’animal,
7° niveau : l’homme,
8° niveau : la « socio-culture ».

Mais K. Popper en a imaginé trois :
1° niveau : les objets physiques, matériels,.............................) similaires aux deux mondes
2° niveau : les expériences subjectives ou états mentaux......) de Leibniz donnés ci-dessus
3° niveau : les productions de l’esprit humain vraies ou fausses à la différence du monde des Idées de Platon.

De même L. von Bertalanffy : « (…) on peut en gros trouver trois domaines ou niveaux principaux dans l’observation du monde : la nature inanimée, les systèmes vivants et l’univers symbolique, chacun ayant ses lois immanentes caractéristiques. [Robots, Men and Minds, New York, Braziller, 1967, p 30].
 
L’ISO a normalisé 7 couches dans le domaine des réseaux informatiques :
1° couche : physique, codage électrique ou optique au niveau du bit d’information.
2° couche : couche trame, des trames de bits sont constituées en transmission entre deux points.
3° couche : paquets, ces trames contiennent des paquets d’informations que l’on peut commuter de commutateurs en commutateurs pour les acheminer, en assurant leur routage, entre deux utilisateurs sur le réseau.
4° couche : transport, cette couche assure le transport de bout en bout des échanges entre les deux utilisateurs du réseau d’une manière transparente, indépendante des routes utilisées par la couche paquet.
5° couche : session, une session de communication identifiable en tant que telle est crée entre ces deux utilisateurs, ce qui permet de faire des points de reprise de session en cas d’interruption de celle-ci.
6° couche : présentation, cette couche assure la présentation –sur un écran par exemple- des informations dans un format directement compréhensible par l’application.
7° couche : application, on arrive enfin à l’application informatique elle-même ou encore à l’utilisateur final derrière son poste de travail.

La Systémique a défini un modèle archétype de l’articulation d’un système en neuf niveaux :
1er niveau : le phénomène est identifiable
2ème niveau : le phénomène est actif : il « fait »
3ème niveau : le phénomène est régulé
4ème niveau : le phénomène s'informe sur son propre comportement
5ème niveau : le système décide de son comportement
6ème niveau : le système mémorise
7ème niveau : le système coordonne ses décisions d'action
8ème niveau : le système imagine et conçoit de nouvelles décisions possibles
9ème niveau : le système se finalise.
A noter : à partir du 5° niveau on passe de l’appellation « phénomène » à celle de « système », les niveau inférieur ne méritant pas en effet la dénomination de système au sens propre du terme de la systémique.
Tous ces découpages pouvant se discuter et critiquer à loisir, mais chacun se rejoignant sur l’idée d’un réel ordonné et hiérarchique. Ces découpages sont à prendre avec précautions, comme ils doivent l’être, c’est à dire comme des outils de pensée, des modèles, avec leurs limites et leurs dangers d’enfermements caricaturaux. En effet la nature -comme on vient de le voir- présentant souvent des niveaux en réseaux, voir multi-hiérarchiques et enchevêtrés.

b) Effets de bords et effets pervers :

L’une des conséquences des propriétés des systèmes s’exprime sous le nom d’effets de bord ou encore d’effets pervers. Un système artificiel, dès lors qu’il s’imbrique dans un système de niveau supérieur -à côté d’autres systèmes du même niveau – ou lorsqu’il est mis en réseau, peut influencer d’une manière imprévue les autres systèmes. Ces influences peuvent être qualifiées de simples effets de bord lorsqu’ils sont jugés gérables et prévisibles. Ils peuvent être qualifiés d’effets pervers, lorsqu’ils sont imprévus, agissant sur un périmètre mal contrôlé, ou encore issus d’une boucle rétroactive inattendue. En effet, surtout pour les systèmes artificiels de grande taille, il est important de prévoir ces effets de bord. Ces effets de bords sont à l’origine de la complexité de toutes les tâches ou activités d’intégration au sens large du terme. Ainsi des sous-systèmes fonctionnant parfaitement séparément, peuvent aboutir à un système aux comportements aberrants, incompréhensibles, une fois les sous-systèmes intégrés. De même un système naturel qui semble simple à appréhender lorsqu’il est étudié en pièces, éléments ou sous-systèmes séparés, acquiert un comportement incompréhensible, voir mystérieux à l’état naturel, c’est à dire intégré. Par exemple, c’est le cas d’un cerveau, chaque neurone étant (semble-t-il!) compréhensible, mais personne ne parvenant à véritablement comprendre le fonctionnement du cerveau complet à l’état vivant.

c) Destruction créatrice versus Création destructrice

La Destruction créatrice chère à J. Schumpeter [SCHUMPETER, Joseph, 1942], ou « Vivre de mort, mourir de vie » (Héraclite cité par E. Morin dans La Méthode I) :
Une autre conséquence importante des propriétés d’un système est que celui-ci ne peut souvent se maintenir en équilibre dynamique qu’au prix d’une construction ou production permanente de briques, éléments, ou sous-systèmes nouveaux pour compenser le vieillissement de ceux existants. Cela paraît relativement évident lorsque l’on observe n’importe quel être vivant. Mais le plus étonnant, et qui a été (re)découvert après Héraclite récemment, est que les systèmes ont aussi souvent besoin d’auto détruire des briques, éléments ou des sous-systèmes internes pour maintenir leurs équilibres dynamiques. Cette destruction, bien que paradoxale, est nécessaire à la survie soit en vue d’éliminer un sous-système peu ou plus adapté à l’environnement ou aux besoins du système, soit pour éliminer plus rapidement un sous-système en cours de vieillissement mais non encore mort par lui-même. Il enfin possible de voir un sous-système se faire éliminer après avoir servit à construire un ou plusieurs autres sous-systèmes, comme un échafaudage ou une machine-outil peuvent être enlevés après avoir soutenu la construction d’un bâtiment ou servi à la fabrication d’une automobile. Cette destruction/ construction est un exemple typique d’approche dialogique nécessaire en systémique, différente des approches dialectiques, et inconnue des approches cartésiennes, nous y reviendrons.

d) Référentiel relatif

Une dernière conséquence des propriétés des systèmes et de faire appel à ce que l’on pourrait appeler d’une manière générale un référentiel relatif. En effet, tous ces aspects multi-niveaux emboîtés hiérarchisés ou non, d’émergences, d’équifinalité, d’Eco-Auto-Re-Organisation des systèmes loin de l’équilibre, de dynamique, de variété, d'ergodicité, ou enfin de modèles jetables (réfutables !) découpés plus ou moins pertinemment dans le réel montre combien nous nous trouvons alors dans un référentiel très relatif et pour le moins instable.
Comme on le verra plus loin, il nous faut donc abandonner –ô combien cela est déchirant !- beaucoup de constructions :
· le référentiel absolu cher à Platon (Idées Immuables) ;
· Descartes (la Tabula rasa et son « je pense » en point fixe) ;
· A. Comte (Sciences dures références absolues se passant de la métaphysique) ;
· les religions ou idéologies millénaristes que sont les différents monothéismes ou Marx avec un paradis terrestre en finalité certaine de l’Histoire (on y reviendra) ;
· et la rassurante dialectique idéaliste ou matérialiste binaire prétendant que l’opposition binaire de deux absolus (thèse/antithèse) nous permet de faire le tour complet d’une question/système ;
Et bien d’autres, si confortables et rassurantes. Il nous faut alors aborder les incertaines constructions sur pilotis s’enfonçant dans les sables mouvants de K. Popper mais aussi de Kant, ou encore la connaissance de la connaissance d’E. Morin.
Attention cependant, il ne faut pas pour autant classer la Systémique et -le Constructivisme épistémologique- dans la catégorie des épistémologies relativistes. Si la Systémique a intégré le fait que l'on doit travailler sur des référentiels instables, « jetables », ou temporaires, elle n'est pas pour autant ce que l'on appelle relativiste en opposition à l'absolutisme. Nous reviendrons sur cette question au chapitre V.

e) Information limitée versus raison limitée ou rationalisme limité (« bounded rationality »)

C’est dans l'idée de la Variété requise d’un système de pilotage qu’apparaît le concept de « raison limitée », « rationalité limitée » ou encore « d’horizon de connaissance ».
Sous cette terminologie se confondent souvent deux choses différentes :
  • l’information limitée sur laquelle s’exerce une rationalité efficace qui correspond au phénomène d’horizon de connaissance : c'est la rationalité limitée exogène : c’est l’impossibilité d’avoir connaissance de toutes les informations venant de l’environnement, de l’extérieur. Voire même d’avoir des informations fausses ou de croire en des choses erronées. Cela a été étudié en théorie des jeux, en particulier par :
    - J. Nash dans son mémoire : « Non-cooperative games. » (The Annals of Mathematics, 1951, 54(2):286–96).Avec sa théorie des équilibres en théorie des jeux.
  • - Oskar Morgenstern avec un exemple tiré de Conan Doyle où Sherlock Holmes croyant que Moriarty l’a vu sur le quai du train à la gare de Londres se demande s’il doit descendre au seul arrêt intermédiera de Canterbury ou bien aller jusqu’au terminus de Douvre pour lui échapper. Il ne cesse de changer d’avis car s’il décide de descendre à Canterbury pour tromper Moriarty, il se dit que celui-ci va s’en douter et y descendre aussi. Donc, il va descendre plutôt à Douvre mais craint Morairty ne fasse ce même raisonnement, etc. jusqu’à la régression à l’infini.
    - J. Von Neumann qui est le plus cité comme père de la Théorie des Jeux. Il a travaillé avec O. Morgenstern pour sortir ensemble le livre de référence : « Theory of Games and Economic Behavior » en 1944.
    Certains acteurs au cours d’un jeu mettant en relation plusieurs acteurs, pourront poursuivre une stratégie en fonction des informations limitées en leur possession, de ce qu’ils perçoivent des décisions supposées des autres joueurs. Les décisions prises par chaque joueur leurs sembleront donc bonne, croyant optimiser efficacement et rationnellement leur espérance de gain, en fonction de ce qu'ils savent (je sais que tu sais peut-être que je sais peut-être...). C’est ainsi par exemple que Sherlock Holmes sachant que Moriarty est intelligent, va finalement décider de tirer au sort entre les deux gares pour mieux empêcher celui-ci de mener ses supputations efficacement et avoir au minimum 50 % de chance d’échapper à Moriarty. Un observateur externe omniscient, ayant la possibilité de voir tous les joueurs simultanément et ayant une parfaite connaissance globale de leurs jeux respectifs, comprendra que ces joueurs ne prennent pas les bonnes décisions et vont à leur perte. Le problème bien entendu est que les scientifiques étudiant ainsi ces joueurs ne sont pas ce « Dieu » externe pouvant tout voir. C’est par exemple le problème des économistes qui, même après coup, presque un siècle après la crise de 1929, ne parviennent pas à avoir la totalité des informations en main sur les décisions prises par les nombreux acteurs de l’époque. Ils ne parviennent donc pas être d’accord entre eux et échafaudent alors des théories différentes voire opposées. Cela rejoins la thèse de K. Popper et F. Hayek, sur le Constructivisme social des dirigeants politiques qui prennent quantité de décisions sans avoir la moindre idée – en réalité – de leurs conséquences, et de ce qui va en découler. O. Morgenstern avait d’ailleurs échangé avec eux via le défunt Cercle de Vienne et il a apporté cette approche très épistémologique concernant les limitations des sources d’informations externes aux acteurs et le bien fondé de leurs décisions. On est ici devant un excellent exemple de ce que l’on entends par « Complexité » en Systémique
  • la rationalité limitée (intrinsèquement) étudiée par H.A. Simon dans « Sciences des systèmes. Sciences de l’artificiel », et « A Behavioral Model of Rational Choice » (1955) où la raison de l’individu est insuffisante et commet des erreurs : c'est la rationalité limitée endogène.
    En effet, encore faut-il que les joueurs soient un tant soit peu rationnels pour prendre donc en compte l’habilité, la rationalité ou l’intelligence des autres joueurs. Et pire encore, cela suppose également que chaque joueur puisse estimer correctement le degré de rationalité de chacun des autres..Cette limitation est liée au fait que la Variété requise d’un centre de pilotage quelconque d’un sous-système au sein d’un système plus vaste, est inférieure à la valeur nécessaire (requise) pour parvenir à dominer ce sous-système piloté. En clair le pilote doit être plus « fort » au sens de Gödel que le piloté. H.A. Simon parle de rationalité cognitive limitée, en bref, le système de pilotage n'a pas les capacités de traitements computationnelles, en clair il n'est pas assez intelligent, raide, et efficace, pour pouvoir comprendre toutes les informations qui lui remontent et prendre les bonnes décisions dans les temps impartis.
Cette situation est très courante dans les grandes entreprises où un manager ne disposant pas des informations globales concernant la situation et la stratégie de son entreprise, sera réduit à utiliser celles disponibles, visibles, accessibles dans son horizon (exogène), et prendra des décisions qui lui sembleront optimales et rationnelles... sans avoir pour autant les compétences ou les connaissances pour comprendre ce qu'il faut faire (endogène) . Celles-ci pourront certes sembler bonnes à son niveau, voire correctes à court terme. Par exemple, ce manager donnera la priorité aux tâches demandant le moins de ressources, les plus rapides à exécuter à son niveau. Malencontreusement, ces tâches faites en priorité pourront ne pas correspondre à celles réellement prioritaires vues du pilote du système englobant, le patron de l’entreprise dans notre exemple. Le résultat final, si de nombreux managers sont dans le même cas, pourra aboutir à une entreprise, un système, en ébullition, désordonné, incapable de suivre une stratégie stable, de poursuivre un but identifiable, anarchique, et sera condamné à mort assez rapidement. Il va s'en dire que cela s'applique d'autant plus aux décideurs politiques à l'échelle d'un pays, à l'échelle d'un gouvernement ou d'élus locaux de collectivités locales un peu importantes. L'économie de nos pays étant devenue de plus en plus complexe, ces élus sont clairement dans un contexte de rationalité limitée.
Enfin, cette raison limitée ne s’applique pas qu’à des managers ou à des êtres humains. On peut retrouver par exemple la même limitation dans les phénomènes de rejet en médecine, lors de greffes. Le (sous-)système immunitaire d’un patient ayant eu une greffe va entrer en action en fonction des informations locales limitées disponibles, « interpréter » celles-ci comme une attaque microbienne externe qu’il faut éliminer, déclenchant le rejet du greffon, alors que le patient lui-même (ici le système global) souhaiterait naturellement voir réussir la greffe.
Remarque : il est facile de parier que la croyance en la possibilité d'un système de pilotage plus « fort » au sens de Gödel que le système piloté nous embarquerait immédiatement dans une régression à l'infini. C'est le célèbre adage : « s'il faut un État pour corriger les supposés excès des marchés (et qui va le décider et sur quelles bases ?) , qui alors va corriger les excès des États (guerres, lois scélérates, racismes d’États, camps de la mort, déficits, dettes,... ) ??  C'est pourquoi le chercheur, le citoyen, le politicien doivent considérer que de toutes manières, les systèmes de pilotage (ex : pilote d'avion, conducteur de véhicule, gouvernement, administration, dirigeant de toute entreprise) sont condamnés à être en situation de rationalité limitée  : c'est Aristote et Machiavel contre Platon et Rousseau, on y reviendra.

SUITE du Blog : Théories alliées à la systémique (1)
Benjamin de Mesnard

samedi 4 octobre 2008

II) Présentation détaillée de la Systémique (5/8)

II-4) Les caractéristiques d’un système :
II-4-1) Stationnarité- Stabilité:
a) Ouvert/Fermé :

Un système se trouve évoluer au milieu d’un environnement qui lui est extérieur. Entre le milieu intérieur du système et cet environnement, il peut se produire des échanges de matières, d’énergies ou d’informations sous diverses formes et sous divers volume ou intensité. Un système sera dit fermé s’il n’y a aucun échange avec son milieu (les Monades « à volets clos » de Leibniz). Un système sera dit ouvert s’il existe des échanges avec son environnement. C’est en fait le cas de tous systèmes dignes de ce nom, en effet un système fermé est soumis à la loi de l’entropie et se dégrade plus ou moins rapidement vers un désordre de plus en plus prononcé pour être amené à disparaître tôt ou tard.

b) État d’Équilibre :

État dans lequel les entrées et sorties d’un système sont constantes dans le temps. Remarque : seul un système fermé peut se trouver dans un état d’équilibre vrai. Un système ouvert pourra se trouver d’une manière transitoire en équilibre, on parle alors d’équilibre dynamique. Une toupie à l’arrêt sera en équilibre vrai – ou équilibre stable –, une toupie en rotation sera en équilibre dynamique. En fait, tout système ouvert ne pourra se trouver en équilibre dynamique que par le jeu de flux de matières, énergies ou informations entrant ou sortant en permanence.

c) Domaine de stabilité :

Si, avec d’autres entrées et sorties, l’état du système tend dans le temps vers un état d’équilibre on dit que le système est stable. Si ces conditions sont satisfaites seulement pour certaines valeurs initiales, on parle de domaine de sensibilité aux conditions initiales. La théorie montre que, dans ce cas, le système doit comporter au moins une boucle de rétroaction, il est régulé.
Remarque : si un système ouvert ne peut être en état d’équilibre, il peut cependant être stable pourvu que sa régulation soit suffisamment efficace pour le faire tendre vers cet état d’équilibre. Certains parlent alors d’équilibre dynamique (voir b ci-dessus).

d) Ergodicité :

Par extension, tous les processus systémiques devenant indépendants au cours du temps de l’état initial du système, sont qualifiés d’ergodique. De tels systèmes obéissent alors à une loi de développement primant sur l’état initial, où les entrées perturbatrices transitoires (du moins dans certaines limites) seront résorbées ou absorbées par le système qui réussira à revenir alors à son « régime » précédent. On parle ainsi de « domaine d’ergodicité » pour une certaine plage ou série d’états initiaux, ou de perturbations amenant malgré tout toujours au même état d’équilibre dynamique. D’autres états initiaux amenant une évolution différente par une loi de développement différente n’appartiennent plus alors à ce domaine d’ergodicité. Enfin, il faut citer la durée d’ergodicité, qui peut être en effet transitoire, ainsi que la vitesse de retour à la « norme » du système après une perturbation. Il faut aussi signaler qu’un système peut posséder plusieurs domaines d’ergodicité. Un exemple de domaine d’ergodicité peut être trouvé dans la croissance d’un jeune être vivant. Une maladie ralentira la croissance du jeune être vivant, mais les courbes de tailles et de poids repartirons après celle-ci jusqu’au rattrapage du retard pris. Le retard de croissance est ainsi compensé car la maladie, la perturbation, restait en somme à l’intérieur du « domaine d’ergodicité » du jeune. Si, par contre, la maladie est trop grave ou trop longue, le rattrapage après guérison ne sera que partiel, un retard permanent résiduel subsistant à l’âge adulte.
Exemple d’un système à 3 domaines d’ergodicité :
e) Variété (requise) :

Concept clé de la Systémique inventé par W. Ross Ashby, et qui va de paire avec l'homéostasie, équivalente à l'équifinalité de la systémique. La Variété requise d’un système est le nombre d’états différents que peut présenter ce système. Elle se mesure comme l’entropie et l’information, en nombre de bits. Soit N le nombre d’états possibles d’un système S, sa variété V est : Vs = log2 N. Ainsi un système présentant 100 états possibles aura une variété Vs = log2 100, soit V = 6,64. Plus le nombre d’états possibles augmente, plus la variété du système augmentera, donnant une mesure exacte de l’information contenue dans celui-ci. Au contraire, plus l’entropie augmente, plus l’information diminue, et plus le nombre d’états possibles pour le système diminuera et, avec, la variété du système. La caractéristique de variété d’un système fourni un véritable outil de mesure de la complexité de celui-ci.
A. Kolmogorov a introduit une mesure de la complexité d’un système en mesurant celle de sa plus courte description. Introduite par l’informatique ceci revient à mesurer la longueur du programme capable de générer le système étudié, c’est à dire le nombre de bits de ce programme. La mesure de la complexité d’un système s sera notée K(s). Ces propriétés ont permis d’écrire les programmes de compression de données en informatique. La plupart des informations enregistrées présentent des redondances ou des répétitions, autrement dit la valeur K(s) des programmes les décrivant est nettement plus faible que leur longueur brute. Ainsi lorsqu’on écrit « cent 0 » cela est plus court à écrire que l’écriture brute de cent fois le chiffre « 0 » et cela sans perte de sens, d’information. Dans la pratique le calcul de K(s) est le plus souvent approximatif et, dans certain cas, impossible, notamment pour les systèmes très complexes, et donc où K(s) est très élevé. Léonid Levin a complété A. Kolmogorov par la mesure m(s) de la probabilité d’occurrence d’un système (programme) en fonction de K(s). L. Levin a montré que plus K(s) est élevé, plus la probabilité m(s) de trouver le système correspondant est faible. Ceci est conforme à l’intuition : les systèmes simples sont plus nombreux que les systèmes complexes. L. Levin explique par effet de bord l’attirance pour les approches réductionnistes : la puissance de l’esprit humain étant limitée, nous tentons de découper les systèmes complexes en plus petits systèmes plus probables, avec un K(s) plus faible, afin de pouvoir les comprendre. Elle justifie par ailleurs longtemps après G. d’Occam, son fameux rasoir : le rasoir d’Occam. Entre deux hypothèses, l’une complexe et l’autre moins, le rasoir d’Occam choisi celle la plus simple. Cette approche empirique, pragmatique, peut se justifier car l’hypothèse la moins complexe, donc avec un K(s) plus faible, présentera une probabilité m(s) plus élevée. Cela ne permet en rien de d’assurer la justesse de celle-ci, mais en l’étudiant en priorité le chercheur tend à accélérer ses travaux car c’est elle qui, statistiquement, sera la plus probable. On ici en quelque sorte sur une version faible du cartésianisme, considéré comme simple outils, étape du travail du scientifique, outils qu’il peut choisir d’utiliser ou non, mais non référence absolue de ce scientifique : c’est l’utilisation de la réduction comme outils, sans être réductionniste.

f) Régulation :

Assurée par les rétroactions qui ont lieu à l’intérieur du système ainsi qu’entre celui-ci et l’extérieur, l’environnement (concept très important, souvent incompris en économie). La régulation exprime quelque fois un pilotage du système par un autre système appelé système pilote, en fonction d’un but prédéfini comme on l’observe dans des systèmes artificiels intentionnels ou encore naturels. Exemple : régulation de la température du corps en fonction du but qui consiste à éviter de dépasser une plage de températures fatales à l’organisme. Cette régulation est alors ergodique. La constatation d’une régulation amène au débat sur la finalité du système, débat qui ne pose aucun problème pour les systèmes artificiels intentionnels (machines), mais qui fait problème pour beaucoup de scientifiques quand il s’agit des systèmes in-intentionnels (non intentionnels) naturels comme les êtres vivants, ou artificiels comme l'économie.
 Une précision sur laquelle nous reviendrons : on voit souvent des débats et oppositions violents en économie et en politique entre régulation et auto-régulation, le premier soutenu plutôt par des positions dites de gauche ou de droite (socialistes, marxistes ou toutes politiques dites « interventionnistes »), et le deuxième par des positions dites libérales ou encore anarchistes. On comprend l'origine de ces débats : un système, naturel ou artificiel, doit être régulé d'une manière ou d'une autre, sinon il courre à sa disparition pure et simple. Il doit donc être muni d'un systèmes de pilotages (central, et poussé à l'extrême le centralisme marxiste) ou de plusieurs répartis (décentralisation, subsidiarité) ou encore vu comme auto-régulé. Ces débats entre auto-régulation ou non vient donc de positions idéologiques très théoriques créées par la non-compréhension de ce besoin impératif de pilotage, et de la manière qu'il a de se réaliser. Si on croit que la régulation ne peut se faire que par un système de niveau supérieur, c’est l’approche transcendante ; ou bien si on pense qu'elle pourra être réalisée de l'intérieur et par le système lui-même, on parlera alors d’auto-régulation, c’est l’approche immanente, question centrale de la Systémique, on y reviendra.

A ce stade, il y a deux manière d'aborder la question : simple étude d'un système ou volonté d'action sur un système :
1. Étude : comme un chercheur étudiant un système, ce qui prime alors est la nécessité de prendre conscience qu'il y a une phase de découpe arbitraire (et à risques) du système à étudier, et aussi savoir quel est le point de vue adopté par le chercheur dans la modélisation qu'il construira.. Selon que l'on mettra ou non le (ou les) système(s) de pilotage(s) dans ou en dehors du système étudié, il sera alors de facto vu comme auto-régulé, ou bien régulé de l'extérieur. Mais il faut bien comprendre ici que l'on est plutôt face à une artefact de l'approche adoptée plutôt que face à un vrai débat. Ce sera le cas par exemple de la biologie ou de la médecine, où tous ces systèmes sont bien évidemment vus comme auto-régulés aux yeux du biologiste ou du médecin... par définition externe à l'organisme vivant étudié.
2. Action : trois cas possibles avec un médecin, un ingénieur ou un dirigeant politique. Un médecin ne pourra au mieux que tenter d'influencer un système à l'évidence auto-régulé, il n'y aura aucun débat sur ce point. Un ingénieur devra prendre des décisions sur la manière de piloter la machine, le système artificiel qu'il est en train de concevoir. Il pourra répartir ces fonctions de pilotage dans plusieurs systèmes, ou le centraliser. Mais il pourra toujours tester les résultats et choisir « tranquillement » celui qui lui semble le plus efficace, et ce sans l'intervention d'aucune idéologie. Un dirigeant politique par contre se trouve devant une société ou une économie, systèmes artificiels certes, mais non créés intentionnellement, non « délibérément construits », comme les voitures ou avions, de l'ingénieur. La tentation est alors grande (au risque d'être accusé d'inaction !) de considérer ces systèmes comme artificiels à la mode des machines conçues par un ingénieur, le débat s'emballe vite et se perd dans les idéologies. C'est la tentation dite planiste et scientiste par F. Hayek, c'est « La Présomption Fatale » [HAYEK F., 1988]. A cet égard, et comme souvent dans cet essai, n'oublions pas les préceptes de prudence et de juste milieu de J.B. Vico, et en gardant à l'esprit les phénomènes de rationalité limitée de H.A. Simon : la nature et les systèmes artificiels inintentionnels comme les société ou l'économie sont hyper-complexe, beaucoup plus que ce que nous imaginons, et nos esprits et moyens de connaissances limités. Nous y reviendrons.

g) Équifinalité ( ou homéostasie)

Avec l’ergodicité, nous avons vu qu’un système ouvert peut atteindre un certain état stationnaire, car alors le système ne variant plus, peut sembler indifférent au temps, et cela quel que soit l’état de départ et le chemin suivi pour y parvenir (dans le domaine d’ergodicité). Il est démontré, par contre, qu’un système fermé ne peut remplir ces conditions d’ergodicité, la deuxième loi de la thermodynamique s’appliquant alors, le système se désagrège continûment vers une entropie (désordre) maximale, équilibre véritable mais non état stationnaire. Une image de cet état d’équilibre sur entropie maximum est chez un être vivant la mort, état qui n’a rien n’à voir avec l’état ergodique dynamique de ce même être lorsqu’il était vivant. L. Von Bertalanffy [BERTALANFY, 1955, p76] et J. Eugène [EUGENE, Jacques, 1981, p67] qualifient d’équifinalité ce phénomène. Le seul cas où une finalité est admise clairement est celui de systèmes artificiels intentionnels (machines de main d’homme). Il s’avère qu’il est possible de donner une définition physique d’un sujet qui est considéré par les cartésiano-positivistes comme relevant du finalisme métaphysique ou preuve du vitalisme comme on disait au XIX° siècle. On peut citer par exemple “ l’entéléchie ”, sorte de démon (un peu comme celui de Maxwell) qui s’arrangeait pour que l’être étudié retrouve un état final prédestiné. Autre exemple, l’Essence de l’œuf est de devenir poule, explication n’expliquant rien en réalité puisque simplement tautologique. En effet dire que le propre (l’essence) de la pierre est d’aller vers le bas n’explique ni le pourquoi de la chute ni la loi suivie par celle-ci, ni même n’apporte le moindre éclaircissement sur le sujet puisque la même pierre ne tombera plus lorsqu’elle se trouvera dans un autre environnement (en état d’apesanteur dans un vaisseau spatial par exemple). Par contre, comme on le verra plus tard, le concept d’Essence manié avec prudence et rigueur peut être recadré et réutilisé par la Systémique. Enfin le concept de finalité –même pour les systèmes naturels ou les êtres vivants- peut (doit ?) être intégré clairement pour la Systémique, (voir Constructivisme épistémologique en (III-2-13)) dans une optique nommée projective : le système naturel démontrant une ergodicité peut être pensé comme poursuivant un projet. Cette approche est projective pour le Constructivisme, et revient à accepter délibérément le caractère finaliste de cet être vivant. A nouveau la Systémique rejoint Aristote sur ce point. La finalité du système est alors étudiée en tant que telle, sans fard et sans complexe positiviste, quitte à considérer cette approche comme juste un outil utile et pratique. Pour être complet, il faut préciser ici qu’il existe deux sortes de Constructivismes (qui complètent la Systémique) :
· l’ontologique qui voit des systèmes finalisés poursuivant des projets dans la nature, et
· le modélisateur qui ne voit ces systèmes finalisés projectifs que dans les modèles construits par le chercheur, sans préjuger de leur existence dans la nature, le réel. Dans ce cas tout ce qui a été dit ci-dessus doit être décliné sur les modèles construits à propos de l’objet naturel étudié.

Remarque :
Equifinalité et ergodicité sont liés, comme l’explicite H. Zwirn : « Quels que soient les moyens théoriques et techniques dont on disposera, quel que soit le temps qu’on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable de nos prédictions. […] Le phénomène de sensibilité aux conditions initiales nous dit que l’erreur initiale s’amplifie exponentiellement avec le temps. Il en résulte que plus les prédictions qu’on souhaite obtenir sont lointaines, plus il est nécessaire d’augmenter la précision avec laquelle on se donne les conditions initiales. » (H. Zwirn, « Les limites de la connaissance », Ed. Odile Jacob). D’un côté il y a un horizon de la prédiction, contrairement à ce que pensait Laplace. De l’autre côté, la croyance qu’en augmentant indéfiniment et jusqu’à son extrême la précision de la mesure, on augmente proportionnellement l’horizon de la prévision est inexacte dans la mesure où :
  • d’une part on se heurte –avant même d'atteindre les niveaux de l’incertitude quantique- au bruit ambiant de la mesure, à la précision de l’instrument de mesure, et à la possibilité de reproduire à l’identique deux fois les mêmes conditions de départ (du moins avec la même précision).
  • d’autre part cela revient à ignorer précisément les phénomènes d’équifinalités, où s’il on peut dire, il est possible de prendre le problème par l’autre bout en renonçant à améliorer la précision des conditions de départ. Au contraire, il suffit alors de prendre en considération les plages d’équilibres dynamiques ponctués « finales » du système (ses différentes équifinalités), pour remonter à leurs domaines d’ergodicités correspondantes aux conditions de départs. C’est ce que l’on appelle les attracteurs étranges, où pour certains domaines d’ergodicité des conditions de départ on arrive à certains domaines d’équilibres finaux « comme si » ceux attiraient ceux-là. A un certain nombre de domaines d’ergodicités, correspond certains domaines d’équilibres en équifinalité. Inversement en remontant depuis un domaine d’équifinalité particulier (un domaine de stabilisation du système au bout d’un certain temps) on peut remonter à un certain nombre de domaines de conditions initiales correspondantes dites ergodiques.
SUITE du Blog :  Les caractéristiques d'un système (2)
Benjamin de Mesnard