vendredi 31 octobre 2008

II) Présentation détaillée de la Systémique (8/8)

II-5-5) Conséquences des propriétés des systèmes : Niveaux du réel et articulation de ces niveaux :

a) Structuration en niveaux du réel :

La conséquence principale des trois propriétés citées est de permettre d’expliquer la structuration en niveaux du réel et l’articulation de ces niveaux. Chaque niveau, s’appuie donc sur le niveau inférieur. Il supporte et a besoin (au sens de Gödel) du niveau supérieur pour « s’expliquer » au plan de sa finalité, intentionnalité ou téléonomie selon le débat. A nouveau cependant (méfions-nous des simplifications trop cartésiennes !), la plupart des systèmes ne présentent pas des niveaux stratifiés clairement en couches successives, mais plutôt des enchevêtrements d’inter-relations complexes entre sous-systèmes…
Le réel est ainsi plus complexe encore qu'une gigantesque poupée russe, fait d’une succession d’un nombre inconnu de niveaux de « réalités ». « Réalités » est mis ici intentionnellement entre guillemets car c’est bien de cela qu’il s’agit. Car lorsque vient l’étude de ces niveaux de réalités par les sciences, on assiste bien entre deux niveaux trop distants à l’établissement par les scientifiques qui les étudient de lois complètements différentes et indépendantes. Un exemple : les lois de la physique d’Einstein par rapport aux lois du « monde » de la finance. Il s’agit bien de niveaux authentiques de réalités -bien réels-, mais tellement distants, qu’ils n’ont plus rien à voir entre eux et sont (presque) totalement indépendants.
On observe le même phénomène entre Théorie de la Relativité et Théorie Quantique, ces deux théories sont en opposition car opérant à deux niveaux séparés du réel. Pour les réunir, il faudrait avoir recours à l’étude d’un système formel de niveau supérieur (voir ci-dessus), plus englobant, plus fort (au sens strict de Gödel).

Leibniz a construit un modèle à deux mondes, deux niveaux :
1° niveau : le premier niveau est constitué des « replis » de la matière vue comme « composé à l’infini », complexe, dirait-on de nos jours.,
2° niveau : le second est constitué des « replis » de l’âme, vue comme « simple ».

K. Boulding a imaginé 8 niveaux découpés dans le réel :
1° niveau : objets élémentaires de la physique (atomes, …),
2° niveau : structures dynamiques naturelles ou artificielles, domaine de la mécanique,
3° niveau : systèmes artificiels, domaine de la cybernétique,
4° niveau : la cellule vivante, domaine de la biologie,
5° niveau : la plante,
6° niveau : l’animal,
7° niveau : l’homme,
8° niveau : la « socio-culture ».

Mais K. Popper en a imaginé trois :
1° niveau : les objets physiques, matériels,.............................) similaires aux deux mondes
2° niveau : les expériences subjectives ou états mentaux......) de Leibniz donnés ci-dessus
3° niveau : les productions de l’esprit humain vraies ou fausses à la différence du monde des Idées de Platon.

De même L. von Bertalanffy : « (…) on peut en gros trouver trois domaines ou niveaux principaux dans l’observation du monde : la nature inanimée, les systèmes vivants et l’univers symbolique, chacun ayant ses lois immanentes caractéristiques. [Robots, Men and Minds, New York, Braziller, 1967, p 30].
 
L’ISO a normalisé 7 couches dans le domaine des réseaux informatiques :
1° couche : physique, codage électrique ou optique au niveau du bit d’information.
2° couche : couche trame, des trames de bits sont constituées en transmission entre deux points.
3° couche : paquets, ces trames contiennent des paquets d’informations que l’on peut commuter de commutateurs en commutateurs pour les acheminer, en assurant leur routage, entre deux utilisateurs sur le réseau.
4° couche : transport, cette couche assure le transport de bout en bout des échanges entre les deux utilisateurs du réseau d’une manière transparente, indépendante des routes utilisées par la couche paquet.
5° couche : session, une session de communication identifiable en tant que telle est crée entre ces deux utilisateurs, ce qui permet de faire des points de reprise de session en cas d’interruption de celle-ci.
6° couche : présentation, cette couche assure la présentation –sur un écran par exemple- des informations dans un format directement compréhensible par l’application.
7° couche : application, on arrive enfin à l’application informatique elle-même ou encore à l’utilisateur final derrière son poste de travail.

La Systémique a défini un modèle archétype de l’articulation d’un système en neuf niveaux :
1er niveau : le phénomène est identifiable
2ème niveau : le phénomène est actif : il « fait »
3ème niveau : le phénomène est régulé
4ème niveau : le phénomène s'informe sur son propre comportement
5ème niveau : le système décide de son comportement
6ème niveau : le système mémorise
7ème niveau : le système coordonne ses décisions d'action
8ème niveau : le système imagine et conçoit de nouvelles décisions possibles
9ème niveau : le système se finalise.
A noter : à partir du 5° niveau on passe de l’appellation « phénomène » à celle de « système », les niveau inférieur ne méritant pas en effet la dénomination de système au sens propre du terme de la systémique.
Tous ces découpages pouvant se discuter et critiquer à loisir, mais chacun se rejoignant sur l’idée d’un réel ordonné et hiérarchique. Ces découpages sont à prendre avec précautions, comme ils doivent l’être, c’est à dire comme des outils de pensée, des modèles, avec leurs limites et leurs dangers d’enfermements caricaturaux. En effet la nature -comme on vient de le voir- présentant souvent des niveaux en réseaux, voir multi-hiérarchiques et enchevêtrés.

b) Effets de bords et effets pervers :

L’une des conséquences des propriétés des systèmes s’exprime sous le nom d’effets de bord ou encore d’effets pervers. Un système artificiel, dès lors qu’il s’imbrique dans un système de niveau supérieur -à côté d’autres systèmes du même niveau – ou lorsqu’il est mis en réseau, peut influencer d’une manière imprévue les autres systèmes. Ces influences peuvent être qualifiées de simples effets de bord lorsqu’ils sont jugés gérables et prévisibles. Ils peuvent être qualifiés d’effets pervers, lorsqu’ils sont imprévus, agissant sur un périmètre mal contrôlé, ou encore issus d’une boucle rétroactive inattendue. En effet, surtout pour les systèmes artificiels de grande taille, il est important de prévoir ces effets de bord. Ces effets de bords sont à l’origine de la complexité de toutes les tâches ou activités d’intégration au sens large du terme. Ainsi des sous-systèmes fonctionnant parfaitement séparément, peuvent aboutir à un système aux comportements aberrants, incompréhensibles, une fois les sous-systèmes intégrés. De même un système naturel qui semble simple à appréhender lorsqu’il est étudié en pièces, éléments ou sous-systèmes séparés, acquiert un comportement incompréhensible, voir mystérieux à l’état naturel, c’est à dire intégré. Par exemple, c’est le cas d’un cerveau, chaque neurone étant (semble-t-il!) compréhensible, mais personne ne parvenant à véritablement comprendre le fonctionnement du cerveau complet à l’état vivant.

c) Destruction créatrice versus Création destructrice

La Destruction créatrice chère à J. Schumpeter [SCHUMPETER, Joseph, 1942], ou « Vivre de mort, mourir de vie » (Héraclite cité par E. Morin dans La Méthode I) :
Une autre conséquence importante des propriétés d’un système est que celui-ci ne peut souvent se maintenir en équilibre dynamique qu’au prix d’une construction ou production permanente de briques, éléments, ou sous-systèmes nouveaux pour compenser le vieillissement de ceux existants. Cela paraît relativement évident lorsque l’on observe n’importe quel être vivant. Mais le plus étonnant, et qui a été (re)découvert après Héraclite récemment, est que les systèmes ont aussi souvent besoin d’auto détruire des briques, éléments ou des sous-systèmes internes pour maintenir leurs équilibres dynamiques. Cette destruction, bien que paradoxale, est nécessaire à la survie soit en vue d’éliminer un sous-système peu ou plus adapté à l’environnement ou aux besoins du système, soit pour éliminer plus rapidement un sous-système en cours de vieillissement mais non encore mort par lui-même. Il enfin possible de voir un sous-système se faire éliminer après avoir servit à construire un ou plusieurs autres sous-systèmes, comme un échafaudage ou une machine-outil peuvent être enlevés après avoir soutenu la construction d’un bâtiment ou servi à la fabrication d’une automobile. Cette destruction/ construction est un exemple typique d’approche dialogique nécessaire en systémique, différente des approches dialectiques, et inconnue des approches cartésiennes, nous y reviendrons.

d) Référentiel relatif

Une dernière conséquence des propriétés des systèmes et de faire appel à ce que l’on pourrait appeler d’une manière générale un référentiel relatif. En effet, tous ces aspects multi-niveaux emboîtés hiérarchisés ou non, d’émergences, d’équifinalité, d’Eco-Auto-Re-Organisation des systèmes loin de l’équilibre, de dynamique, de variété, d'ergodicité, ou enfin de modèles jetables (réfutables !) découpés plus ou moins pertinemment dans le réel montre combien nous nous trouvons alors dans un référentiel très relatif et pour le moins instable.
Comme on le verra plus loin, il nous faut donc abandonner –ô combien cela est déchirant !- beaucoup de constructions :
· le référentiel absolu cher à Platon (Idées Immuables) ;
· Descartes (la Tabula rasa et son « je pense » en point fixe) ;
· A. Comte (Sciences dures références absolues se passant de la métaphysique) ;
· les religions ou idéologies millénaristes que sont les différents monothéismes ou Marx avec un paradis terrestre en finalité certaine de l’Histoire (on y reviendra) ;
· et la rassurante dialectique idéaliste ou matérialiste binaire prétendant que l’opposition binaire de deux absolus (thèse/antithèse) nous permet de faire le tour complet d’une question/système ;
Et bien d’autres, si confortables et rassurantes. Il nous faut alors aborder les incertaines constructions sur pilotis s’enfonçant dans les sables mouvants de K. Popper mais aussi de Kant, ou encore la connaissance de la connaissance d’E. Morin.
Attention cependant, il ne faut pas pour autant classer la Systémique et -le Constructivisme épistémologique- dans la catégorie des épistémologies relativistes. Si la Systémique a intégré le fait que l'on doit travailler sur des référentiels instables, « jetables », ou temporaires, elle n'est pas pour autant ce que l'on appelle relativiste en opposition à l'absolutisme. Nous reviendrons sur cette question au chapitre V.

e) Information limitée versus raison limitée ou rationalisme limité (« bounded rationality »)

C’est dans l'idée de la Variété requise d’un système de pilotage qu’apparaît le concept de « raison limitée », « rationalité limitée » ou encore « d’horizon de connaissance ».
Sous cette terminologie se confondent souvent deux choses différentes :
  • l’information limitée sur laquelle s’exerce une rationalité efficace qui correspond au phénomène d’horizon de connaissance : c'est la rationalité limitée exogène : c’est l’impossibilité d’avoir connaissance de toutes les informations venant de l’environnement, de l’extérieur. Voire même d’avoir des informations fausses ou de croire en des choses erronées. Cela a été étudié en théorie des jeux, en particulier par :
    - J. Nash dans son mémoire : « Non-cooperative games. » (The Annals of Mathematics, 1951, 54(2):286–96).Avec sa théorie des équilibres en théorie des jeux.
  • - Oskar Morgenstern avec un exemple tiré de Conan Doyle où Sherlock Holmes croyant que Moriarty l’a vu sur le quai du train à la gare de Londres se demande s’il doit descendre au seul arrêt intermédiera de Canterbury ou bien aller jusqu’au terminus de Douvre pour lui échapper. Il ne cesse de changer d’avis car s’il décide de descendre à Canterbury pour tromper Moriarty, il se dit que celui-ci va s’en douter et y descendre aussi. Donc, il va descendre plutôt à Douvre mais craint Morairty ne fasse ce même raisonnement, etc. jusqu’à la régression à l’infini.
    - J. Von Neumann qui est le plus cité comme père de la Théorie des Jeux. Il a travaillé avec O. Morgenstern pour sortir ensemble le livre de référence : « Theory of Games and Economic Behavior » en 1944.
    Certains acteurs au cours d’un jeu mettant en relation plusieurs acteurs, pourront poursuivre une stratégie en fonction des informations limitées en leur possession, de ce qu’ils perçoivent des décisions supposées des autres joueurs. Les décisions prises par chaque joueur leurs sembleront donc bonne, croyant optimiser efficacement et rationnellement leur espérance de gain, en fonction de ce qu'ils savent (je sais que tu sais peut-être que je sais peut-être...). C’est ainsi par exemple que Sherlock Holmes sachant que Moriarty est intelligent, va finalement décider de tirer au sort entre les deux gares pour mieux empêcher celui-ci de mener ses supputations efficacement et avoir au minimum 50 % de chance d’échapper à Moriarty. Un observateur externe omniscient, ayant la possibilité de voir tous les joueurs simultanément et ayant une parfaite connaissance globale de leurs jeux respectifs, comprendra que ces joueurs ne prennent pas les bonnes décisions et vont à leur perte. Le problème bien entendu est que les scientifiques étudiant ainsi ces joueurs ne sont pas ce « Dieu » externe pouvant tout voir. C’est par exemple le problème des économistes qui, même après coup, presque un siècle après la crise de 1929, ne parviennent pas à avoir la totalité des informations en main sur les décisions prises par les nombreux acteurs de l’époque. Ils ne parviennent donc pas être d’accord entre eux et échafaudent alors des théories différentes voire opposées. Cela rejoins la thèse de K. Popper et F. Hayek, sur le Constructivisme social des dirigeants politiques qui prennent quantité de décisions sans avoir la moindre idée – en réalité – de leurs conséquences, et de ce qui va en découler. O. Morgenstern avait d’ailleurs échangé avec eux via le défunt Cercle de Vienne et il a apporté cette approche très épistémologique concernant les limitations des sources d’informations externes aux acteurs et le bien fondé de leurs décisions. On est ici devant un excellent exemple de ce que l’on entends par « Complexité » en Systémique
  • la rationalité limitée (intrinsèquement) étudiée par H.A. Simon dans « Sciences des systèmes. Sciences de l’artificiel », et « A Behavioral Model of Rational Choice » (1955) où la raison de l’individu est insuffisante et commet des erreurs : c'est la rationalité limitée endogène.
    En effet, encore faut-il que les joueurs soient un tant soit peu rationnels pour prendre donc en compte l’habilité, la rationalité ou l’intelligence des autres joueurs. Et pire encore, cela suppose également que chaque joueur puisse estimer correctement le degré de rationalité de chacun des autres..Cette limitation est liée au fait que la Variété requise d’un centre de pilotage quelconque d’un sous-système au sein d’un système plus vaste, est inférieure à la valeur nécessaire (requise) pour parvenir à dominer ce sous-système piloté. En clair le pilote doit être plus « fort » au sens de Gödel que le piloté. H.A. Simon parle de rationalité cognitive limitée, en bref, le système de pilotage n'a pas les capacités de traitements computationnelles, en clair il n'est pas assez intelligent, raide, et efficace, pour pouvoir comprendre toutes les informations qui lui remontent et prendre les bonnes décisions dans les temps impartis.
Cette situation est très courante dans les grandes entreprises où un manager ne disposant pas des informations globales concernant la situation et la stratégie de son entreprise, sera réduit à utiliser celles disponibles, visibles, accessibles dans son horizon (exogène), et prendra des décisions qui lui sembleront optimales et rationnelles... sans avoir pour autant les compétences ou les connaissances pour comprendre ce qu'il faut faire (endogène) . Celles-ci pourront certes sembler bonnes à son niveau, voire correctes à court terme. Par exemple, ce manager donnera la priorité aux tâches demandant le moins de ressources, les plus rapides à exécuter à son niveau. Malencontreusement, ces tâches faites en priorité pourront ne pas correspondre à celles réellement prioritaires vues du pilote du système englobant, le patron de l’entreprise dans notre exemple. Le résultat final, si de nombreux managers sont dans le même cas, pourra aboutir à une entreprise, un système, en ébullition, désordonné, incapable de suivre une stratégie stable, de poursuivre un but identifiable, anarchique, et sera condamné à mort assez rapidement. Il va s'en dire que cela s'applique d'autant plus aux décideurs politiques à l'échelle d'un pays, à l'échelle d'un gouvernement ou d'élus locaux de collectivités locales un peu importantes. L'économie de nos pays étant devenue de plus en plus complexe, ces élus sont clairement dans un contexte de rationalité limitée.
Enfin, cette raison limitée ne s’applique pas qu’à des managers ou à des êtres humains. On peut retrouver par exemple la même limitation dans les phénomènes de rejet en médecine, lors de greffes. Le (sous-)système immunitaire d’un patient ayant eu une greffe va entrer en action en fonction des informations locales limitées disponibles, « interpréter » celles-ci comme une attaque microbienne externe qu’il faut éliminer, déclenchant le rejet du greffon, alors que le patient lui-même (ici le système global) souhaiterait naturellement voir réussir la greffe.
Remarque : il est facile de parier que la croyance en la possibilité d'un système de pilotage plus « fort » au sens de Gödel que le système piloté nous embarquerait immédiatement dans une régression à l'infini. C'est le célèbre adage : « s'il faut un État pour corriger les supposés excès des marchés (et qui va le décider et sur quelles bases ?) , qui alors va corriger les excès des États (guerres, lois scélérates, racismes d’États, camps de la mort, déficits, dettes,... ) ??  C'est pourquoi le chercheur, le citoyen, le politicien doivent considérer que de toutes manières, les systèmes de pilotage (ex : pilote d'avion, conducteur de véhicule, gouvernement, administration, dirigeant de toute entreprise) sont condamnés à être en situation de rationalité limitée  : c'est Aristote et Machiavel contre Platon et Rousseau, on y reviendra.

SUITE du Blog : Théories alliées à la systémique (1)
Benjamin de Mesnard

dimanche 26 octobre 2008

II) Présentation détaillée de la Systémique (7/8)

II-5) Les propriétés d’un système :
II-5-1) Émergence

Le principe d’émergence est au centre du discours systémique. La Systémique soutien, en opposition avec Descartes et le réductionnisme, que quelque chose de neuf, de nouveau, de supplémentaire émerge de l’organisation, des relations, de la structure, qui relient entre eux les différents composants (sous-systèmes) constituant le système étudié. Ce « quelque chose » n’est pas prévisible, calculable, intrinsèque, suite à une étude (analyse) des composants du système. Il ne faut pas confondre ici deux choses : l’émergence, telle que décrite ici, et le résultat « prévisible » (plus ou moins facilement) d’en groupe de composants. Ainsi, le comportement d’un être humain n’est pas déductible des organes le composants (foie, viscères,...), il est donc émergeant. Par contre, il est d’usage de prendre comme exemple de comportement non-émergent un tas de sable donné comme « calculable », disons prévisible (bien que fort complexe en réalité !), à partir des qualités intrinsèques des grains de sables (mouillés, ronds, pente du tas de sable, etc.…). C’est pourquoi l’image d’un « tas » revient souvent en opposition à celui d’un système : les grains d’un tas de sable sont faiblement reliés, en inter-actions entre eux, ils ne constituent pas un système.
Dans le cas d'un tas de sable, cela ne signifie pas que ces « prévisions » ou « calculs » sont faciles et simples, bien sûr, car ils peuvent demander de grandes puissances de calculs mais, un algorithme existe (du moins en théorie…) qui permet de prévoir ce comportement. On n’est pas alors en face d’un système mais plutôt « d’un tas ». La différence entre ces deux cas tient à la densité des inter-relations. Ainsi le tas de sable n’est composé, que de grains quasi identiques entre eux, en inter-relations faibles (les frottements entre les grains), deux grains éloignés n’étant pas reliés. A l'inverse, tous les organes d’un être humains, mêmes éloignés, sont en interrelation très étroitement.
Enfin, cette non-prévisibilité, cette impossibilité de calculer, n’as rien à voir avec le principe d’Heisenberg de la Théorie Quantique. Ainsi, nous sommes au cœur du concept, au centre du principe même de l’émergence en théorie des systèmes et le refuser revient à démontrer une incompréhension profonde de l’idée d’émergence. Même en considérant que chaque élément du système serait le plus simple possible, en allant jusqu’à le décomposer en « atomes » (monades !) non quantiques, on peut fort bien tomber sur des systèmes non calculables et non prévisibles du fait de leurs richesses et de leurs complexités d’inter-relations. Un bon exemple, travaillé par Poincaré, est le problème des trois corps tournants les uns autour des autres dans l'espace en gravité newtonienne (inutile d’avoir recours à Einstein...). Même si -par exercice de pensée mathématique- on part du principe que ces trois corps sont des points mathématiques que l’on peut situer (position et vitesse) aussi précisément que demandé, leurs trajectoires au bout d’un certain temps deviendront imprévisibles. Ce temps est d’ailleurs un paramètre enregistrable du système, dépendant directement du degré de précision des positions initiales mesurées. Plus la précision des positions et vitesses initiales sera précise, plus ce temps « d’horizon de la prédiction » s’allongera, mais il existera toujours. Seule une mesure infiniment précise des positions initiales pourrait -en théorie- faire reporter ce temps d’horizon de la prédiction à l’infini également.
Ce qui est intéressant de noter ici, c’est que l’on retrouve une sorte de principe d’incertitude d’Heisenberg, par un fait que l’on pourrait qualifier de loi de la nature des systèmes mêmes.
On retombe ici sur l’apparition du chaos, des « attracteurs étranges » et des fractals, dans un système. On retrouve aussi naturellement l’apparition de la flèche du temps sans avoir besoin d’avoir recours au petit diable de Laplace.
Parmi les spécialistes travaillant sur le concept d’émergence, certains défendent l’émergence comme étant substantielle, d’autres non, défendant alors l'émergence comme étant accidentelle en s’opposant quelque fois durement. Il est à noter que les tenants de l’émergence substantielle –qualifiée d’ailleurs alors de substance émergente- peuvent être assimilés à la Systémique comme le fait I. Prigogine décrivant l’émergence de structures, les cellules de convection de Bénard, dans un liquide soumis à un gradient de température, voir (II-5-2). Ceci est erroné car on peut accepter le fait qu’il y a bien deux types d’émergences : substantielle et accidentelle. On retrouve alors fidèlement les qualités aristotélicienne de substance et d’accident, aucun argument ne permettant de rejeter à priori l’émergence accidentelle comme non authentique, ou inacceptable aux yeux de la Systémique. Ce débat peut être utilement clarifié encore une fois par l'idée de mouvement lent (substantiel) versus mouvement rapide (accidentel) de F. Hayek montrant bien le flou de la dichotomie -typiquement cartésienne !- ainsi décrétée et par là même les limites de ce débat. Nous reviendrons sur ce débat en (III-2-1). 
Enfin il faut distinguer deux conceptions de l’émergence. Ces deux conceptions sont déterminantes dans le débat sciences de la nature versus « sciences » humaines, on y reviendra. Je cite : «  La première, que j’appellerai « émergentisme épistémologique », pose les thèses complémentaires suivantes : (2) les caractéristiques d’une entité, y compris constitutives, sont toujours dérivables en principe de celles de ses parties et de leurs relations (externes et internes) ; (3) dans le cas général, le manque de connaissance exhaustive des relations internes et des propriétés relationnelles des parties impose d’admettre au moins provisoirement des traits émergents, non réductibles, ainsi que des niveaux de réalité correspondants, dans une perspective heuristique et en vue d’obtenir une connaissance significative de nature holistique ; (4) chaque science référant à un niveau de réalité distingué doit au moins provisoirement développer ses propres termes, concepts et lois, ne serait-ce qu’afin de fournir les connaissances de type holistique nécessaires à l’actualisation de (2). Une autre variante, que j’appellerai « émergentisme métaphysique », pose des thèses plus radicales : (2’) à supposer que l’on connaisse toutes les propriétés des parties d’une entité et toutes leurs relations, on ne pourrait toutefois pas encore en dériver toutes les propriétés de cette entité, dont les traits holistiques forment une nouveauté radicale et définitivement irréductible ; (3’) les traits émergents doivent être acceptés sans explication et former le point de départ de nouvelles recherches dans une perspective holistique admettant une stratification du réel en niveaux ontologiquement distincts ; (4’) chaque science référant à un niveau de réalité doit avoir ses propres vocabulaire, principes et lois, sans souci des sciences référant à des niveaux de réalité auxquels appartiendraient les parties constitutives des entités qu’elle considère, dans la mesure tout au moins où aucune contradiction n’est ainsi engendrée. » [POUVREAU, David, Une histoire de la « systémologie générale » de Ludwig von Bertalanffy, Thèse EHESS, 2013, p 51-52]. La première, l’épistémologique, que l’on pourrait qualifier de juste milieu aristotélicien raisonnable est l’outil utilisé avec prudence par les sciences de la nature ; la seconde, la métaphysique, a tendance à être érigée en absolu dans les « sciences » sociales en ayant recours à des personnifications abusives dénoncées par S. Weil, K. Popper ou F. Hayek souvent cités par la suite dans cet essai. En bref, cette émergence métaphysique fini par voir des systèmes et en faire des êtres, des personnes agissant et se comportant comme des êtres humains, ce qui n’est pourtant pas le cas, c’est le mécanisme de la personnification, on y reviendra. Bien entendu L. von Bertalanffy se situe clairement sur l’émergence épistémologique.

II-5-2) L’intentionnalité versus la finalité

Il ne faut pas confondre finalité et intentionnalité dans un système. Un exemple permet d’illustrer très simplement cette différence : l’intention d’une équipe d’ingénieur est de créer tel type d’avion, la finalité d’un avion (constat) est de voler.
Avec l’intention, on constate une propriété affichée ou imposée à un système mais pas forcément réalisée par lui. Avec la finalité : « tout se passe comme si... » : propriété révélée par le comportement du système, optimisation d’une fonction, d'un objectif,... le système tends de lui-même à réaliser ou atteindre une ou des fonctions ou objectifs.
La non compréhension de la différence de ces deux concepts explique les débats entre vitalistes ou mécanistes, finalisme et téléonomie, tout particulièrement sur les systèmes vivants où il est difficile de séparer téléonomie simple et finalisme. En effet la finalité de l’avion à voler du fait de l’intention des ingénieurs qui l’on conçu ne pose pas débat, par contre celui-ci est posé avec les êtres vivants.
Dans un système comme le pendule (similaire au problème des trois corps), on voit apparaître les phénomènes d’attracteurs étranges (fractals), sans qu’il soit possible de décréter que le pendule est soumis à l’intention d’un créateur de le faire converger vers cet attracteur étrange. Il existe aussi d’autres systèmes simples non créés intentionnellement et convergeant eux aussi vers un état qui semble « pré désigné » sans intention d’un inventeur. Ainsi, les cellules de convections découvertes par Bénard apparaissant spontanément dans une casserole remplie d’eau chauffée à feu doux, et présentant un certain gradient de températures, ne peuvent en aucun cas être le résultat d’une intention. Pourtant, l’eau converge spontanément vers cet état « final », plus exactement d’équilibre dynamique, si la température de la casserole reste dans une plage correcte.
François Jacob va jusqu’à écrire : « la reproduction d'un organisme est devenue celle des molécules qui le constituent. […]
Ce qui est transmis de génération en génération, ce sont les «instructions » spécifiant les structures moléculaires. Ce sont les plans d'architecture du futur organisme. Ce sont aussi les moyens de mettre ces plans à exécution et de coordonner les activités du système. Chaque œuf contient donc, dans les chromosomes reçus de ses parents, tout son propre avenir, les étapes de son développement, la forme et les propriétés de l'être qui en émergera. L'organisme devient ainsi la réalisation d'un programme prescrit par l'hérédité. A l'intention d'une Psyché s'est substituée la traduction d'un message. L'être vivant représente bien l'exécution d'un dessein, mais qu'aucune intelligence n'a conçu. Il tend vers un but, mais qu'aucune volonté n'a choisi. Ce but, c'est de préparer un programme identique pour la génération suivante. C'est de se reproduire. Un organisme n'est jamais qu'une transition, une étape entre ce qui fut et ce qui sera. La reproduction en constitue à la fois l'origine et la fin, la cause et le but. Avec le concept de programme appliqué à l'hérédité, disparaissent certaines des contradictions que la biologie avait résumées par une série d’oppositions : finalité et mécanisme, nécessité et contingence, stabilité et variation. Dans l'idée de programme viennent se fondre deux notions que l'intuition avait associées aux êtres vivants : la mémoire et le projet. Par mémoire s'entend le souvenir des parents que l'hérédité trace dans l'enfant. Par projet, le plan qui dirige dans le détail la formation d'un organisme. » (17, introduction).

II-5-3) Ago-antagonisme et homéostasie
 
Souvent confondue avec la dialectique , remplacée en l'occurrence par le terme de dialogique par E. Morin. Les systèmes en équilibres dynamiques se trouvent dans un « jeu » de forces variées, souvent nombreuses, s'exerçant dans des sens différents (et non forcément opposés) mais plus ou moins égales. Certaines forces, ou sous-systèmes, jouent dans le même sens (agonistes), d'autres en opposition (antagonistes). Ainsi, en médecine, comme l'observe E. Bernard-Weil dans un article sur le sujet « Théorie et praxis des systèmes ago-antagonistes » : « Très simplement, il y a deux hypophyses. L'hypophyse postérieure sécrète une hormone, l'hormone anti-diurétique (HAD), et l'hypophyse antérieure sécrète indirectement (via l’ACTH) une hormone diurétique cortico-surrénalienne, la cortisone. Vous enlevez l'hypophyse postérieure, chez l’animal […] et l'on comprend pourquoi apparaît un diabète insipide, émission quotidienne de plus de 10 litres d'urines par jour. Et maintenant enlevez l'hypophyse antérieure […], le diabète insipide disparaît, car il n'y a plus ni hormones diurétique ni anti-diurétique, en fait il n'y a pas eu de guérison, mais deux maladies au lieu d'une et qui paraissent s'annuler. ». Il a donc découvert ici un système composé de deux sous-système dialogiques (les deux hypophyses) produisant chacun une hormone qui va venir équilibrer en permanence l'autre et vice-versa. Ces deux hypophyses ne travaillent pas en simple opposition dialectique, elle ne sont pas la même choses (« A » et « non A ») s'opposant à lui-même car ce sont bien deux hypophyses différentes. Non, elles travaillent de concert, ensemble (agonisme) et simultanément en équilibre instable par équilibration dynamique (antagonisme) permanent. La rupture de cette dialogique, de ce travail en commun comme deux jambes s'équilibrant l'une l'autre, amène la maladie, qui n'est pas autre choses qu'un déséquilibre.
En mécanique, sur une voiture, les sous-systèmes « accélérateur » et « freins » loin de s’opposer comme l’aurait conclu un dialecticien comme Hegel ou Marx, coopèrent ensemble au contraire en mode dialogique pour faire avancer correctement le véhicule. Ainsi par exemple lors d’une course des 24 Heures du Mans un concurrent a gagné car pour la première fois sa voiture avait des freins à disques beaucoup plus efficaces, lui permettant d’aller… beaucoup plus vite !
De même en matière de socio-politique, le maître mot est là aussi le jeu des forces ago-antagonistes. Simone Weil résume très bien ce jeu des forces, se livrant en passant à une critique destructrice du Marxisme dès 1937... : « Les marxistes n’ont pas facilité une vue claire du problème en choisissant l’économie comme clef de l’énigme sociale. Si l’on considère une société comme un être collectif, alors ce gros animal, comme tous les animaux, se définit principalement par la manière dont il s’assure la nourriture, le sommeil, la protection contre les intempéries, bref la vie. Mais la société considérée dans son rapport avec l’individu ne peut pas se définir simplement par les modalités de la production. On a beau avoir recours à toutes sortes de subtilités pour faire de la guerre un phénomène essentiellement économique, il éclate aux yeux que la guerre est destruction et non production. L’obéissance et le commandement sont aussi des phénomènes dont les conditions de la production ne suffisent pas à rendre compte. Quand un vieil ouvrier sans travail et sans secours périt silencieusement dans la rue ou dans un taudis, cette soumission qui s’étend jusque dans la mort ne peut pas s’expliquer par le jeu des nécessités vitales. La destruction massive du blé, du café, pendant la crise est un exemple non moins clair. La notion de force et non la notion de besoin constitue la clef qui permet de lire les phénomènes sociaux. ». [WEIL, Simone, « Méditation sur l’Obéissance et la Liberté », Œuvres, Ed. Quarto Gallimard, p 490].

II-5-4) Eco-Auto-Re-Organisation des systèmes loin de l’équilibre

C’est ici qu’interviennent dans l’étude des systèmes les phénomènes d’auto-organisation permettant d’éclairer le débat finalisme-intention, à condition de ne pas oublier les phénomènes d’émergences cités plus hauts.
Ces aspects ont été particulièrement développés par E. Morin et JL Le Moigne.
Loin de l’équilibre, signifie que le système n’est pas au repos, et est soumis à des flux d’énergies, informations et/ou de matières. Ces flux ne doivent pas être ni trop faibles ni trop fort, dans les limites de ce que peut « encaisser » le système. Dans cet état, le système se trouve probablement dans l’état qui lui est « le meilleur ». Ce dernier terme entre guillemets montre bien le penchant de l’être humain pour les termes finalistes…
Dans ce régime, un système peut spontanément, sur des délais variables, se mettre à présenter des phénomènes de réorganisations internes. Ces réorganisations interviendront surtout si les natures ou les régimes des flux entrants ou sortants évoluent dans le temps, ceci, à nouveau, sans dépasser une plage admissible pour le système.
Ces réorganisations internes peuvent provenir soit :
  • de l’apparition de nouvelles relations ou inter-relations entre ses sous-systèmes. Par exemple l’établissement de nouvelles synapses dans un cerveau réalisant un apprentissage.
  • d’une modification limitée de l’un ou de plusieurs sous-systèmes (qu'il faudrait alors à leur tour individuellement étudier en tant que systèmes).
  • D’une transformation en profondeur de l’un ou de plusieurs sous-systèmes aboutissant à l’apparition d’un sous-système réellement nouveau.
A nouveau un exemple simple est l’auto-organisation des cellules de convection dans une casserole d’eau chaude. Aucun ingénieur n’est présent avec l’intention (intentionnalité) de les créer, et pourtant le système s’auto-organise spontanément en un réseau de cellules avec une structure typique en cellule d’abeilles.
Cet état est instable, les cellules varient en permanence de taille et de forme, tout en restant proche de la section hexagonale. Une cellule peut presque même par instants disparaître pour quelques secondes, plus la température augmente et plus ces mouvements deviendront des soubresauts violents qui finiront par anéantir cette nouvelle (auto) organisation : le système est mort, il a explosé sous la trop grande intensité des flux auquel il a été soumis.
Comme déjà évoqué en (II-3-3) au sujet de JL Le Moigne, Edgar Morin dit que l’organisation est en fait bien plus qu’une simple auto-organisation, mais est un processus de transformation permanente sur 3 registres imbriqués :
« - celui de l’éco-organisation, qui est l’ouverture aux évolutions et à la diversité de l’environnement, éco-organisation qui est à la fois dépendante de l’environnement, mais aussi créatrice de son environnement.
- Ensuite l’auto-organisation, qui est le développement de l’autonomie, la capacité à élaborer et à mettre en œuvre ses propres projets, d’organiser ses modes d’action et ses processus pour s’auto-produire de façon adaptée aux contraintes et sophistications de l’environnement.
- Troisièmement, la ré-organisation qui est la transformation permanente assez subtile, entre le renouvellement et la reproduction, ré-organisation qui ne peut s’opérer qu’en complète symbiose avec l’éco et l’auto-organisation. ». (Evelyne Biausser, éditrice du dossier MCX XVIII, Une Pragmatique du « bien penser »).
Ainsi l’éco-organisation consiste à s’adapter aux changements de l’environnement, et en retour à modifier celui-ci, de la bactérie qui va alcooliser son environnement en consommant le sucre contenu par celui-ci pour produire de la bière, jusqu’à l’homme et le réchauffement planétaire… qui devront ensuite s’adapter en retour aux changements de l’environnement pourtant provoqués par eux-mêmes. C’est le système actif.
L’auto-organisation a été traitée plus haut, c’est le système dynamiquement stable capable de s’organiser de lui-même (immanence) .
La ré-organisation qui consiste à détruire/ construire son organisation interne comme explicité plus bas en (II-5-4-c), c’est le système évoluant. On arrive alors à la phrase à méditer d’E. Morin : « l’organisation est l’organisation de l’organisation ».

SUITE du Blog : Les propriétés d'un système

Benjamin de Mesnard

samedi 11 octobre 2008

II) Présentation détaillée de la Systémique (6/8)

II-4-2) Organisation :

Il faut d’abord souligner combien le concept d’organisation a été flou dans le passé et, notamment, dans le langage commun. La Systémique parvient à une définition très précise avec reconversion de la finalité métaphysique sous la forme de l’ergodicité systémique.
Selon R.A. Ochard en 1972, l’organisation d’un système est donc la collection de toutes les propriétés qui déterminent le comportement d’un système. Par propriétés, on désigne tout ce qui a été dit plus haut, à savoir : interactions, flux, sous-systèmes composants, ergodicité, etc...
Plus précisément, dans l’organisation nous allons trouver les éléments suivants :

a) Structure :

Une structure, c’est la somme des éléments (ou des sous-systèmes) et de leurs interrelations.
Il ne faut pas confondre structure et organisation, une structure - dans la Systémique - fait partie d’une organisation et non l’inverse. Une structure est (relativement) stable. Voir le paragraphe II-2-1 pour une description plus fine de la structure. C’est un point essentiel de ce qui sépare structuralisme de la Systémique. Le structuralisme a - comme son nom l’indique - mis l’accent sur la structure en mettant de côté les aspects organisationnels plus larges et sans voir que la structure ne décrit pas la totalité de ce que l’on appelle un système en Systémique.

b) Niveaux - strates :

Comme déjà introduit en (II-3) avec la récursivité, on appelle niveau l’ensemble des sous-systèmes composants les systèmes. Pour un de ces sous-systèmes, on pourra à nouveau trouver un ensemble de sous-sous-systèmes le composant, ce qui constituera le niveau N-2 d’organisation de notre système de départ et ainsi de suite. A l’inverse, il est possible d’opérer vers le haut par le sur-système dans lequel se trouve le système. Enfin, il est noter qu’un sous-système peut être considéré comme de niveau N1 d’un certain point de vue et de niveau N2 d’un autre, formant un implexe en analogie avec la généalogie.
Deux cas se présentent : niveaux ordonnés ou niveaux hiérarchiques.

b-1) Niveaux Ordonnés :

C’est le cas le plus simple donné plus haut. Un système d’ordre N sera alors plus globalisant que celui d’ordre N-1 et le contiendra logiquement. Une remarque : le niveau N aura tendance à être plus “ macroscopique ” que le niveau N-1, c’est à dire moins précis localement mais aussi plus général. Ces niveaux sont donc articulés entre eux, emboîtés, sans que l’on puisse encore dire qu’un niveau est « supérieur » à l’autre ou bien pilote un autre « inférieur » (voir b-2 ci-dessous). Par contre il est possible d’identifier une structure, une organisation à travers des niveaux ordonnés.


b-2) Niveaux hiérarchiques :

Les niveaux dits hiérarchiques sont par nature ordonnés. Cependant les niveaux hiérarchiques ajoutent une idée d’emboîtement vertical, un niveau donné étant rattaché, et surtout piloté par le niveau hiérarchique supérieur. Un niveau hiérarchique supérieur pourra se superposer, piloter, un ou plusieurs niveaux inférieurs.
Au sujet de la hiérarchie des niveaux, un théorème capital a été démontré en 1931 par K. Gödel. Une structure de niveau N peut être plus forte (au sens mathématique) qu’une autre de niveau inférieur. Précisons : les sous-systèmes du système de niveau N sont des cas particuliers du système de celui-ci. On a besoin pour les situer, d’en connaître l’environnement constitué par définition, par le système lui-même. Cela revient à dire que le niveau N devient nécessaire à la saturation du niveau N-1. Ou encore, que les indécidables du niveau N-1 ne peuvent être résolus que par des moyens « plus forts » que ceux fournis par lui, et donc, qu’il faut recourir aux moyens du niveau N. Encore : les invariants (au sens de la théorie des groupes) du sous-système sont plus nombreux que ceux du système puisque qu’il est plus faible, certaines propriétés du système se transformant en variables exogènes pour le sous-système. Pour résoudre ces variables exogènes il faut construire ou découvrir le niveau N.
C’est sur ce concept de niveaux forts englobant des niveaux faibles du théorème de Gödel qu’a été révolutionné le caractère hiérarchique des niveaux. Avec Gödel, il ne s’agit pas en effet d’une simple analyse des organisations comme on peut les trouver dans tous les livres de sociologie des organisations, mais bien d’une découverte essentielle servant directement à la Systémique. Nous reviendrons en (III-1-2) sur Gödel et ses liens de fait avec la Systémique.
Enfin il faut se méfier d’une hiérarchisation un peu trop rapide des niveaux, par exemple en génétique les rôles respectifs de l’ADN et de l’ARN dans un noyau de cellule vivante ont été très vite hiérarchisés entre eux : l’ADN code, l’ARN sert de messager, or on s’est aperçu récemment que leurs rôles respectifs étaient beaucoup plus complexes que cela.

b-3) Niveaux en réseaux :

Ces différents « niveaux » d’organisation peuvent s’interconnecter aussi en réseaux, et non seulement, en s’empilant ou en s’imbriquant comme les poupées russes, généralisant ainsi les implexes. Des inter-relations croisées peuvent ainsi s’entrelacer et s’enchevêtrer mutuellement. Rendant extrêmement complexe naturellement la compréhension et l’étude de tels systèmes. Malheureusement, la plupart des systèmes naturels sont organisés ainsi, expliquant, par là même, les difficultés des sciences de la vie en général à avancer, voir même à se faire admettre au statut de science au même titre que les mathématiques. Sans aller jusqu’à la biochimie, la chimie offre de multiples exemples d’interactions chimiques croisées complexes, faisant échouer pendant longtemps toutes possibilités de maîtrise par l’homme de ces processus.

b-4) Niveaux multi-hiérarchiques :

Pour être complet il faut combiner les niveaux simplement hiérarchiques où chaque niveau N est coiffé par un seul niveau N+1, avec les niveaux en réseaux. Il est en effet possible (et courant dans la nature) de trouver qu’un niveau N peut être coiffé de plusieurs niveaux N+1 en inter-relations entre eux (eux mêmes en réseau). Ainsi par exemple, l’individu être humain (niveau N) sera coiffé de plusieurs niveaux supérieurs N+1 inter agissants les uns sur les autres (société, psychologie, culture, etc. …). Dans une grande entreprise, il est utile d’identifier au-delà de la hiérarchie officielle (l’organigramme officiel), les organigrammes officieux où l’on trouvera un second, troisième, etc.… réseaux d’influences hiérarchisés internes ou externes à l’entreprise.
Une application de l’identification de niveaux a été trouvée en sociologie par exemple par le pouvoir de « décision » que possède un niveau sur un autre, ou encore en gestion avec les modules de pilotage. Cette idée est même employée par comme définition par J. Eugène. Ce qui nous amène à la :

c) Coordination et Pilotage :

Il est en effet nécessaire pour qu’un système puisse « fonctionner » correctement, que tous les sous-systèmes qui le composent s’intègrent en un tout, agissent de concert, en bref, se coordonnent entre eux. Pour atteindre cette intégration, un chef d’orchestre peut être requis. Ce rôle ne peut être rempli que par le système lui-même, c’est-à-dire par le niveau N par rapport aux niveaux N-1. Le système doit alors être hiérarchisé et surtout organisé. Le niveau N doit être plus fort (au sens de Gödel) que le niveau N-1. Le niveau N doit présenter la Variété requise pour « gérer » le niveau N-1 comme l’a démontré R.W. Ashby et A. Kolmogorov (voir (II-4-1-e)). On peut alors voir apparaître un système spécialisé dans le pilotage des systèmes peuplant les niveaux inférieurs. Ce système présentant nécessairement un niveau de variété supérieur à ceux des systèmes qu’il pilote, cela signifie que ce système doit présenter un niveau de complexité supérieur. On voit apparaître trois conséquences :
  • On retrouve par une autre approche le théorème de Gödel, comme dit plus haut le système pilote doit être en effet plus fort que les systèmes pilotés.
  • Le système pilote présentant une complexité/variété encore plus grande que les systèmes pilotés par lui, aura lui-même besoin d’être piloté à son tour. Ceci explique l’apparition de couches successives au-dessus du système pilote précité, dans un emboîtement (voir enchevêtrement par inter-relations) toujours plus complexes et difficiles à comprendre. Ainsi par exemple, le cerveau humain forme un système extrêmement complexe « pilotant » l’organisme, ce système nécessitant des systèmes aux niveaux supérieurs -tels que systèmes sociaux, psychologiques, spirituels, etc.…- pour parvenir à fonctionner.
d) Variété versus spécialisation :

Comme vu plus haut, la variété d’un système est le nombre d’états (de configurations) possibles que peut prendre ce système. C’est l’inverse de la spécialisation d’un système. C’est cette variété qui va permettre au système de répondre plus souplement, plus richement, aux changements son environnement, en un mot de s’adapter à celui-ci.
Toute la théorie de la sélection de Darwin repose sur ces deux notions antagonistes. En effet, pour qu’un système vivant survive, c’est-à-dire reste dans son domaine d’ergodicité, il faut qu’il soit adapté à son environnement. Il devra présenter une palette de réponses, de comportements, de programmes, potentiels, en nombre suffisant (et donc une variété suffisante), pour pouvoir supporter les changements qui affectent son milieu. Par contre pour survivre d’une manière la plus optimum dans un environnement donné et suffisamment stable, un système devra se spécialiser –et par la même perdre de sa variété- risquant de ne pouvoir se réadapter en cas de changement de son environnement.

SUITE du Blog : Les propriétés d'un système

Benjamin de Mesnard

samedi 4 octobre 2008

II) Présentation détaillée de la Systémique (5/8)

II-4) Les caractéristiques d’un système :
II-4-1) Stationnarité- Stabilité:
a) Ouvert/Fermé :

Un système se trouve évoluer au milieu d’un environnement qui lui est extérieur. Entre le milieu intérieur du système et cet environnement, il peut se produire des échanges de matières, d’énergies ou d’informations sous diverses formes et sous divers volume ou intensité. Un système sera dit fermé s’il n’y a aucun échange avec son milieu (les Monades « à volets clos » de Leibniz). Un système sera dit ouvert s’il existe des échanges avec son environnement. C’est en fait le cas de tous systèmes dignes de ce nom, en effet un système fermé est soumis à la loi de l’entropie et se dégrade plus ou moins rapidement vers un désordre de plus en plus prononcé pour être amené à disparaître tôt ou tard.

b) État d’Équilibre :

État dans lequel les entrées et sorties d’un système sont constantes dans le temps. Remarque : seul un système fermé peut se trouver dans un état d’équilibre vrai. Un système ouvert pourra se trouver d’une manière transitoire en équilibre, on parle alors d’équilibre dynamique. Une toupie à l’arrêt sera en équilibre vrai – ou équilibre stable –, une toupie en rotation sera en équilibre dynamique. En fait, tout système ouvert ne pourra se trouver en équilibre dynamique que par le jeu de flux de matières, énergies ou informations entrant ou sortant en permanence.

c) Domaine de stabilité :

Si, avec d’autres entrées et sorties, l’état du système tend dans le temps vers un état d’équilibre on dit que le système est stable. Si ces conditions sont satisfaites seulement pour certaines valeurs initiales, on parle de domaine de sensibilité aux conditions initiales. La théorie montre que, dans ce cas, le système doit comporter au moins une boucle de rétroaction, il est régulé.
Remarque : si un système ouvert ne peut être en état d’équilibre, il peut cependant être stable pourvu que sa régulation soit suffisamment efficace pour le faire tendre vers cet état d’équilibre. Certains parlent alors d’équilibre dynamique (voir b ci-dessus).

d) Ergodicité :

Par extension, tous les processus systémiques devenant indépendants au cours du temps de l’état initial du système, sont qualifiés d’ergodique. De tels systèmes obéissent alors à une loi de développement primant sur l’état initial, où les entrées perturbatrices transitoires (du moins dans certaines limites) seront résorbées ou absorbées par le système qui réussira à revenir alors à son « régime » précédent. On parle ainsi de « domaine d’ergodicité » pour une certaine plage ou série d’états initiaux, ou de perturbations amenant malgré tout toujours au même état d’équilibre dynamique. D’autres états initiaux amenant une évolution différente par une loi de développement différente n’appartiennent plus alors à ce domaine d’ergodicité. Enfin, il faut citer la durée d’ergodicité, qui peut être en effet transitoire, ainsi que la vitesse de retour à la « norme » du système après une perturbation. Il faut aussi signaler qu’un système peut posséder plusieurs domaines d’ergodicité. Un exemple de domaine d’ergodicité peut être trouvé dans la croissance d’un jeune être vivant. Une maladie ralentira la croissance du jeune être vivant, mais les courbes de tailles et de poids repartirons après celle-ci jusqu’au rattrapage du retard pris. Le retard de croissance est ainsi compensé car la maladie, la perturbation, restait en somme à l’intérieur du « domaine d’ergodicité » du jeune. Si, par contre, la maladie est trop grave ou trop longue, le rattrapage après guérison ne sera que partiel, un retard permanent résiduel subsistant à l’âge adulte.
Exemple d’un système à 3 domaines d’ergodicité :
e) Variété (requise) :

Concept clé de la Systémique inventé par W. Ross Ashby, et qui va de paire avec l'homéostasie, équivalente à l'équifinalité de la systémique. La Variété requise d’un système est le nombre d’états différents que peut présenter ce système. Elle se mesure comme l’entropie et l’information, en nombre de bits. Soit N le nombre d’états possibles d’un système S, sa variété V est : Vs = log2 N. Ainsi un système présentant 100 états possibles aura une variété Vs = log2 100, soit V = 6,64. Plus le nombre d’états possibles augmente, plus la variété du système augmentera, donnant une mesure exacte de l’information contenue dans celui-ci. Au contraire, plus l’entropie augmente, plus l’information diminue, et plus le nombre d’états possibles pour le système diminuera et, avec, la variété du système. La caractéristique de variété d’un système fourni un véritable outil de mesure de la complexité de celui-ci.
A. Kolmogorov a introduit une mesure de la complexité d’un système en mesurant celle de sa plus courte description. Introduite par l’informatique ceci revient à mesurer la longueur du programme capable de générer le système étudié, c’est à dire le nombre de bits de ce programme. La mesure de la complexité d’un système s sera notée K(s). Ces propriétés ont permis d’écrire les programmes de compression de données en informatique. La plupart des informations enregistrées présentent des redondances ou des répétitions, autrement dit la valeur K(s) des programmes les décrivant est nettement plus faible que leur longueur brute. Ainsi lorsqu’on écrit « cent 0 » cela est plus court à écrire que l’écriture brute de cent fois le chiffre « 0 » et cela sans perte de sens, d’information. Dans la pratique le calcul de K(s) est le plus souvent approximatif et, dans certain cas, impossible, notamment pour les systèmes très complexes, et donc où K(s) est très élevé. Léonid Levin a complété A. Kolmogorov par la mesure m(s) de la probabilité d’occurrence d’un système (programme) en fonction de K(s). L. Levin a montré que plus K(s) est élevé, plus la probabilité m(s) de trouver le système correspondant est faible. Ceci est conforme à l’intuition : les systèmes simples sont plus nombreux que les systèmes complexes. L. Levin explique par effet de bord l’attirance pour les approches réductionnistes : la puissance de l’esprit humain étant limitée, nous tentons de découper les systèmes complexes en plus petits systèmes plus probables, avec un K(s) plus faible, afin de pouvoir les comprendre. Elle justifie par ailleurs longtemps après G. d’Occam, son fameux rasoir : le rasoir d’Occam. Entre deux hypothèses, l’une complexe et l’autre moins, le rasoir d’Occam choisi celle la plus simple. Cette approche empirique, pragmatique, peut se justifier car l’hypothèse la moins complexe, donc avec un K(s) plus faible, présentera une probabilité m(s) plus élevée. Cela ne permet en rien de d’assurer la justesse de celle-ci, mais en l’étudiant en priorité le chercheur tend à accélérer ses travaux car c’est elle qui, statistiquement, sera la plus probable. On ici en quelque sorte sur une version faible du cartésianisme, considéré comme simple outils, étape du travail du scientifique, outils qu’il peut choisir d’utiliser ou non, mais non référence absolue de ce scientifique : c’est l’utilisation de la réduction comme outils, sans être réductionniste.

f) Régulation :

Assurée par les rétroactions qui ont lieu à l’intérieur du système ainsi qu’entre celui-ci et l’extérieur, l’environnement (concept très important, souvent incompris en économie). La régulation exprime quelque fois un pilotage du système par un autre système appelé système pilote, en fonction d’un but prédéfini comme on l’observe dans des systèmes artificiels intentionnels ou encore naturels. Exemple : régulation de la température du corps en fonction du but qui consiste à éviter de dépasser une plage de températures fatales à l’organisme. Cette régulation est alors ergodique. La constatation d’une régulation amène au débat sur la finalité du système, débat qui ne pose aucun problème pour les systèmes artificiels intentionnels (machines), mais qui fait problème pour beaucoup de scientifiques quand il s’agit des systèmes in-intentionnels (non intentionnels) naturels comme les êtres vivants, ou artificiels comme l'économie.
 Une précision sur laquelle nous reviendrons : on voit souvent des débats et oppositions violents en économie et en politique entre régulation et auto-régulation, le premier soutenu plutôt par des positions dites de gauche ou de droite (socialistes, marxistes ou toutes politiques dites « interventionnistes »), et le deuxième par des positions dites libérales ou encore anarchistes. On comprend l'origine de ces débats : un système, naturel ou artificiel, doit être régulé d'une manière ou d'une autre, sinon il courre à sa disparition pure et simple. Il doit donc être muni d'un systèmes de pilotages (central, et poussé à l'extrême le centralisme marxiste) ou de plusieurs répartis (décentralisation, subsidiarité) ou encore vu comme auto-régulé. Ces débats entre auto-régulation ou non vient donc de positions idéologiques très théoriques créées par la non-compréhension de ce besoin impératif de pilotage, et de la manière qu'il a de se réaliser. Si on croit que la régulation ne peut se faire que par un système de niveau supérieur, c’est l’approche transcendante ; ou bien si on pense qu'elle pourra être réalisée de l'intérieur et par le système lui-même, on parlera alors d’auto-régulation, c’est l’approche immanente, question centrale de la Systémique, on y reviendra.

A ce stade, il y a deux manière d'aborder la question : simple étude d'un système ou volonté d'action sur un système :
1. Étude : comme un chercheur étudiant un système, ce qui prime alors est la nécessité de prendre conscience qu'il y a une phase de découpe arbitraire (et à risques) du système à étudier, et aussi savoir quel est le point de vue adopté par le chercheur dans la modélisation qu'il construira.. Selon que l'on mettra ou non le (ou les) système(s) de pilotage(s) dans ou en dehors du système étudié, il sera alors de facto vu comme auto-régulé, ou bien régulé de l'extérieur. Mais il faut bien comprendre ici que l'on est plutôt face à une artefact de l'approche adoptée plutôt que face à un vrai débat. Ce sera le cas par exemple de la biologie ou de la médecine, où tous ces systèmes sont bien évidemment vus comme auto-régulés aux yeux du biologiste ou du médecin... par définition externe à l'organisme vivant étudié.
2. Action : trois cas possibles avec un médecin, un ingénieur ou un dirigeant politique. Un médecin ne pourra au mieux que tenter d'influencer un système à l'évidence auto-régulé, il n'y aura aucun débat sur ce point. Un ingénieur devra prendre des décisions sur la manière de piloter la machine, le système artificiel qu'il est en train de concevoir. Il pourra répartir ces fonctions de pilotage dans plusieurs systèmes, ou le centraliser. Mais il pourra toujours tester les résultats et choisir « tranquillement » celui qui lui semble le plus efficace, et ce sans l'intervention d'aucune idéologie. Un dirigeant politique par contre se trouve devant une société ou une économie, systèmes artificiels certes, mais non créés intentionnellement, non « délibérément construits », comme les voitures ou avions, de l'ingénieur. La tentation est alors grande (au risque d'être accusé d'inaction !) de considérer ces systèmes comme artificiels à la mode des machines conçues par un ingénieur, le débat s'emballe vite et se perd dans les idéologies. C'est la tentation dite planiste et scientiste par F. Hayek, c'est « La Présomption Fatale » [HAYEK F., 1988]. A cet égard, et comme souvent dans cet essai, n'oublions pas les préceptes de prudence et de juste milieu de J.B. Vico, et en gardant à l'esprit les phénomènes de rationalité limitée de H.A. Simon : la nature et les systèmes artificiels inintentionnels comme les société ou l'économie sont hyper-complexe, beaucoup plus que ce que nous imaginons, et nos esprits et moyens de connaissances limités. Nous y reviendrons.

g) Équifinalité ( ou homéostasie)

Avec l’ergodicité, nous avons vu qu’un système ouvert peut atteindre un certain état stationnaire, car alors le système ne variant plus, peut sembler indifférent au temps, et cela quel que soit l’état de départ et le chemin suivi pour y parvenir (dans le domaine d’ergodicité). Il est démontré, par contre, qu’un système fermé ne peut remplir ces conditions d’ergodicité, la deuxième loi de la thermodynamique s’appliquant alors, le système se désagrège continûment vers une entropie (désordre) maximale, équilibre véritable mais non état stationnaire. Une image de cet état d’équilibre sur entropie maximum est chez un être vivant la mort, état qui n’a rien n’à voir avec l’état ergodique dynamique de ce même être lorsqu’il était vivant. L. Von Bertalanffy [BERTALANFY, 1955, p76] et J. Eugène [EUGENE, Jacques, 1981, p67] qualifient d’équifinalité ce phénomène. Le seul cas où une finalité est admise clairement est celui de systèmes artificiels intentionnels (machines de main d’homme). Il s’avère qu’il est possible de donner une définition physique d’un sujet qui est considéré par les cartésiano-positivistes comme relevant du finalisme métaphysique ou preuve du vitalisme comme on disait au XIX° siècle. On peut citer par exemple “ l’entéléchie ”, sorte de démon (un peu comme celui de Maxwell) qui s’arrangeait pour que l’être étudié retrouve un état final prédestiné. Autre exemple, l’Essence de l’œuf est de devenir poule, explication n’expliquant rien en réalité puisque simplement tautologique. En effet dire que le propre (l’essence) de la pierre est d’aller vers le bas n’explique ni le pourquoi de la chute ni la loi suivie par celle-ci, ni même n’apporte le moindre éclaircissement sur le sujet puisque la même pierre ne tombera plus lorsqu’elle se trouvera dans un autre environnement (en état d’apesanteur dans un vaisseau spatial par exemple). Par contre, comme on le verra plus tard, le concept d’Essence manié avec prudence et rigueur peut être recadré et réutilisé par la Systémique. Enfin le concept de finalité –même pour les systèmes naturels ou les êtres vivants- peut (doit ?) être intégré clairement pour la Systémique, (voir Constructivisme épistémologique en (III-2-13)) dans une optique nommée projective : le système naturel démontrant une ergodicité peut être pensé comme poursuivant un projet. Cette approche est projective pour le Constructivisme, et revient à accepter délibérément le caractère finaliste de cet être vivant. A nouveau la Systémique rejoint Aristote sur ce point. La finalité du système est alors étudiée en tant que telle, sans fard et sans complexe positiviste, quitte à considérer cette approche comme juste un outil utile et pratique. Pour être complet, il faut préciser ici qu’il existe deux sortes de Constructivismes (qui complètent la Systémique) :
· l’ontologique qui voit des systèmes finalisés poursuivant des projets dans la nature, et
· le modélisateur qui ne voit ces systèmes finalisés projectifs que dans les modèles construits par le chercheur, sans préjuger de leur existence dans la nature, le réel. Dans ce cas tout ce qui a été dit ci-dessus doit être décliné sur les modèles construits à propos de l’objet naturel étudié.

Remarque :
Equifinalité et ergodicité sont liés, comme l’explicite H. Zwirn : « Quels que soient les moyens théoriques et techniques dont on disposera, quel que soit le temps qu’on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable de nos prédictions. […] Le phénomène de sensibilité aux conditions initiales nous dit que l’erreur initiale s’amplifie exponentiellement avec le temps. Il en résulte que plus les prédictions qu’on souhaite obtenir sont lointaines, plus il est nécessaire d’augmenter la précision avec laquelle on se donne les conditions initiales. » (H. Zwirn, « Les limites de la connaissance », Ed. Odile Jacob). D’un côté il y a un horizon de la prédiction, contrairement à ce que pensait Laplace. De l’autre côté, la croyance qu’en augmentant indéfiniment et jusqu’à son extrême la précision de la mesure, on augmente proportionnellement l’horizon de la prévision est inexacte dans la mesure où :
  • d’une part on se heurte –avant même d'atteindre les niveaux de l’incertitude quantique- au bruit ambiant de la mesure, à la précision de l’instrument de mesure, et à la possibilité de reproduire à l’identique deux fois les mêmes conditions de départ (du moins avec la même précision).
  • d’autre part cela revient à ignorer précisément les phénomènes d’équifinalités, où s’il on peut dire, il est possible de prendre le problème par l’autre bout en renonçant à améliorer la précision des conditions de départ. Au contraire, il suffit alors de prendre en considération les plages d’équilibres dynamiques ponctués « finales » du système (ses différentes équifinalités), pour remonter à leurs domaines d’ergodicités correspondantes aux conditions de départs. C’est ce que l’on appelle les attracteurs étranges, où pour certains domaines d’ergodicité des conditions de départ on arrive à certains domaines d’équilibres finaux « comme si » ceux attiraient ceux-là. A un certain nombre de domaines d’ergodicités, correspond certains domaines d’équilibres en équifinalité. Inversement en remontant depuis un domaine d’équifinalité particulier (un domaine de stabilisation du système au bout d’un certain temps) on peut remonter à un certain nombre de domaines de conditions initiales correspondantes dites ergodiques.
SUITE du Blog :  Les caractéristiques d'un système (2)
Benjamin de Mesnard