Affichage des articles dont le libellé est A. Kolmogorov. Afficher tous les articles
Affichage des articles dont le libellé est A. Kolmogorov. Afficher tous les articles

lundi 28 décembre 2009

V-7) Transcendance versus Immanence et hétéronome versus autonome


L'Immanence - et son corollaire la Transcendance - est un concept clé de la Systémique. Ce débat existe dans plusieurs domaines : juridique, religieux, épistémologique, politique :
  a)  Au plan juridique tout d’abord, l’immanence considère que le droit vient « du terrain », de l’expérience des jugements passés qui se sont accumulées au cours du temps. C’est donc un droit basé sur la jurisprudence, comme aux États-Unis par exemple où à chaque procès il s’agit de retrouver un cas analogue déjà jugé auparavant, la justice ne pouvant se contredire. La transcendance au contraire considère que le droit vient de lois votées par le pouvoir législatif, d’en haut en quelque sorte, la jurisprudence ne pouvant intervenir que si aucun texte de lois existant ne corresponds au cas jugé, ce qui est rare ; ou bien après un arrêt de la Cour de Cassation. Donc on voit bien alors la logique de ces droits transcendants : priorité à la loi transcendante, la jurisprudence immanente n’intervenant que en « roue de secours ». De la même manière que les Idées de Platon tombent dans la matière pour l’animer, les lois tombent d’une chambre des députés qui se croient autorisés, au nom de la majorité, du « Peuple », à voter des lois à tort et à travers sans la moindre étude sérieuses d’ailleurs la plupart du temps. Il leur suffit de voter selon une procédure légale, c'est-à-dire respectant... les lois qu’ils avaient votées précédemment. Il n’y a plus de garde-fou, puisque même la Constitution a été votée par le même cercle étroit et fait d’ailleurs l’objet de modifications incessantes, contrairement aux Constitutions anglo-saxonnes immanentes. Pour justifier cette transcendance, on retrouve bien entendu les discours déjà évoqués faisant appel aux diverses personnalisations : « Peuple », « Bien Commun », etc.. A l’inverse du droit anglo-saxon immanent, c’est alors la loi qui génère le droit. Et bien que les abstentionnistes constituent factuellement la véritable majorité, ces députés peuvent alors exercer la dictature de la soit-disant majorité sur les minorités et en dernier lieu la plus petite des minorités : le citoyen.

  b)  Au plan religieux ensuite, l’immanence consiste à affirmer que Dieu se trouve dans toutes choses ou être du monde, à l’intérieur du monde lui-même. La transcendance par contre soutient que Dieu est extérieur, au dessus du monde, qu’il gouverne et dirige (le « roi des rois » des religions judéo-chrétiennes ou musulmanes). Comme le souligne R.R. Ruether, l’immanence est assimilée à la féminité (Gaïa la Terre ou la Nature vue comme féminine chez les Indiens d’Amérique et d'autres peuples), et la transcendance à la masculinité (l’image d’Épinal du Dieu tout puissant en vieillard barbu assis sur son trône dans le ciel, au dessus des contingences terrestres). Ces concepts religieux -souvent implicites dans les différentes cultures- ne sont pas sans conséquences et déterminent un certain nombre de comportements. Ainsi nos sociétés développées vont avoir recours à la culture intensive et l’exploitation à outrance des ressources naturelles suivant en cela l’image d’un homme transcendant la nature et donc logiquement propriétaire de celle-ci. A l’opposé, les peuples « primitifs » chasseurs/cueilleurs seront respectueux des ressources. Ils remercient leurs proies d’avoir bien voulu se faire tuer et jouent naturellement (sans connaître la Systémique…) un rôle de chasseur-régulateur au sein du système écologique global en état d’équilibre dynamique. Ces cultures suivent alors un schéma où l’homme est immanent au monde, au même titre que les autres espèces.

  c)  Au plan épistémologique et bien sûr exclusivement pour les systèmes naturels, ou les systèmes artificiels inintentionnels (économie, sociétés,...), voir (III-2-14-c), l’immanence soutient qu’un système peut « vivre » par lui-même, trouver ses propres états d’équilibres dynamiques spontanément (équifinalité et ergodicité) par ses propres systèmes stabilisateurs -voir pilotes- internes. C'est un système dont le pilotage est donc interne : il est autonome. La transcendance soutien qu’un système naturel ne peut se stabiliser -et donc « vivre »- que par le recours à des causes finales externes (on retrouve Aristote et le débat cause finale versus équifinalité). C’est un système dont le pilotage est externe : il est hétéronome. Se pose alors la question du mode de pilotage du.... système de pilotage : soit interne et immanent, soit externe et transcendant partant ainsi sur une boucle récursive sans fin...
Enfin en épistémologie, il est très intéressant de noter que ce débat transcendance / immanence ressort dans l’étude de ce que l’on entends par le concept d’« explication » en sciences. Ainsi Francis Halbwachs propose 3 formes d’explications résumées par Pierre Sagaut dans son papier « Introduction à la pensée scientifique moderne », page 134, citation :
« • L’explication homogène (aussi appelée explication formelle), qui ne fait intervenir aucun élément extérieur au système dont on cherche à expliquer l’évolution. L’explication portera donc sur des variables internes de ce système et sur les relations, les lois, qui lient ces variables. Le plus souvent, de telles explications font appel à la notion de conservation d’une quantité (énergie, masse, …) ou de propriétés de symétrie du système considéré.
L’explication causale (encore appelée explication hétérogène), qui est basée sur l’interaction entre le système et le monde extérieur, ou précisément une sous-partie du monde extérieur représentée par un ou plusieurs objets. L’explication repose alors sur la notion d’échange entre les différents objets en interaction.
L’explication bathygène (du grec bathus, « profond »), qui consiste à se référer à un autre niveau de description. Il s’agit ici de faire référence à un autre modèle du même système physique, qui le plus souvent repose sur une description à une échelle plus petite. […] (étudions le ) choc de deux boules de billard, l’une étant initialement au repos. Qu’est-ce qui cause le mouvement de la seconde ? La réponse classique est le choc avec la première boule. Lorsque l’on considère la seconde boule, l’explication de sa mise en mouvement lui est extérieure : c’est son interaction avec le monde extérieur (en l’occurrence la première boule) qui est évoquée pour expliquer le changement de ses paramètres internes (quantité de mouvement, énergie cinétique). […] le choix d’un type d’explication pour un phénomène observé n’est pas imposé par l’explication : il résulte d’un choix du scientifique. En modifiant par exemple sa définition du système dont on suit l’évolution, il est possible de changer de type d’explication. Reprenons l’exemple du choc des boules de billard. En ne considérant que l’une des boules, nous avons affaire à une explication causale. Mais que se passe-t-il si maintenant nous considérons le système formé par les deux boules ? La description du système ne fait plus intervenir d’éléments extérieurs à celui-ci, et les propriétés des deux boules (quantité de mouvement, énergie cinétique) peuvent être à tout moment décrites au moyen de lois de conservation (ces deux quantités sont des invariants). D’une explication causale nous sommes donc passés à une explication homogène !
».

  d)  Au plan politique, le libéralisme ressort comme relevant de l'immanentisme (système autonome). La « main invisible des marchés » s'auto-régulant par eux-mêmes sans qu'il soit nécessaire à un état ou à un gouvernement d'intervenir, cette intervention étant même jugée nuisible et dangereuse. C'est le fameux « Surtout Sire laissez-nous faire » (très différent du « laissez-faire » tronqué qu'on nous répète à loisir...), réponse du Capitaine de bateaux à Nantes à l'envoyé de Colbert lui demandant ce que le gouvernement pouvait faire pour les aider… face à la plainte des capitaines contre la bureaucratie de l’État français, déjà à l’époque ! A l'inverse le socialisme ressort de la transcendance (système hétéronome). Un système économique étant vu comme ayant besoin d'être contrôlé, régulé de l'extérieur par une force politique, un état fort et nécessairement centralisé. Cet État est censé être dirigé par une élite détenant le Savoir et la Connaissance bien mieux que les citoyens considérés comme intrinsèquement assez irresponsables et inintelligents. Le socialisme prétends ainsi échapper à la boucle récursive sans fin, identifiée en épistémologie, pour savoir comment est piloté le pilote. On est alors en plein débat Platon et Rousseau contre Aristote et Machiavel, les premiers considérant qu'il suffit de bien former l'élite, les seconds que tôt ou tard des dirigeants dangereux arriveront fatalement au pouvoir, on reviendra sur cette question.  Un petit paradoxe en passant: une démocratie juge ses citoyens assez intelligent pour élire leur élite dirigeante, mais pas suffisamment pour savoir par eux-même directement ce qu'il leur faut...

Il est possible de trouver des variations dans ce débat :
-  La social-démocratie où les marchés sont jugés nécessaires et acceptables mais devant faire l'objet d'une régulation par l'état « transcendant » afin de limiter les crises et les excès. On retrouve là le principe de subsidiarité de l'Europe où il est admis un équilibre entre centralisation et décentralisation. Le point faible de cette approche tenant naturellement sur deux questions insolubles : Qui peut prétendre avoir la science infuse pour décider où, quand et en quoi les marchés ont mal fait ? C'est la dénonciation par F.Hayek du scientisme positiviste des dirigeants socialistes. Quels sont les critères clairs et objectifs définissants lesdits « excès » des marchés ? C'est la Présomption Fatale de F. Hayek. En effet le problème de cette approche est que l'histoire montre que ce sont plutôt les excès des États, l'instabilité des lois et leurs incohérences dans le temps suite aux changements de majorité qui ont été à l'origine des crises... Ainsi la crise de 1929 vient de la 1° guerre mondiale entre États, les États vainqueurs décrétant une dette énorme sur l’État Allemand, dette impossible à payer, sinon par des emprunts énormes auprès des seules banques capable de les financer, les banques américaines, ce qui a fini par déclenché la crise. La crise de 2008 vient de décisions électoralistes de l’État américain prises en 2001 et avant, obligeant les Banques à ouvrir des crédits immobilier pour les citoyens en "Red Line" et donc insolvables, etc... On y reviendra plus loin. La question devient alors : si on parle d'excès possibles des marchés devant être contrôlés par les États, qui alors contrôle les excès des États ? Problème typique de récursivité systémique du pilotage du système pilote !
-  Le socialisme marxiste où l'existence même des marchés est jugée dangereuse, ceux-ci devant être supprimés pour être remplacés par une économie entièrement pilotée depuis le haut, centralisée (centralisme dit soit-disant « démocratique ») totalement transcendant et hétéronome avec toutes ses lourdeurs tenant à la non prise en compte de la complexité du système en question. Cela rejoint les questions traitées en (II-4-1 et II-4-2) sur la mesure de la variété requise d'A. Kolmogorov et la Rationalité limitée de H.A. Simon par le système de pilotage central. Le problème supplémentaire de mode de pilotage est qu'un petit groupe va décréter pour tout le monde ce qu'ils doivent faire. Cela ne peut se faire que par la coercition, la force et pour finir la terreur d'un totalitarisme comme on l'a vu avec Staline, Mao, Pol-Pot, Maduro, etc... ou Hitler et Mussolini avec un autre type de Socialisme, le Socialisme National mal traduit en français par National-Socialisme.
Ce type de débat entre immanence et transcendance a été, et est toujours notamment aux États-Unis, particulièrement violent par l’opposition des thèses évolutionnistes implicitement immanentes (Darwin) et créationnistes implicitement transcendantes. On mélange alors religion et sciences. Ces débats rejoignent étrangement les débats de politiques économiques… bien que les protagonistes ne semblent pas s’en rendre compte comme on va le voir ci-dessous... Il est possible de trouver des degrés dans ce débat :
  • Entre les créationnistes « purs et durs » équivalents ici au centralisme des marxistes en économie, niant toute évolution et jugeant nécessaire et même vital une intervention divine de tous les instants. Tout être vivant ayant été directement créé par un dieu unique « central » et transcendant bien sûr, ces êtres - bien que donnés comme étant libres- devront ensuite être sous la surveillance et même la conduite permanente de ce dieu tout-puissant. On trouve donc ici un lien manifeste entre ces créationnistes Chrétiens et le Marxisme le rôle du pilote central étant tenu par le dieu unique dans un cas et le parti unique et l’État avec son dirigeant "Petit Père du Peuple" divinisé dans l'autre. Les deux prétendent même contrôler jusqu'aux pensées intimes des « croyants » et ont besoin pour ce faire de commissaires politiques pour les uns et de prêtres pour les autres. . On peut noter en passant que le problème de la prise en compte de la Variété requise et de la Rationalité limitée par le pilote unique central à été -si l'on peut dire- vu et « traité » par les créationnistes en déclarant dieu omniscient, bien que personne ne soit en mesure d'expliquer comment une telle omniscience peut être possible...Et par les marxistes ou autres socialistes nationaux par la déification des dirigeants affublés soudainement de pouvoirs exceptionnels : représentant de la pureté extrême de la race et Guide suprême avec Hitler ou Mussolini ; référence absolue de l’idéologie marxiste avec le « Petit Père des Peuples » avec Staline , Grand Timonier avec Mao, tous supposés être des êtres d’exception de part leur intelligence et leur vision de la fin de l’Histoire, etc...
  • Et les adeptes de l' « intelligent design », équivalent ici à la social-démocratie, qui admettent une certaine forme d'évolution locale et limitée mais toujours avec un dieu central transcendant, fixant les objectifs finaux, pilotant globalement mais non dans le détail le projet, cause finale d'Aristote mais sans avoir besoin d'être « présent » en tout et pour tout comme chez les créationnistes « purs ». On retrouve encore le principe de subsidiarité de l'Europe sous une autre forme...
En passant, on note que beaucoup d'individus parviennent à être des tenants de la transcendance en religion et de l’immanence en économie (souvent dits "de droite") ET vice-versa athées et donc immanents en religion mais marxistes transcendants en économie  (pour ceux dits "de gauche")... cela est incohérent.
Il y a un lien entre les aspects culturel de ce débat et les aspects épistémologiques de celui-ci. Ce n’est pas un hasard si les sciences se sont développées sur une base transcendantale à partir de la Renaissance dans le monde occidental. La croyance en effet en un Dieu unique posant d'en haut ses lois stables et prédéfinies a été en effet le moteur de la recherche des lois scientifiques et à l’origine du rationalisme. Ici encore on retrouve le lien entre d'un côté rationalisme, idéalisme -les Idées étant fixes et venant d'en haut, il est donc possible de les (re)découvrir-, et de l'autre transcendance.

  • Enfin, sur tous les plans, le problème de la récursivité à l’infini avec l’approche transcendante : Le point faible de l’approche transcendante, quelque soit le domaine étudié, c’est de tomber dans une boucle récursive sans fin. Aristote déjà avait parfaitement identifié ce problème. En remontant de cause externe en cause externe, on tombe inévitablement sur un enchaînement qui part à l’infini. Pour tenter d’éviter ce cercle vicieux, il a alors inventé – par décret autoritaire - la Cause Première, pseudo solution à un vrai problème, « cause incausée », cause d’elle-même qu’il a également appelé Moteur Premier. Le problème est que cela n’explique rien d’une part et, d’autre part, cet enchaînement de causes transcendante aboutit de fait à… une cause immanente ! Même problème pour les religions tentant d’expliquer sur quoi repose la terre vue comme plate : elle est posée sur le dos d’une tortue, elle-même sur une vache, elle-même sur un éléphant, et… ensuite nul ne sait ! S’il faut un Dieu unique tout-puissant pour expliquer la création du monde alors qui a créé Dieu ? Idem en politique, comme déjà souligné plus haut : si les citoyens sont immatures et doivent être dirigé par un État pour palier aux « défaillances du marché », alors qui palliera aux défaillance des États (guerres, massacres, déportations, racisme institutionnel, propagande, dettes publiques massives, etc.) ? A chaque fois, lorsque l’on analyse ce problème, on ne peut s’empêcher de penser qu’il serait plus simple d’aller directement à une explication immanente, plutôt que d’aller inventer ces longues chaînes de causes externes transcendantes pour – de toutes façons – inévitablement retomber sur une explication immanente….
Apport de la Systémique : le but de la Systémique n’est pas de rentrer absolument dans ce débat par trop idéologique, mais plutôt de l’approcher (à défaut de le trancher) par des voies pragmatiques, pondérées et prudentes, comme le demande J.B. Vico. En effet la Systémique se voulant avant tout comme un outil heuristique ne peut pas avoir comme but de trancher ce débat -cela n’apporte rien-. Mais cependant, de part ses origines et ses concepts centraux (auto-organisation, ergodicité et équifinalité et non cause finale surtout), la Systémique relève bien des concepts d’immanence, en opposition à Platon, Descartes, Marx et au positivisme en général qui sont clairement dans la transcendance (divine ou étatique en particulier). Dans ses outils méthodologiques du travail scientifique par contre elle tente plutôt d’utiliser par les deux approches simultanément comme cela a été vu plus haut. L’usage relativisé de concepts aristotéliciens (comme la cause finale, la forme,…) ou encore de concepts cartésiens (réductionnisme, idéalisme,…) doivent être compris comme étant des étapes possibles de raisonnements, des outils temporaires de pensée, surtout dans les phases initiales d’études de systèmes mal ou très mal connus comme décrit en (II-3-6-b). Cela peut permettre de commencer à « ranger » les questions et problèmes dans quelques grandes catégories, à la condition expresse -comme cela a souvent été dit- de relativiser ces catégorisations, en étant prêt à les abandonner si la comparaison du système tel qu’il est (re)construit par le chercheur ne correspond pas à la réalité. En effet il faut bien comprendre ici qu'il s'agit pour la Systémique de considérer le système de pilotage du système étudié comme étant à l'intérieur (immanent) ou à l'extérieur (transcendant) du système. G. Bateson [BATESON G., T1, 1977, pages 270 et suivantes] explicite fort bien cette question en remarquant qu'il faut repartir des boucles de rétroactions que l'on a décidé de retenir dans l'étude du système considéré. Si l'on décide que le système doit englober ces boucles de rétroactions qui permettent au système d'arriver à s'équilibrer dynamiquement, c'est que l'on est implicitement immanentiste. Si au contraire on croit nécessaire de séparer le système de pilotage du reste du système, et par conséquent de couper les boucles de rétroactions par une frontière entre système de pilotage et le reste du système pour en voir deux séparés, c'est que l'on préfère l'approche transcendante. Pour sortir de cela, il faut donc parvenir à rééquilibrer la balance entre approches immanentes versus transcendantes en prenant le dessus sur nos croyances culturelles transcendantes ou immanentes. Il faut enfin parvenir à comprendre qu'il y a en effet un système « complet » qui inclue un (ou des) sous-système(s) de pilotage ainsi que les autres sous-systèmes pilotés (au pluriel). Il faut donc savoir utiliser les deux approches -on retrouve à nouveau la multiplicité des points de vues- entre la vue d'un système « complet » et simultanément la vue du système de pilotage séparé des autres systèmes qu'il pilote. Le schéma suivant résume cette nécessaire double approche :
Note : dans ce schéma il aurait fallu ajouter que chaque sous-système est probablement muni de son propre système de pilotage... externe ou interne : on retrouve le problème classique de la récursivité complexe du monde réel !

Dit autrement, selon l’approche de Francis Halbwachs, il faut donc impérativement « tester » les différents périmètres / frontières des système(s) afin d’étudier les cas d’explications homogènes (alias immanentes ou autonome) versus causales (alias transcendantes ou hétéronome) en adoptant de multiples points de vues comme le recommandait Montaigne ou L. von Bertalanffy avec son « perspectivisme »... Il faudra également inclure l’explication bathygène faisant alors appel à d’autres moyens au sens de Gödel : échelle moléculaire, atomique ou au contraire astronomique ou méta-système d’ordre supérieur comme l’algèbre par rapport à l’arithmétique…
Mais la Systémique va un pas plus loin car comme déjà dit dans cet essai, on ne peut ignorer que le chercheur étudiant ce système fait partie en réalité de celui-ci. Bien entendu l’étude, la prise en compte par le chercheur de sa propre influence sur le système, de ses actions, de ses mesures perturbant celui-ci, n’a rien à voir avec l’introspection cartésienne... 
Le schéma ci-dessus devient alors :

 
On est très loin de Descartes. Comme on le voit, ces concept d’immanence versus transcendance sont décidément centraux pour la Systémique, et soulignent le caractère ultra-complexe de toute approche du monde réel, dans un contexte de Rationalité limitée (H.A. Simon) et à aborder avec toute la modestie et la prudence / phronésis d’un Aristote et G.B. Vico !

SUITE du Blog : V-8) Créationnisme versus Évolutionnisme

Benjamin de Mesnard

dimanche 20 septembre 2009

V-2) Nominalisme versus Réalisme (ou Idéalisme)


Guillaume d’Occam au XIV° siècle avec  le nominalisme défendait la thèse qu’aucune Idée séparée n’existait en propre, les idées ne se trouvant que dans les mots employés par les êtres humains et n’ayant pas plus de pérennité que ceux qui les emploient. Seuls les mots ont donc de l’importance, leur sens variant d’un individu à l’autre. La neige par exemple peut-être désignée par un seul mot -ou quelques mots- par les langues européennes alors qu’elle sera désignée par une multitude de mots précis avec des sens différents par les Inuits. A ce titre le nominalisme peut être vu comme un anti-platonisme. C’est la célèbre querelle des Universaux au Moyen-âge. Ainsi Porphyre (-305 à -234), philosophe grec de l'école d'Alexandrie et disciple de Plotin résuma cette future querelle : « Tout d'abord, en ce qui concerne les genres et les espèces, la question de savoir si ce sont des réalités subsistantes en elles-mêmes, ou seulement de simples conceptions de l'esprit, et, en admettant que ce soient des réalités substantielles, s'ils sont corporels ou incorporels et si enfin ils sont séparés ou s'ils ne subsistent que dans les choses sensibles et d'après elles, j'éviterai d'en parler : c'est là un problème très profond et qui exige une recherche toute différente et plus étendue. »
En langage moderne, on dira que le nominalisme rejette l’idée de « classes d’objets » ou de « genres » (au sens d’entités mathématiques ou logiques)
A contrario le Réalisme (qui va de pair avec l'idéalisme) soutien que les concepts ou idées ont une existence propre, indépendante de l’observateur, que les mots ne servent qu’à les désigner, comme d’autres mots désignent des objets matériels. Ces mots peuvent varier d’une langue à l’autre, mais ce n’est pas pour autant que les objets en questions soient différents, la neige, dans ses états possibles, reste de la neige. Descartes a poussé jusqu’à son ultime retranchement la position réaliste par sa “ tabula rasa ” où il soutien qu’il est possible d’oublier tout ce qui est matériel et tous mots -tout ce que l’on a appris - pour arriver au concept pur et unique, référence absolue, le “ moi ” ou le “ je ”. On est à l’opposé du nominalisme, puisque celui-ci rejetant toute idée indépendante, rejettera avec plus de force encore celle de “ moi ”. En parallèle, comme le dit J. Searle en 1998 : « Le réalisme […] n’est ni une théorie de la vérité, ni une théorie de la connaissance, et ce n’est pas une théorie du langage […] On pourrait dire que le réalisme est une théorie ontologique : il dit qu’il existe une réalité totalement indépendante de nos représentations » [SEARLE John R., 1998, p 200]. Ceci a été un élément central des sciences moderne, car en effet comment faire des sciences sans ce postulat qui, permettant l’étude d’un objet indépendant de l’observateur, permet d’objectiver celui-ci ?
Une remarque : le Rasoir d’Occam, est un outil sémantique inventé par Guillaume d’Occam, qui sépare tel un rasoir les noms et les mots en autant de concepts différents, jusqu’à arriver à la racine même du mot. Le rasoir d’Occam choisi à chaque fois entre deux concepts celui le plus « simple », mettant ainsi à nu la « preuve » de l’inexistence des idées séparées, simple jeu de construction verbal (voir II-4-1). Ce rasoir a eu beaucoup de succès car on le retrouve à l’époque moderne sous forme de principe d’économie de pensée de Mach (autre agnostique) tendant à créer des mots raccourcis ou des acronymes désignant immédiatement les nouvelles idées, et permettant d’accélérer les raisonnements. Il est intéressant de noter que l’attrait pour les concepts « simples » s’est trouvée consolidé en 1948 par la théorie de l'information de Shannon et précisé par la théorie de la mesure de la complexité d’un système de R.W. Ashby et A. Kolmogorov (voir II-4-1-e) montrant qu’un système simple (dont la variété est plus faible) est plus probable… ce qui ne signifie pas qu’il soit obligatoirement le bon, le plus pertinent à étudier ou celui reflétant le mieux le domaine à étudier comme le croient les cartésiens ! Enfin il a ouvert la porte à la sémantique moderne. La complexité grandissante d'une théorie scientifique est quelque fois pris comme signe d'une théorie en voie de perdition, ainsi le système planétaire de Ptolémée, mettant la terre au centre, a fait l'objet d'une tentative de sauvetage par Thyco Brahé, ce qui l'a amené à le complexifier d'une manière toujours plus importante pour répondre aux mouvements observés des astres. Cet exemple est souvent donné comme facteur de motivation pour Copernic qui a fini par proposer de mettre le soleil au centre en simplifiant ainsi radicalement le modèle de notre système planétaire.
Le Réalisme de son côté a fait considérablement progresser les sciences du XVII° au XIX° siècles en leur en apportant méthodologie et rigueur et en mettant en place ce que l’on a appelé la « Méthode de Descartes », bien que très critiquée dans cet essai. Simultanément, le Réalisme pose deux problèmes : il est clairement un frein à l’apparition du nouveau paradigme qu’est la Systémique - tout comme la théorie de Newton a freiné la diffusion des théories d’Einstein -, et il pose aussi le problème de la « réalité du Réel ». Kant et Karl Popper ont parfaitement imagés ce problème (voir plus haut) en évoquant la science comme étant construite sur des pilotis qui s’enfoncent non pas jusqu’à trouver un niveau stable, mais jusqu’à –croyons-nous – nous permettre de construire un certain édifice, d'une taille limitée. Celui-ci, dès qu’il se révélera trop ambitieux, s’écroulera sur ses sables mouvants sous-jacents. Il nous faut reconnaître en effet que les concepts de « classes d’objets » ou de « genre » lorsque trop pris pour tels et par trop considérés comme solides, absolus et peu remis en questions, comme le font le Réalisme et l'Idéalisme, s’avèrent dangereux. C’est bien le but des travaux d’A. Korzybsky que de souligner qu’il nous faut en permanence remettre à leur place ces concepts, on retrouve ici la démarche de prudence aristotélo-vichienne. Enfin, ces concepts, de « classes d’objets » ou de « genres » ne doivent en aucun cas, comme l'explique Mario Bunge [BUNGE, Mario, 2008] être confondus avec des objets réels, car ils ne sont que des concepts, c'est son argument principal contre le matérialisme dialectique et l'idéalisme également d'ailleurs. On ne peut donc pas les manipuler comme des objets réels, notamment la négation (dialectique) d'un concept est possible (même si souvent peu pertinente...) alors que la négation d'un objet réel (pomme, table, atome,...) ne correspond à rien. Enfin ces « classes d’objet » en matière de politique avec les « Classes » en luttes dialectiques entre elles chez Marx, le « Peuple », le « Parti », la « Patrie » etc... ne sont rien d’autre que des personnalisations de choses qui n’existent pas dont le but est d’exciter les sentiments des gens pour mieux les manipuler et leur faire oublier que derrière cela se trouve un petit nombre d’individus avides de pouvoir. Même chose sur la création d’absolus qui n’existent pas tels que Le Bien et Le Mal dénoncés par Spinoza, voir (III-2-2). Simone Weil analyse parfaitement cette technique sur Marx : « Plus Marx analyse profondément le cours de l’histoire et les lois économiques, plus il modifie son point de vue, jusqu’à ce que, d’une manière imprévue, la « collectivité » devienne une hypostase, la condition des actions individuelles, une « essence » qui « apparaît » dans l’action et la pensée des hommes et se « réalise » dans l’activité. Elle constitue, à côté du domaine « privé » de l’individualisme bourgeois, un domaine à part, celui du « général », et, en qualité de substance indépendante, est le fondement du premier ; par exemple, la valeur d’un produit est déterminé par elle, avant de se « réaliser » dans le prix concret, empirique du marché. ». [WEIL, Simone, Œuvres en 1934, Ed. Quarto Gallimard, p 353]. Non seulement il y a ici invention d’une « essence » qui n’existe pas, mais on découvre tout à coup chez une grande référence du matérialisme un processus typiquement platonicien-idéaliste où une idée -la collectivité ou encore la valeur d’un produit - « tombe » -se réalise – dans les ouvriers ou encore le prix concret, exactement à la manière des Idées platoniciennes « tombent » dans la matière et s’y réalisent ! On est alors loin du Constructivisme épistémologique puisque qu'il s'agit de découvrir des objets préexistants (les nombres premiers par exemple) et non de les construire dans nos têtes. On est également assez loin de la Rationalité limitée car le rationalisme se pense capable de prendre en compte, de voir ou découvrir implicitement la totalité du réel,sans véritable notion de limites de l'horizon d'information ou de la cognition. On s'éloigne bien entendu de la phronésis/prudence et modestie vichienne ou aristotélicienne.

On retrouve fort bien dans cette image la problématique des niveaux du réel. Niveaux plus ou moins définis par le chercheur, un niveau étant arbitrairement choisi comme niveau d’étude et de référence, souvent d’ailleurs via une prise de conscience insuffisante de ce choix. A nouveau dans ces différents niveaux, tel par exemple les 3 mondes de K. Popper, il faut bien garder à l'esprit que le 3° monde de K. Popper (voir II-5-5), celui les productions de l’esprit humain vraies ou fausses, n'est plus un niveau constitué d'objets réels contrairement aux deux premiers. Il n'est donc en rien comparable à ceux-ci, ne peut obéir aux mêmes lois, car il n'est que conceptuel. C'est bien la thèse défendue par A. Korzybsky, incitant à la prudence vichienne, malheureusement oubliée par les tenants de l'idéalisme, ou du matérialisme dialectique.

Apport de la Systémique : la Systémique bouscule et réunis à la fois les deux positions du nominalisme et du réalisme. Comme entre l’Idéalisme et le Matérialisme, la Systémique va consciemment, délibérément et tentant d’en mesurer les risques, choisir un niveau du réel pour y découper un certain sous-système, objet de son étude. Ce découpage peut être vu -pour paraphraser Saint Thomas d’Aquin- comme un scandale ontologique, car contre nature. Par définition en effet, ce (sous-)système découpé ne sera pas indépendant du reste, et ne peut pas être envisagé comme pouvant vivre/évoluer seul. Par ailleurs le choix du niveau de réalité se fait lui aussi délibérément. Plus le niveau de réalité choisi s’éloigne du niveau immédiat macroscopique humain (le mètre, la lumière visible,…) plus ce niveau sera difficile à aborder. La Systémique tient compte de l’existence des autres niveaux, englobés et englobants, même s’ils sont plus ou moins connus. Les autres systèmes seront vus comme l’environnement du système découpé. Cette opération de découpage est bien sûr une phase très importante car elle nécessite de définir les frontières (artificielles) ainsi « créées », et les entrées et sorties à ces frontières. Certains comportements, lois, etc. du système (sous-système découpé) pourront être alors définis soit comme venant directement du niveau inférieur, soit comme phénomène émergeant propre au niveau étudié. Par exemple, en physique le niveau macroscopique voit disparaître les lois quantiques pour voir émerger les lois de classiques relativistes à l’échelle du niveau quotidien. A plus grande échelle (ou vitesses supérieures dites « relativistes »…) on voit émerger les lois de la relativité d’Einstein. Ceci explique que certains concepts aristotéliciens d’Acte et de Puissance peuvent être –délibérément mais une fois encore, consciemment et prudemment - réutilisés par la Systémique. En effet une loi ou un phénomène émergeant au niveau étudié, pourra être volontairement « simplifié » par le chercheur en utilisant ces outils conceptuels venant d’Aristote. La « vertu allergisante » du pollen fonctionne et suffit à un certain niveau de traitement pour le médecin généraliste qui n’a pas besoin de plus pour traiter son malade ; ayant appris en école de médecine par ailleurs la « vertu antiallergique » de tel ou tel médicament pour combattre cette allergie. Il appartiendra par contre aux chercheurs des laboratoires pharmaceutiques de disséquer les mécanismes (typiquement systémiques et complexes d’ailleurs !) des allergies pour aller plus au fond des problèmes afin de trouver de nouveaux médicaments.
L’apport de la Systémique est donc d’utiliser un certain nombre d’outils conceptuels en tout état de cause, et en connaissant les limites, et sans rentrer à nouveau dans les débats connus. Il ne s’agit plus ni d’être Nominaliste, ni Réaliste ou Idéaliste, mais d’utiliser les outils conceptuels des deux à bon escient, au bon moment avec pragmatisme, et prudence vichienne… tout en étant conscient que nous sommes nous-mêmes pétris d'à priori, d’idéologies, et de cultures… et qu’il est donc impossible de faire « tabula rasa ».


SUITE du Blog : V-3) Rationalisme versus Empirisme

Benjamin de Mesnard

samedi 11 octobre 2008

II) Présentation détaillée de la Systémique (6/8)

II-4-2) Organisation :

Il faut d’abord souligner combien le concept d’organisation a été flou dans le passé et, notamment, dans le langage commun. La Systémique parvient à une définition très précise avec reconversion de la finalité métaphysique sous la forme de l’ergodicité systémique.
Selon R.A. Ochard en 1972, l’organisation d’un système est donc la collection de toutes les propriétés qui déterminent le comportement d’un système. Par propriétés, on désigne tout ce qui a été dit plus haut, à savoir : interactions, flux, sous-systèmes composants, ergodicité, etc...
Plus précisément, dans l’organisation nous allons trouver les éléments suivants :

a) Structure :

Une structure, c’est la somme des éléments (ou des sous-systèmes) et de leurs interrelations.
Il ne faut pas confondre structure et organisation, une structure - dans la Systémique - fait partie d’une organisation et non l’inverse. Une structure est (relativement) stable. Voir le paragraphe II-2-1 pour une description plus fine de la structure. C’est un point essentiel de ce qui sépare structuralisme de la Systémique. Le structuralisme a - comme son nom l’indique - mis l’accent sur la structure en mettant de côté les aspects organisationnels plus larges et sans voir que la structure ne décrit pas la totalité de ce que l’on appelle un système en Systémique.

b) Niveaux - strates :

Comme déjà introduit en (II-3) avec la récursivité, on appelle niveau l’ensemble des sous-systèmes composants les systèmes. Pour un de ces sous-systèmes, on pourra à nouveau trouver un ensemble de sous-sous-systèmes le composant, ce qui constituera le niveau N-2 d’organisation de notre système de départ et ainsi de suite. A l’inverse, il est possible d’opérer vers le haut par le sur-système dans lequel se trouve le système. Enfin, il est noter qu’un sous-système peut être considéré comme de niveau N1 d’un certain point de vue et de niveau N2 d’un autre, formant un implexe en analogie avec la généalogie.
Deux cas se présentent : niveaux ordonnés ou niveaux hiérarchiques.

b-1) Niveaux Ordonnés :

C’est le cas le plus simple donné plus haut. Un système d’ordre N sera alors plus globalisant que celui d’ordre N-1 et le contiendra logiquement. Une remarque : le niveau N aura tendance à être plus “ macroscopique ” que le niveau N-1, c’est à dire moins précis localement mais aussi plus général. Ces niveaux sont donc articulés entre eux, emboîtés, sans que l’on puisse encore dire qu’un niveau est « supérieur » à l’autre ou bien pilote un autre « inférieur » (voir b-2 ci-dessous). Par contre il est possible d’identifier une structure, une organisation à travers des niveaux ordonnés.


b-2) Niveaux hiérarchiques :

Les niveaux dits hiérarchiques sont par nature ordonnés. Cependant les niveaux hiérarchiques ajoutent une idée d’emboîtement vertical, un niveau donné étant rattaché, et surtout piloté par le niveau hiérarchique supérieur. Un niveau hiérarchique supérieur pourra se superposer, piloter, un ou plusieurs niveaux inférieurs.
Au sujet de la hiérarchie des niveaux, un théorème capital a été démontré en 1931 par K. Gödel. Une structure de niveau N peut être plus forte (au sens mathématique) qu’une autre de niveau inférieur. Précisons : les sous-systèmes du système de niveau N sont des cas particuliers du système de celui-ci. On a besoin pour les situer, d’en connaître l’environnement constitué par définition, par le système lui-même. Cela revient à dire que le niveau N devient nécessaire à la saturation du niveau N-1. Ou encore, que les indécidables du niveau N-1 ne peuvent être résolus que par des moyens « plus forts » que ceux fournis par lui, et donc, qu’il faut recourir aux moyens du niveau N. Encore : les invariants (au sens de la théorie des groupes) du sous-système sont plus nombreux que ceux du système puisque qu’il est plus faible, certaines propriétés du système se transformant en variables exogènes pour le sous-système. Pour résoudre ces variables exogènes il faut construire ou découvrir le niveau N.
C’est sur ce concept de niveaux forts englobant des niveaux faibles du théorème de Gödel qu’a été révolutionné le caractère hiérarchique des niveaux. Avec Gödel, il ne s’agit pas en effet d’une simple analyse des organisations comme on peut les trouver dans tous les livres de sociologie des organisations, mais bien d’une découverte essentielle servant directement à la Systémique. Nous reviendrons en (III-1-2) sur Gödel et ses liens de fait avec la Systémique.
Enfin il faut se méfier d’une hiérarchisation un peu trop rapide des niveaux, par exemple en génétique les rôles respectifs de l’ADN et de l’ARN dans un noyau de cellule vivante ont été très vite hiérarchisés entre eux : l’ADN code, l’ARN sert de messager, or on s’est aperçu récemment que leurs rôles respectifs étaient beaucoup plus complexes que cela.

b-3) Niveaux en réseaux :

Ces différents « niveaux » d’organisation peuvent s’interconnecter aussi en réseaux, et non seulement, en s’empilant ou en s’imbriquant comme les poupées russes, généralisant ainsi les implexes. Des inter-relations croisées peuvent ainsi s’entrelacer et s’enchevêtrer mutuellement. Rendant extrêmement complexe naturellement la compréhension et l’étude de tels systèmes. Malheureusement, la plupart des systèmes naturels sont organisés ainsi, expliquant, par là même, les difficultés des sciences de la vie en général à avancer, voir même à se faire admettre au statut de science au même titre que les mathématiques. Sans aller jusqu’à la biochimie, la chimie offre de multiples exemples d’interactions chimiques croisées complexes, faisant échouer pendant longtemps toutes possibilités de maîtrise par l’homme de ces processus.

b-4) Niveaux multi-hiérarchiques :

Pour être complet il faut combiner les niveaux simplement hiérarchiques où chaque niveau N est coiffé par un seul niveau N+1, avec les niveaux en réseaux. Il est en effet possible (et courant dans la nature) de trouver qu’un niveau N peut être coiffé de plusieurs niveaux N+1 en inter-relations entre eux (eux mêmes en réseau). Ainsi par exemple, l’individu être humain (niveau N) sera coiffé de plusieurs niveaux supérieurs N+1 inter agissants les uns sur les autres (société, psychologie, culture, etc. …). Dans une grande entreprise, il est utile d’identifier au-delà de la hiérarchie officielle (l’organigramme officiel), les organigrammes officieux où l’on trouvera un second, troisième, etc.… réseaux d’influences hiérarchisés internes ou externes à l’entreprise.
Une application de l’identification de niveaux a été trouvée en sociologie par exemple par le pouvoir de « décision » que possède un niveau sur un autre, ou encore en gestion avec les modules de pilotage. Cette idée est même employée par comme définition par J. Eugène. Ce qui nous amène à la :

c) Coordination et Pilotage :

Il est en effet nécessaire pour qu’un système puisse « fonctionner » correctement, que tous les sous-systèmes qui le composent s’intègrent en un tout, agissent de concert, en bref, se coordonnent entre eux. Pour atteindre cette intégration, un chef d’orchestre peut être requis. Ce rôle ne peut être rempli que par le système lui-même, c’est-à-dire par le niveau N par rapport aux niveaux N-1. Le système doit alors être hiérarchisé et surtout organisé. Le niveau N doit être plus fort (au sens de Gödel) que le niveau N-1. Le niveau N doit présenter la Variété requise pour « gérer » le niveau N-1 comme l’a démontré R.W. Ashby et A. Kolmogorov (voir (II-4-1-e)). On peut alors voir apparaître un système spécialisé dans le pilotage des systèmes peuplant les niveaux inférieurs. Ce système présentant nécessairement un niveau de variété supérieur à ceux des systèmes qu’il pilote, cela signifie que ce système doit présenter un niveau de complexité supérieur. On voit apparaître trois conséquences :
  • On retrouve par une autre approche le théorème de Gödel, comme dit plus haut le système pilote doit être en effet plus fort que les systèmes pilotés.
  • Le système pilote présentant une complexité/variété encore plus grande que les systèmes pilotés par lui, aura lui-même besoin d’être piloté à son tour. Ceci explique l’apparition de couches successives au-dessus du système pilote précité, dans un emboîtement (voir enchevêtrement par inter-relations) toujours plus complexes et difficiles à comprendre. Ainsi par exemple, le cerveau humain forme un système extrêmement complexe « pilotant » l’organisme, ce système nécessitant des systèmes aux niveaux supérieurs -tels que systèmes sociaux, psychologiques, spirituels, etc.…- pour parvenir à fonctionner.
d) Variété versus spécialisation :

Comme vu plus haut, la variété d’un système est le nombre d’états (de configurations) possibles que peut prendre ce système. C’est l’inverse de la spécialisation d’un système. C’est cette variété qui va permettre au système de répondre plus souplement, plus richement, aux changements son environnement, en un mot de s’adapter à celui-ci.
Toute la théorie de la sélection de Darwin repose sur ces deux notions antagonistes. En effet, pour qu’un système vivant survive, c’est-à-dire reste dans son domaine d’ergodicité, il faut qu’il soit adapté à son environnement. Il devra présenter une palette de réponses, de comportements, de programmes, potentiels, en nombre suffisant (et donc une variété suffisante), pour pouvoir supporter les changements qui affectent son milieu. Par contre pour survivre d’une manière la plus optimum dans un environnement donné et suffisamment stable, un système devra se spécialiser –et par la même perdre de sa variété- risquant de ne pouvoir se réadapter en cas de changement de son environnement.

SUITE du Blog : Les propriétés d'un système

Benjamin de Mesnard

samedi 4 octobre 2008

II) Présentation détaillée de la Systémique (5/8)

II-4) Les caractéristiques d’un système :
II-4-1) Stationnarité- Stabilité:
a) Ouvert/Fermé :

Un système se trouve évoluer au milieu d’un environnement qui lui est extérieur. Entre le milieu intérieur du système et cet environnement, il peut se produire des échanges de matières, d’énergies ou d’informations sous diverses formes et sous divers volume ou intensité. Un système sera dit fermé s’il n’y a aucun échange avec son milieu (les Monades « à volets clos » de Leibniz). Un système sera dit ouvert s’il existe des échanges avec son environnement. C’est en fait le cas de tous systèmes dignes de ce nom, en effet un système fermé est soumis à la loi de l’entropie et se dégrade plus ou moins rapidement vers un désordre de plus en plus prononcé pour être amené à disparaître tôt ou tard.

b) État d’Équilibre :

État dans lequel les entrées et sorties d’un système sont constantes dans le temps. Remarque : seul un système fermé peut se trouver dans un état d’équilibre vrai. Un système ouvert pourra se trouver d’une manière transitoire en équilibre, on parle alors d’équilibre dynamique. Une toupie à l’arrêt sera en équilibre vrai – ou équilibre stable –, une toupie en rotation sera en équilibre dynamique. En fait, tout système ouvert ne pourra se trouver en équilibre dynamique que par le jeu de flux de matières, énergies ou informations entrant ou sortant en permanence.

c) Domaine de stabilité :

Si, avec d’autres entrées et sorties, l’état du système tend dans le temps vers un état d’équilibre on dit que le système est stable. Si ces conditions sont satisfaites seulement pour certaines valeurs initiales, on parle de domaine de sensibilité aux conditions initiales. La théorie montre que, dans ce cas, le système doit comporter au moins une boucle de rétroaction, il est régulé.
Remarque : si un système ouvert ne peut être en état d’équilibre, il peut cependant être stable pourvu que sa régulation soit suffisamment efficace pour le faire tendre vers cet état d’équilibre. Certains parlent alors d’équilibre dynamique (voir b ci-dessus).

d) Ergodicité :

Par extension, tous les processus systémiques devenant indépendants au cours du temps de l’état initial du système, sont qualifiés d’ergodique. De tels systèmes obéissent alors à une loi de développement primant sur l’état initial, où les entrées perturbatrices transitoires (du moins dans certaines limites) seront résorbées ou absorbées par le système qui réussira à revenir alors à son « régime » précédent. On parle ainsi de « domaine d’ergodicité » pour une certaine plage ou série d’états initiaux, ou de perturbations amenant malgré tout toujours au même état d’équilibre dynamique. D’autres états initiaux amenant une évolution différente par une loi de développement différente n’appartiennent plus alors à ce domaine d’ergodicité. Enfin, il faut citer la durée d’ergodicité, qui peut être en effet transitoire, ainsi que la vitesse de retour à la « norme » du système après une perturbation. Il faut aussi signaler qu’un système peut posséder plusieurs domaines d’ergodicité. Un exemple de domaine d’ergodicité peut être trouvé dans la croissance d’un jeune être vivant. Une maladie ralentira la croissance du jeune être vivant, mais les courbes de tailles et de poids repartirons après celle-ci jusqu’au rattrapage du retard pris. Le retard de croissance est ainsi compensé car la maladie, la perturbation, restait en somme à l’intérieur du « domaine d’ergodicité » du jeune. Si, par contre, la maladie est trop grave ou trop longue, le rattrapage après guérison ne sera que partiel, un retard permanent résiduel subsistant à l’âge adulte.
Exemple d’un système à 3 domaines d’ergodicité :
e) Variété (requise) :

Concept clé de la Systémique inventé par W. Ross Ashby, et qui va de paire avec l'homéostasie, équivalente à l'équifinalité de la systémique. La Variété requise d’un système est le nombre d’états différents que peut présenter ce système. Elle se mesure comme l’entropie et l’information, en nombre de bits. Soit N le nombre d’états possibles d’un système S, sa variété V est : Vs = log2 N. Ainsi un système présentant 100 états possibles aura une variété Vs = log2 100, soit V = 6,64. Plus le nombre d’états possibles augmente, plus la variété du système augmentera, donnant une mesure exacte de l’information contenue dans celui-ci. Au contraire, plus l’entropie augmente, plus l’information diminue, et plus le nombre d’états possibles pour le système diminuera et, avec, la variété du système. La caractéristique de variété d’un système fourni un véritable outil de mesure de la complexité de celui-ci.
A. Kolmogorov a introduit une mesure de la complexité d’un système en mesurant celle de sa plus courte description. Introduite par l’informatique ceci revient à mesurer la longueur du programme capable de générer le système étudié, c’est à dire le nombre de bits de ce programme. La mesure de la complexité d’un système s sera notée K(s). Ces propriétés ont permis d’écrire les programmes de compression de données en informatique. La plupart des informations enregistrées présentent des redondances ou des répétitions, autrement dit la valeur K(s) des programmes les décrivant est nettement plus faible que leur longueur brute. Ainsi lorsqu’on écrit « cent 0 » cela est plus court à écrire que l’écriture brute de cent fois le chiffre « 0 » et cela sans perte de sens, d’information. Dans la pratique le calcul de K(s) est le plus souvent approximatif et, dans certain cas, impossible, notamment pour les systèmes très complexes, et donc où K(s) est très élevé. Léonid Levin a complété A. Kolmogorov par la mesure m(s) de la probabilité d’occurrence d’un système (programme) en fonction de K(s). L. Levin a montré que plus K(s) est élevé, plus la probabilité m(s) de trouver le système correspondant est faible. Ceci est conforme à l’intuition : les systèmes simples sont plus nombreux que les systèmes complexes. L. Levin explique par effet de bord l’attirance pour les approches réductionnistes : la puissance de l’esprit humain étant limitée, nous tentons de découper les systèmes complexes en plus petits systèmes plus probables, avec un K(s) plus faible, afin de pouvoir les comprendre. Elle justifie par ailleurs longtemps après G. d’Occam, son fameux rasoir : le rasoir d’Occam. Entre deux hypothèses, l’une complexe et l’autre moins, le rasoir d’Occam choisi celle la plus simple. Cette approche empirique, pragmatique, peut se justifier car l’hypothèse la moins complexe, donc avec un K(s) plus faible, présentera une probabilité m(s) plus élevée. Cela ne permet en rien de d’assurer la justesse de celle-ci, mais en l’étudiant en priorité le chercheur tend à accélérer ses travaux car c’est elle qui, statistiquement, sera la plus probable. On ici en quelque sorte sur une version faible du cartésianisme, considéré comme simple outils, étape du travail du scientifique, outils qu’il peut choisir d’utiliser ou non, mais non référence absolue de ce scientifique : c’est l’utilisation de la réduction comme outils, sans être réductionniste.

f) Régulation :

Assurée par les rétroactions qui ont lieu à l’intérieur du système ainsi qu’entre celui-ci et l’extérieur, l’environnement (concept très important, souvent incompris en économie). La régulation exprime quelque fois un pilotage du système par un autre système appelé système pilote, en fonction d’un but prédéfini comme on l’observe dans des systèmes artificiels intentionnels ou encore naturels. Exemple : régulation de la température du corps en fonction du but qui consiste à éviter de dépasser une plage de températures fatales à l’organisme. Cette régulation est alors ergodique. La constatation d’une régulation amène au débat sur la finalité du système, débat qui ne pose aucun problème pour les systèmes artificiels intentionnels (machines), mais qui fait problème pour beaucoup de scientifiques quand il s’agit des systèmes in-intentionnels (non intentionnels) naturels comme les êtres vivants, ou artificiels comme l'économie.
 Une précision sur laquelle nous reviendrons : on voit souvent des débats et oppositions violents en économie et en politique entre régulation et auto-régulation, le premier soutenu plutôt par des positions dites de gauche ou de droite (socialistes, marxistes ou toutes politiques dites « interventionnistes »), et le deuxième par des positions dites libérales ou encore anarchistes. On comprend l'origine de ces débats : un système, naturel ou artificiel, doit être régulé d'une manière ou d'une autre, sinon il courre à sa disparition pure et simple. Il doit donc être muni d'un systèmes de pilotages (central, et poussé à l'extrême le centralisme marxiste) ou de plusieurs répartis (décentralisation, subsidiarité) ou encore vu comme auto-régulé. Ces débats entre auto-régulation ou non vient donc de positions idéologiques très théoriques créées par la non-compréhension de ce besoin impératif de pilotage, et de la manière qu'il a de se réaliser. Si on croit que la régulation ne peut se faire que par un système de niveau supérieur, c’est l’approche transcendante ; ou bien si on pense qu'elle pourra être réalisée de l'intérieur et par le système lui-même, on parlera alors d’auto-régulation, c’est l’approche immanente, question centrale de la Systémique, on y reviendra.

A ce stade, il y a deux manière d'aborder la question : simple étude d'un système ou volonté d'action sur un système :
1. Étude : comme un chercheur étudiant un système, ce qui prime alors est la nécessité de prendre conscience qu'il y a une phase de découpe arbitraire (et à risques) du système à étudier, et aussi savoir quel est le point de vue adopté par le chercheur dans la modélisation qu'il construira.. Selon que l'on mettra ou non le (ou les) système(s) de pilotage(s) dans ou en dehors du système étudié, il sera alors de facto vu comme auto-régulé, ou bien régulé de l'extérieur. Mais il faut bien comprendre ici que l'on est plutôt face à une artefact de l'approche adoptée plutôt que face à un vrai débat. Ce sera le cas par exemple de la biologie ou de la médecine, où tous ces systèmes sont bien évidemment vus comme auto-régulés aux yeux du biologiste ou du médecin... par définition externe à l'organisme vivant étudié.
2. Action : trois cas possibles avec un médecin, un ingénieur ou un dirigeant politique. Un médecin ne pourra au mieux que tenter d'influencer un système à l'évidence auto-régulé, il n'y aura aucun débat sur ce point. Un ingénieur devra prendre des décisions sur la manière de piloter la machine, le système artificiel qu'il est en train de concevoir. Il pourra répartir ces fonctions de pilotage dans plusieurs systèmes, ou le centraliser. Mais il pourra toujours tester les résultats et choisir « tranquillement » celui qui lui semble le plus efficace, et ce sans l'intervention d'aucune idéologie. Un dirigeant politique par contre se trouve devant une société ou une économie, systèmes artificiels certes, mais non créés intentionnellement, non « délibérément construits », comme les voitures ou avions, de l'ingénieur. La tentation est alors grande (au risque d'être accusé d'inaction !) de considérer ces systèmes comme artificiels à la mode des machines conçues par un ingénieur, le débat s'emballe vite et se perd dans les idéologies. C'est la tentation dite planiste et scientiste par F. Hayek, c'est « La Présomption Fatale » [HAYEK F., 1988]. A cet égard, et comme souvent dans cet essai, n'oublions pas les préceptes de prudence et de juste milieu de J.B. Vico, et en gardant à l'esprit les phénomènes de rationalité limitée de H.A. Simon : la nature et les systèmes artificiels inintentionnels comme les société ou l'économie sont hyper-complexe, beaucoup plus que ce que nous imaginons, et nos esprits et moyens de connaissances limités. Nous y reviendrons.

g) Équifinalité ( ou homéostasie)

Avec l’ergodicité, nous avons vu qu’un système ouvert peut atteindre un certain état stationnaire, car alors le système ne variant plus, peut sembler indifférent au temps, et cela quel que soit l’état de départ et le chemin suivi pour y parvenir (dans le domaine d’ergodicité). Il est démontré, par contre, qu’un système fermé ne peut remplir ces conditions d’ergodicité, la deuxième loi de la thermodynamique s’appliquant alors, le système se désagrège continûment vers une entropie (désordre) maximale, équilibre véritable mais non état stationnaire. Une image de cet état d’équilibre sur entropie maximum est chez un être vivant la mort, état qui n’a rien n’à voir avec l’état ergodique dynamique de ce même être lorsqu’il était vivant. L. Von Bertalanffy [BERTALANFY, 1955, p76] et J. Eugène [EUGENE, Jacques, 1981, p67] qualifient d’équifinalité ce phénomène. Le seul cas où une finalité est admise clairement est celui de systèmes artificiels intentionnels (machines de main d’homme). Il s’avère qu’il est possible de donner une définition physique d’un sujet qui est considéré par les cartésiano-positivistes comme relevant du finalisme métaphysique ou preuve du vitalisme comme on disait au XIX° siècle. On peut citer par exemple “ l’entéléchie ”, sorte de démon (un peu comme celui de Maxwell) qui s’arrangeait pour que l’être étudié retrouve un état final prédestiné. Autre exemple, l’Essence de l’œuf est de devenir poule, explication n’expliquant rien en réalité puisque simplement tautologique. En effet dire que le propre (l’essence) de la pierre est d’aller vers le bas n’explique ni le pourquoi de la chute ni la loi suivie par celle-ci, ni même n’apporte le moindre éclaircissement sur le sujet puisque la même pierre ne tombera plus lorsqu’elle se trouvera dans un autre environnement (en état d’apesanteur dans un vaisseau spatial par exemple). Par contre, comme on le verra plus tard, le concept d’Essence manié avec prudence et rigueur peut être recadré et réutilisé par la Systémique. Enfin le concept de finalité –même pour les systèmes naturels ou les êtres vivants- peut (doit ?) être intégré clairement pour la Systémique, (voir Constructivisme épistémologique en (III-2-13)) dans une optique nommée projective : le système naturel démontrant une ergodicité peut être pensé comme poursuivant un projet. Cette approche est projective pour le Constructivisme, et revient à accepter délibérément le caractère finaliste de cet être vivant. A nouveau la Systémique rejoint Aristote sur ce point. La finalité du système est alors étudiée en tant que telle, sans fard et sans complexe positiviste, quitte à considérer cette approche comme juste un outil utile et pratique. Pour être complet, il faut préciser ici qu’il existe deux sortes de Constructivismes (qui complètent la Systémique) :
· l’ontologique qui voit des systèmes finalisés poursuivant des projets dans la nature, et
· le modélisateur qui ne voit ces systèmes finalisés projectifs que dans les modèles construits par le chercheur, sans préjuger de leur existence dans la nature, le réel. Dans ce cas tout ce qui a été dit ci-dessus doit être décliné sur les modèles construits à propos de l’objet naturel étudié.

Remarque :
Equifinalité et ergodicité sont liés, comme l’explicite H. Zwirn : « Quels que soient les moyens théoriques et techniques dont on disposera, quel que soit le temps qu’on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable de nos prédictions. […] Le phénomène de sensibilité aux conditions initiales nous dit que l’erreur initiale s’amplifie exponentiellement avec le temps. Il en résulte que plus les prédictions qu’on souhaite obtenir sont lointaines, plus il est nécessaire d’augmenter la précision avec laquelle on se donne les conditions initiales. » (H. Zwirn, « Les limites de la connaissance », Ed. Odile Jacob). D’un côté il y a un horizon de la prédiction, contrairement à ce que pensait Laplace. De l’autre côté, la croyance qu’en augmentant indéfiniment et jusqu’à son extrême la précision de la mesure, on augmente proportionnellement l’horizon de la prévision est inexacte dans la mesure où :
  • d’une part on se heurte –avant même d'atteindre les niveaux de l’incertitude quantique- au bruit ambiant de la mesure, à la précision de l’instrument de mesure, et à la possibilité de reproduire à l’identique deux fois les mêmes conditions de départ (du moins avec la même précision).
  • d’autre part cela revient à ignorer précisément les phénomènes d’équifinalités, où s’il on peut dire, il est possible de prendre le problème par l’autre bout en renonçant à améliorer la précision des conditions de départ. Au contraire, il suffit alors de prendre en considération les plages d’équilibres dynamiques ponctués « finales » du système (ses différentes équifinalités), pour remonter à leurs domaines d’ergodicités correspondantes aux conditions de départs. C’est ce que l’on appelle les attracteurs étranges, où pour certains domaines d’ergodicité des conditions de départ on arrive à certains domaines d’équilibres finaux « comme si » ceux attiraient ceux-là. A un certain nombre de domaines d’ergodicités, correspond certains domaines d’équilibres en équifinalité. Inversement en remontant depuis un domaine d’équifinalité particulier (un domaine de stabilisation du système au bout d’un certain temps) on peut remonter à un certain nombre de domaines de conditions initiales correspondantes dites ergodiques.
SUITE du Blog :  Les caractéristiques d'un système (2)
Benjamin de Mesnard