Affichage des articles dont le libellé est Variété. Afficher tous les articles
Affichage des articles dont le libellé est Variété. Afficher tous les articles

samedi 11 octobre 2008

II) Présentation détaillée de la Systémique (6/8)

II-4-2) Organisation :

Il faut d’abord souligner combien le concept d’organisation a été flou dans le passé et, notamment, dans le langage commun. La Systémique parvient à une définition très précise avec reconversion de la finalité métaphysique sous la forme de l’ergodicité systémique.
Selon R.A. Ochard en 1972, l’organisation d’un système est donc la collection de toutes les propriétés qui déterminent le comportement d’un système. Par propriétés, on désigne tout ce qui a été dit plus haut, à savoir : interactions, flux, sous-systèmes composants, ergodicité, etc...
Plus précisément, dans l’organisation nous allons trouver les éléments suivants :

a) Structure :

Une structure, c’est la somme des éléments (ou des sous-systèmes) et de leurs interrelations.
Il ne faut pas confondre structure et organisation, une structure - dans la Systémique - fait partie d’une organisation et non l’inverse. Une structure est (relativement) stable. Voir le paragraphe II-2-1 pour une description plus fine de la structure. C’est un point essentiel de ce qui sépare structuralisme de la Systémique. Le structuralisme a - comme son nom l’indique - mis l’accent sur la structure en mettant de côté les aspects organisationnels plus larges et sans voir que la structure ne décrit pas la totalité de ce que l’on appelle un système en Systémique.

b) Niveaux - strates :

Comme déjà introduit en (II-3) avec la récursivité, on appelle niveau l’ensemble des sous-systèmes composants les systèmes. Pour un de ces sous-systèmes, on pourra à nouveau trouver un ensemble de sous-sous-systèmes le composant, ce qui constituera le niveau N-2 d’organisation de notre système de départ et ainsi de suite. A l’inverse, il est possible d’opérer vers le haut par le sur-système dans lequel se trouve le système. Enfin, il est noter qu’un sous-système peut être considéré comme de niveau N1 d’un certain point de vue et de niveau N2 d’un autre, formant un implexe en analogie avec la généalogie.
Deux cas se présentent : niveaux ordonnés ou niveaux hiérarchiques.

b-1) Niveaux Ordonnés :

C’est le cas le plus simple donné plus haut. Un système d’ordre N sera alors plus globalisant que celui d’ordre N-1 et le contiendra logiquement. Une remarque : le niveau N aura tendance à être plus “ macroscopique ” que le niveau N-1, c’est à dire moins précis localement mais aussi plus général. Ces niveaux sont donc articulés entre eux, emboîtés, sans que l’on puisse encore dire qu’un niveau est « supérieur » à l’autre ou bien pilote un autre « inférieur » (voir b-2 ci-dessous). Par contre il est possible d’identifier une structure, une organisation à travers des niveaux ordonnés.


b-2) Niveaux hiérarchiques :

Les niveaux dits hiérarchiques sont par nature ordonnés. Cependant les niveaux hiérarchiques ajoutent une idée d’emboîtement vertical, un niveau donné étant rattaché, et surtout piloté par le niveau hiérarchique supérieur. Un niveau hiérarchique supérieur pourra se superposer, piloter, un ou plusieurs niveaux inférieurs.
Au sujet de la hiérarchie des niveaux, un théorème capital a été démontré en 1931 par K. Gödel. Une structure de niveau N peut être plus forte (au sens mathématique) qu’une autre de niveau inférieur. Précisons : les sous-systèmes du système de niveau N sont des cas particuliers du système de celui-ci. On a besoin pour les situer, d’en connaître l’environnement constitué par définition, par le système lui-même. Cela revient à dire que le niveau N devient nécessaire à la saturation du niveau N-1. Ou encore, que les indécidables du niveau N-1 ne peuvent être résolus que par des moyens « plus forts » que ceux fournis par lui, et donc, qu’il faut recourir aux moyens du niveau N. Encore : les invariants (au sens de la théorie des groupes) du sous-système sont plus nombreux que ceux du système puisque qu’il est plus faible, certaines propriétés du système se transformant en variables exogènes pour le sous-système. Pour résoudre ces variables exogènes il faut construire ou découvrir le niveau N.
C’est sur ce concept de niveaux forts englobant des niveaux faibles du théorème de Gödel qu’a été révolutionné le caractère hiérarchique des niveaux. Avec Gödel, il ne s’agit pas en effet d’une simple analyse des organisations comme on peut les trouver dans tous les livres de sociologie des organisations, mais bien d’une découverte essentielle servant directement à la Systémique. Nous reviendrons en (III-1-2) sur Gödel et ses liens de fait avec la Systémique.
Enfin il faut se méfier d’une hiérarchisation un peu trop rapide des niveaux, par exemple en génétique les rôles respectifs de l’ADN et de l’ARN dans un noyau de cellule vivante ont été très vite hiérarchisés entre eux : l’ADN code, l’ARN sert de messager, or on s’est aperçu récemment que leurs rôles respectifs étaient beaucoup plus complexes que cela.

b-3) Niveaux en réseaux :

Ces différents « niveaux » d’organisation peuvent s’interconnecter aussi en réseaux, et non seulement, en s’empilant ou en s’imbriquant comme les poupées russes, généralisant ainsi les implexes. Des inter-relations croisées peuvent ainsi s’entrelacer et s’enchevêtrer mutuellement. Rendant extrêmement complexe naturellement la compréhension et l’étude de tels systèmes. Malheureusement, la plupart des systèmes naturels sont organisés ainsi, expliquant, par là même, les difficultés des sciences de la vie en général à avancer, voir même à se faire admettre au statut de science au même titre que les mathématiques. Sans aller jusqu’à la biochimie, la chimie offre de multiples exemples d’interactions chimiques croisées complexes, faisant échouer pendant longtemps toutes possibilités de maîtrise par l’homme de ces processus.

b-4) Niveaux multi-hiérarchiques :

Pour être complet il faut combiner les niveaux simplement hiérarchiques où chaque niveau N est coiffé par un seul niveau N+1, avec les niveaux en réseaux. Il est en effet possible (et courant dans la nature) de trouver qu’un niveau N peut être coiffé de plusieurs niveaux N+1 en inter-relations entre eux (eux mêmes en réseau). Ainsi par exemple, l’individu être humain (niveau N) sera coiffé de plusieurs niveaux supérieurs N+1 inter agissants les uns sur les autres (société, psychologie, culture, etc. …). Dans une grande entreprise, il est utile d’identifier au-delà de la hiérarchie officielle (l’organigramme officiel), les organigrammes officieux où l’on trouvera un second, troisième, etc.… réseaux d’influences hiérarchisés internes ou externes à l’entreprise.
Une application de l’identification de niveaux a été trouvée en sociologie par exemple par le pouvoir de « décision » que possède un niveau sur un autre, ou encore en gestion avec les modules de pilotage. Cette idée est même employée par comme définition par J. Eugène. Ce qui nous amène à la :

c) Coordination et Pilotage :

Il est en effet nécessaire pour qu’un système puisse « fonctionner » correctement, que tous les sous-systèmes qui le composent s’intègrent en un tout, agissent de concert, en bref, se coordonnent entre eux. Pour atteindre cette intégration, un chef d’orchestre peut être requis. Ce rôle ne peut être rempli que par le système lui-même, c’est-à-dire par le niveau N par rapport aux niveaux N-1. Le système doit alors être hiérarchisé et surtout organisé. Le niveau N doit être plus fort (au sens de Gödel) que le niveau N-1. Le niveau N doit présenter la Variété requise pour « gérer » le niveau N-1 comme l’a démontré R.W. Ashby et A. Kolmogorov (voir (II-4-1-e)). On peut alors voir apparaître un système spécialisé dans le pilotage des systèmes peuplant les niveaux inférieurs. Ce système présentant nécessairement un niveau de variété supérieur à ceux des systèmes qu’il pilote, cela signifie que ce système doit présenter un niveau de complexité supérieur. On voit apparaître trois conséquences :
  • On retrouve par une autre approche le théorème de Gödel, comme dit plus haut le système pilote doit être en effet plus fort que les systèmes pilotés.
  • Le système pilote présentant une complexité/variété encore plus grande que les systèmes pilotés par lui, aura lui-même besoin d’être piloté à son tour. Ceci explique l’apparition de couches successives au-dessus du système pilote précité, dans un emboîtement (voir enchevêtrement par inter-relations) toujours plus complexes et difficiles à comprendre. Ainsi par exemple, le cerveau humain forme un système extrêmement complexe « pilotant » l’organisme, ce système nécessitant des systèmes aux niveaux supérieurs -tels que systèmes sociaux, psychologiques, spirituels, etc.…- pour parvenir à fonctionner.
d) Variété versus spécialisation :

Comme vu plus haut, la variété d’un système est le nombre d’états (de configurations) possibles que peut prendre ce système. C’est l’inverse de la spécialisation d’un système. C’est cette variété qui va permettre au système de répondre plus souplement, plus richement, aux changements son environnement, en un mot de s’adapter à celui-ci.
Toute la théorie de la sélection de Darwin repose sur ces deux notions antagonistes. En effet, pour qu’un système vivant survive, c’est-à-dire reste dans son domaine d’ergodicité, il faut qu’il soit adapté à son environnement. Il devra présenter une palette de réponses, de comportements, de programmes, potentiels, en nombre suffisant (et donc une variété suffisante), pour pouvoir supporter les changements qui affectent son milieu. Par contre pour survivre d’une manière la plus optimum dans un environnement donné et suffisamment stable, un système devra se spécialiser –et par la même perdre de sa variété- risquant de ne pouvoir se réadapter en cas de changement de son environnement.

SUITE du Blog : Les propriétés d'un système

Benjamin de Mesnard

samedi 4 octobre 2008

II) Présentation détaillée de la Systémique (5/8)

II-4) Les caractéristiques d’un système :
II-4-1) Stationnarité- Stabilité:
a) Ouvert/Fermé :

Un système se trouve évoluer au milieu d’un environnement qui lui est extérieur. Entre le milieu intérieur du système et cet environnement, il peut se produire des échanges de matières, d’énergies ou d’informations sous diverses formes et sous divers volume ou intensité. Un système sera dit fermé s’il n’y a aucun échange avec son milieu (les Monades « à volets clos » de Leibniz). Un système sera dit ouvert s’il existe des échanges avec son environnement. C’est en fait le cas de tous systèmes dignes de ce nom, en effet un système fermé est soumis à la loi de l’entropie et se dégrade plus ou moins rapidement vers un désordre de plus en plus prononcé pour être amené à disparaître tôt ou tard.

b) État d’Équilibre :

État dans lequel les entrées et sorties d’un système sont constantes dans le temps. Remarque : seul un système fermé peut se trouver dans un état d’équilibre vrai. Un système ouvert pourra se trouver d’une manière transitoire en équilibre, on parle alors d’équilibre dynamique. Une toupie à l’arrêt sera en équilibre vrai – ou équilibre stable –, une toupie en rotation sera en équilibre dynamique. En fait, tout système ouvert ne pourra se trouver en équilibre dynamique que par le jeu de flux de matières, énergies ou informations entrant ou sortant en permanence.

c) Domaine de stabilité :

Si, avec d’autres entrées et sorties, l’état du système tend dans le temps vers un état d’équilibre on dit que le système est stable. Si ces conditions sont satisfaites seulement pour certaines valeurs initiales, on parle de domaine de sensibilité aux conditions initiales. La théorie montre que, dans ce cas, le système doit comporter au moins une boucle de rétroaction, il est régulé.
Remarque : si un système ouvert ne peut être en état d’équilibre, il peut cependant être stable pourvu que sa régulation soit suffisamment efficace pour le faire tendre vers cet état d’équilibre. Certains parlent alors d’équilibre dynamique (voir b ci-dessus).

d) Ergodicité :

Par extension, tous les processus systémiques devenant indépendants au cours du temps de l’état initial du système, sont qualifiés d’ergodique. De tels systèmes obéissent alors à une loi de développement primant sur l’état initial, où les entrées perturbatrices transitoires (du moins dans certaines limites) seront résorbées ou absorbées par le système qui réussira à revenir alors à son « régime » précédent. On parle ainsi de « domaine d’ergodicité » pour une certaine plage ou série d’états initiaux, ou de perturbations amenant malgré tout toujours au même état d’équilibre dynamique. D’autres états initiaux amenant une évolution différente par une loi de développement différente n’appartiennent plus alors à ce domaine d’ergodicité. Enfin, il faut citer la durée d’ergodicité, qui peut être en effet transitoire, ainsi que la vitesse de retour à la « norme » du système après une perturbation. Il faut aussi signaler qu’un système peut posséder plusieurs domaines d’ergodicité. Un exemple de domaine d’ergodicité peut être trouvé dans la croissance d’un jeune être vivant. Une maladie ralentira la croissance du jeune être vivant, mais les courbes de tailles et de poids repartirons après celle-ci jusqu’au rattrapage du retard pris. Le retard de croissance est ainsi compensé car la maladie, la perturbation, restait en somme à l’intérieur du « domaine d’ergodicité » du jeune. Si, par contre, la maladie est trop grave ou trop longue, le rattrapage après guérison ne sera que partiel, un retard permanent résiduel subsistant à l’âge adulte.
Exemple d’un système à 3 domaines d’ergodicité :
e) Variété (requise) :

Concept clé de la Systémique inventé par W. Ross Ashby, et qui va de paire avec l'homéostasie, équivalente à l'équifinalité de la systémique. La Variété requise d’un système est le nombre d’états différents que peut présenter ce système. Elle se mesure comme l’entropie et l’information, en nombre de bits. Soit N le nombre d’états possibles d’un système S, sa variété V est : Vs = log2 N. Ainsi un système présentant 100 états possibles aura une variété Vs = log2 100, soit V = 6,64. Plus le nombre d’états possibles augmente, plus la variété du système augmentera, donnant une mesure exacte de l’information contenue dans celui-ci. Au contraire, plus l’entropie augmente, plus l’information diminue, et plus le nombre d’états possibles pour le système diminuera et, avec, la variété du système. La caractéristique de variété d’un système fourni un véritable outil de mesure de la complexité de celui-ci.
A. Kolmogorov a introduit une mesure de la complexité d’un système en mesurant celle de sa plus courte description. Introduite par l’informatique ceci revient à mesurer la longueur du programme capable de générer le système étudié, c’est à dire le nombre de bits de ce programme. La mesure de la complexité d’un système s sera notée K(s). Ces propriétés ont permis d’écrire les programmes de compression de données en informatique. La plupart des informations enregistrées présentent des redondances ou des répétitions, autrement dit la valeur K(s) des programmes les décrivant est nettement plus faible que leur longueur brute. Ainsi lorsqu’on écrit « cent 0 » cela est plus court à écrire que l’écriture brute de cent fois le chiffre « 0 » et cela sans perte de sens, d’information. Dans la pratique le calcul de K(s) est le plus souvent approximatif et, dans certain cas, impossible, notamment pour les systèmes très complexes, et donc où K(s) est très élevé. Léonid Levin a complété A. Kolmogorov par la mesure m(s) de la probabilité d’occurrence d’un système (programme) en fonction de K(s). L. Levin a montré que plus K(s) est élevé, plus la probabilité m(s) de trouver le système correspondant est faible. Ceci est conforme à l’intuition : les systèmes simples sont plus nombreux que les systèmes complexes. L. Levin explique par effet de bord l’attirance pour les approches réductionnistes : la puissance de l’esprit humain étant limitée, nous tentons de découper les systèmes complexes en plus petits systèmes plus probables, avec un K(s) plus faible, afin de pouvoir les comprendre. Elle justifie par ailleurs longtemps après G. d’Occam, son fameux rasoir : le rasoir d’Occam. Entre deux hypothèses, l’une complexe et l’autre moins, le rasoir d’Occam choisi celle la plus simple. Cette approche empirique, pragmatique, peut se justifier car l’hypothèse la moins complexe, donc avec un K(s) plus faible, présentera une probabilité m(s) plus élevée. Cela ne permet en rien de d’assurer la justesse de celle-ci, mais en l’étudiant en priorité le chercheur tend à accélérer ses travaux car c’est elle qui, statistiquement, sera la plus probable. On ici en quelque sorte sur une version faible du cartésianisme, considéré comme simple outils, étape du travail du scientifique, outils qu’il peut choisir d’utiliser ou non, mais non référence absolue de ce scientifique : c’est l’utilisation de la réduction comme outils, sans être réductionniste.

f) Régulation :

Assurée par les rétroactions qui ont lieu à l’intérieur du système ainsi qu’entre celui-ci et l’extérieur, l’environnement (concept très important, souvent incompris en économie). La régulation exprime quelque fois un pilotage du système par un autre système appelé système pilote, en fonction d’un but prédéfini comme on l’observe dans des systèmes artificiels intentionnels ou encore naturels. Exemple : régulation de la température du corps en fonction du but qui consiste à éviter de dépasser une plage de températures fatales à l’organisme. Cette régulation est alors ergodique. La constatation d’une régulation amène au débat sur la finalité du système, débat qui ne pose aucun problème pour les systèmes artificiels intentionnels (machines), mais qui fait problème pour beaucoup de scientifiques quand il s’agit des systèmes in-intentionnels (non intentionnels) naturels comme les êtres vivants, ou artificiels comme l'économie.
 Une précision sur laquelle nous reviendrons : on voit souvent des débats et oppositions violents en économie et en politique entre régulation et auto-régulation, le premier soutenu plutôt par des positions dites de gauche ou de droite (socialistes, marxistes ou toutes politiques dites « interventionnistes »), et le deuxième par des positions dites libérales ou encore anarchistes. On comprend l'origine de ces débats : un système, naturel ou artificiel, doit être régulé d'une manière ou d'une autre, sinon il courre à sa disparition pure et simple. Il doit donc être muni d'un systèmes de pilotages (central, et poussé à l'extrême le centralisme marxiste) ou de plusieurs répartis (décentralisation, subsidiarité) ou encore vu comme auto-régulé. Ces débats entre auto-régulation ou non vient donc de positions idéologiques très théoriques créées par la non-compréhension de ce besoin impératif de pilotage, et de la manière qu'il a de se réaliser. Si on croit que la régulation ne peut se faire que par un système de niveau supérieur, c’est l’approche transcendante ; ou bien si on pense qu'elle pourra être réalisée de l'intérieur et par le système lui-même, on parlera alors d’auto-régulation, c’est l’approche immanente, question centrale de la Systémique, on y reviendra.

A ce stade, il y a deux manière d'aborder la question : simple étude d'un système ou volonté d'action sur un système :
1. Étude : comme un chercheur étudiant un système, ce qui prime alors est la nécessité de prendre conscience qu'il y a une phase de découpe arbitraire (et à risques) du système à étudier, et aussi savoir quel est le point de vue adopté par le chercheur dans la modélisation qu'il construira.. Selon que l'on mettra ou non le (ou les) système(s) de pilotage(s) dans ou en dehors du système étudié, il sera alors de facto vu comme auto-régulé, ou bien régulé de l'extérieur. Mais il faut bien comprendre ici que l'on est plutôt face à une artefact de l'approche adoptée plutôt que face à un vrai débat. Ce sera le cas par exemple de la biologie ou de la médecine, où tous ces systèmes sont bien évidemment vus comme auto-régulés aux yeux du biologiste ou du médecin... par définition externe à l'organisme vivant étudié.
2. Action : trois cas possibles avec un médecin, un ingénieur ou un dirigeant politique. Un médecin ne pourra au mieux que tenter d'influencer un système à l'évidence auto-régulé, il n'y aura aucun débat sur ce point. Un ingénieur devra prendre des décisions sur la manière de piloter la machine, le système artificiel qu'il est en train de concevoir. Il pourra répartir ces fonctions de pilotage dans plusieurs systèmes, ou le centraliser. Mais il pourra toujours tester les résultats et choisir « tranquillement » celui qui lui semble le plus efficace, et ce sans l'intervention d'aucune idéologie. Un dirigeant politique par contre se trouve devant une société ou une économie, systèmes artificiels certes, mais non créés intentionnellement, non « délibérément construits », comme les voitures ou avions, de l'ingénieur. La tentation est alors grande (au risque d'être accusé d'inaction !) de considérer ces systèmes comme artificiels à la mode des machines conçues par un ingénieur, le débat s'emballe vite et se perd dans les idéologies. C'est la tentation dite planiste et scientiste par F. Hayek, c'est « La Présomption Fatale » [HAYEK F., 1988]. A cet égard, et comme souvent dans cet essai, n'oublions pas les préceptes de prudence et de juste milieu de J.B. Vico, et en gardant à l'esprit les phénomènes de rationalité limitée de H.A. Simon : la nature et les systèmes artificiels inintentionnels comme les société ou l'économie sont hyper-complexe, beaucoup plus que ce que nous imaginons, et nos esprits et moyens de connaissances limités. Nous y reviendrons.

g) Équifinalité ( ou homéostasie)

Avec l’ergodicité, nous avons vu qu’un système ouvert peut atteindre un certain état stationnaire, car alors le système ne variant plus, peut sembler indifférent au temps, et cela quel que soit l’état de départ et le chemin suivi pour y parvenir (dans le domaine d’ergodicité). Il est démontré, par contre, qu’un système fermé ne peut remplir ces conditions d’ergodicité, la deuxième loi de la thermodynamique s’appliquant alors, le système se désagrège continûment vers une entropie (désordre) maximale, équilibre véritable mais non état stationnaire. Une image de cet état d’équilibre sur entropie maximum est chez un être vivant la mort, état qui n’a rien n’à voir avec l’état ergodique dynamique de ce même être lorsqu’il était vivant. L. Von Bertalanffy [BERTALANFY, 1955, p76] et J. Eugène [EUGENE, Jacques, 1981, p67] qualifient d’équifinalité ce phénomène. Le seul cas où une finalité est admise clairement est celui de systèmes artificiels intentionnels (machines de main d’homme). Il s’avère qu’il est possible de donner une définition physique d’un sujet qui est considéré par les cartésiano-positivistes comme relevant du finalisme métaphysique ou preuve du vitalisme comme on disait au XIX° siècle. On peut citer par exemple “ l’entéléchie ”, sorte de démon (un peu comme celui de Maxwell) qui s’arrangeait pour que l’être étudié retrouve un état final prédestiné. Autre exemple, l’Essence de l’œuf est de devenir poule, explication n’expliquant rien en réalité puisque simplement tautologique. En effet dire que le propre (l’essence) de la pierre est d’aller vers le bas n’explique ni le pourquoi de la chute ni la loi suivie par celle-ci, ni même n’apporte le moindre éclaircissement sur le sujet puisque la même pierre ne tombera plus lorsqu’elle se trouvera dans un autre environnement (en état d’apesanteur dans un vaisseau spatial par exemple). Par contre, comme on le verra plus tard, le concept d’Essence manié avec prudence et rigueur peut être recadré et réutilisé par la Systémique. Enfin le concept de finalité –même pour les systèmes naturels ou les êtres vivants- peut (doit ?) être intégré clairement pour la Systémique, (voir Constructivisme épistémologique en (III-2-13)) dans une optique nommée projective : le système naturel démontrant une ergodicité peut être pensé comme poursuivant un projet. Cette approche est projective pour le Constructivisme, et revient à accepter délibérément le caractère finaliste de cet être vivant. A nouveau la Systémique rejoint Aristote sur ce point. La finalité du système est alors étudiée en tant que telle, sans fard et sans complexe positiviste, quitte à considérer cette approche comme juste un outil utile et pratique. Pour être complet, il faut préciser ici qu’il existe deux sortes de Constructivismes (qui complètent la Systémique) :
· l’ontologique qui voit des systèmes finalisés poursuivant des projets dans la nature, et
· le modélisateur qui ne voit ces systèmes finalisés projectifs que dans les modèles construits par le chercheur, sans préjuger de leur existence dans la nature, le réel. Dans ce cas tout ce qui a été dit ci-dessus doit être décliné sur les modèles construits à propos de l’objet naturel étudié.

Remarque :
Equifinalité et ergodicité sont liés, comme l’explicite H. Zwirn : « Quels que soient les moyens théoriques et techniques dont on disposera, quel que soit le temps qu’on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable de nos prédictions. […] Le phénomène de sensibilité aux conditions initiales nous dit que l’erreur initiale s’amplifie exponentiellement avec le temps. Il en résulte que plus les prédictions qu’on souhaite obtenir sont lointaines, plus il est nécessaire d’augmenter la précision avec laquelle on se donne les conditions initiales. » (H. Zwirn, « Les limites de la connaissance », Ed. Odile Jacob). D’un côté il y a un horizon de la prédiction, contrairement à ce que pensait Laplace. De l’autre côté, la croyance qu’en augmentant indéfiniment et jusqu’à son extrême la précision de la mesure, on augmente proportionnellement l’horizon de la prévision est inexacte dans la mesure où :
  • d’une part on se heurte –avant même d'atteindre les niveaux de l’incertitude quantique- au bruit ambiant de la mesure, à la précision de l’instrument de mesure, et à la possibilité de reproduire à l’identique deux fois les mêmes conditions de départ (du moins avec la même précision).
  • d’autre part cela revient à ignorer précisément les phénomènes d’équifinalités, où s’il on peut dire, il est possible de prendre le problème par l’autre bout en renonçant à améliorer la précision des conditions de départ. Au contraire, il suffit alors de prendre en considération les plages d’équilibres dynamiques ponctués « finales » du système (ses différentes équifinalités), pour remonter à leurs domaines d’ergodicités correspondantes aux conditions de départs. C’est ce que l’on appelle les attracteurs étranges, où pour certains domaines d’ergodicité des conditions de départ on arrive à certains domaines d’équilibres finaux « comme si » ceux attiraient ceux-là. A un certain nombre de domaines d’ergodicités, correspond certains domaines d’équilibres en équifinalité. Inversement en remontant depuis un domaine d’équifinalité particulier (un domaine de stabilisation du système au bout d’un certain temps) on peut remonter à un certain nombre de domaines de conditions initiales correspondantes dites ergodiques.
SUITE du Blog :  Les caractéristiques d'un système (2)
Benjamin de Mesnard