Affichage des articles dont le libellé est Gödel. Afficher tous les articles
Affichage des articles dont le libellé est Gödel. Afficher tous les articles

samedi 17 janvier 2009

III) Théories alliées à la Systémique (Popper)

III-2-8) Karl Popper l'épistémologue

K. Popper a tenté de mettre sur pied une méthode pertinente dans le but de tester les théories afin de savoir si elles sont scientifiques ou non. K. Popper -en s’appuyant sur David Hume- a voulu montrer quels étaient les critères définissant la science de la non-science, ces critères sont qualifiés de critères de démarcation. En cela, il s’est opposé au Cercle de Vienne (Schlick, Carnap, Hahn, Neurath, etc…) et à leurs théories connues sous le nom de Positivisme Logique.
Le Positivisme Logique est un Positivisme corrigé de ses excès, car devenu idéologique voir mystique avec A. Comte. Le Positivisme Logique est résolument réductionniste et vérificationniste. Il est réductionniste car –comme le Positivisme- il est analytique et cartésien. Il est vérificationniste car il affirme comme critère de démarcation entre science et non-science que l’on doit pouvoir vérifier, c'est-à-dire reproduire à tout moment, une expérience pour vérifier que l’on obtient bien à nouveau sous les mêmes conditions, les mêmes résultats. On peut alors en déduire qu’une loi scientifique existe, que la Théorie est Vraie (avec un « V» majuscule). On retrouve ici le concept de « Présomption Fatale » chère à F. Hayek : la certitude de l'atteinte de la Vérité en science, présomption fatale qui se retrouve dans la société avec les historicistes Hégéliens ou Marxistes par exemple et autres Constructivistes Sociaux qui croient savoir reconstruire la société à zéro à partir de leurs Idées décrétés comme Vraies. K. Popper y revient, voir (III-2-15). Ainsi sur la certitude que les connaissances scientifiques aboutissent à la Vérité grâce au matérialisme scientifique, on peut donner ce mémoire signé Staline citant Lénine : « Lénine accuse de fidéisme Bogdanov, Bazarov, Iouchkévitch et les autres partisans de Mach ; il défend la thèse matérialiste bien connue d'après laquelle nos connaissances scientifiques sur les lois de la nature sont valables, et les lois scientifiques sont des vérités objectives ; il dit à ce sujet : « Le fidéisme contemporain ne répudie nullement la science ; il n'en répudie que les "prétentions excessives", à savoir la prétention de découvrir la vérité objective. S'il existe une vérité objective (comme le pensent les matérialistes), si les sciences de la nature, reflétant le monde extérieur dans l'"expérience" humaine, sont seules capables de nous donner la vérité objective, tout fidéisme doit être absolument rejeté. » (Matérialisme et empiriocriticisme, t. XIII, p.102.) ». [STALINE, J.V., Matérialisme dialectique et Matérialisme historique, p 8, 1938]. Bizarrement d’ailleurs Lénine et Staline assimilent d’une manière incompréhensibles le refus de croire que les sciences donnent des théories Vraies au fidéisme, c’est à dire à la Foi religieuse, elle qui bien au contraire prétend détenir la Vérité par la Foi et les saintes écritures… tout comme le marxisme ! 
Pour K. Popper, ce critère vérificationniste trouve ses limites dans l’impossibilité –au contraire- d’affirmer qu’une théorie est vraie, même après un très grand nombre d’expériences répétées confirmant le résultat attendu. Rien ne dit en effet que le Nième test ne vas donner un résultat en contradiction avec une autre prédiction issue de la théorie, qui se trouve donc alors réfutée. Il faut aussi combattre le syndrome de l' explication "ad-hoc" donnée après coup pour expliquer pourquoi lors de ce dernier test la théorie a échouée.  Il faut donc trouver un autre critère que celui des vérificationnistes pour qui il suffit d'avoir un grand nombre de tests, d'expériences confirmant une théorie pour la déclarer "vraie"... et cesser les tests, les expériences. Certains pourront aller jusqu'à délibérément ignorer, passer sous silence, les tests ayant démontré que la théorie est fausse : c'est ce que font graphologie, astrologie, ou les utopies (Nazisme, Marxisme...) etc... mais aussi régulièrement des scientifiques refusant une remise en cause par trop profonde de leur paradigme et du travail de toute une vie … En fait, pour K. Popper, une théorie est scientifique lorsqu’elle revendique un statut universel ET se donne les moyens d’être démontrée fausse si jamais il s’avère qu’elle l’est : 
 
une théorie scientifique doit donc être intrinsèquement réfutable. 
 
A l’inverse, on ne peut jamais démontrer qu’une théorie scientifique est vraie. Ainsi une théorie scientifique offrira d’emblée les moyens de la tester, de la soumettre à un certain nombre de tests expérimentaux, afin de démontrer qu’elle est fausse (si elle l’est) : c’est le concept traduit à tort en français de « falsification de la théorie », et qu’il est plus propre de traduire par « réfutabilité de la théorie ». Car il s'agit bien ici, non pas de produire un faux document (falsification), mais de réfuter une théorie. Karl Popper insiste sur le fait que ce n’est pas parce qu’une théorie a passé avec succès cent tests de réfutations qu’elle pourra être considérée comme vraie, ce que le grand public a souvent tendance à croire. Une théorie pourra aussi être considérée à tort comme vraie parce qu’elle a passé avec succès un certain nombre (voire un grand nombre) de tests expérimentaux effectués avec une certaine précision due aux outils de mesure de l’époque. Mais elle pourra être mise ensuite en défaut par le même test effectué ultérieurement avec des instruments plus précis, ou bien en tombant sur un cas de figure différent. Par exemple la théorie de la gravitation de Newton était considérée comme « vraie » avec la précision des instruments de mesure de la fin du XVIII° siècle. Elle s’est révélée fausse dans l’absolu, avec la précision plus élevée des instruments du XX° siècle, lorsque les effets relativistes de la théorie d’Einstein ont pu être mis en évidence. Il est maintenant admis -par seule commodité- de dire que la théorie de Newton est « vraie avec X % de marge d’erreur, ou d’approximation », mais cette approche doit être absolument rejetée.
Attention, cette notion de « vérité d’une théorie » a été approfondi par ailleurs, notamment par le Constructivisme épistémologique, et il n’est pas question ici de soutenir qu’Einstein est simplement plus exact que Newton, car on a bien assisté avec la Théorie de la Relativité à l’apparition d’un nouveau paradigme –au sens de Th. Kuhn- scientifique et épistémologique par rapport à la théorie de Newton. On rejoint ici le concept de théorie d’Einstein plus « forte » (au sens de Gödel) que la théorie de Newton. En effet la théorie de Newton peut être définie comme un sous-ensemble de la théorie d’Einstein, pour ne pas dire un sous-système. Une fois de plus, cela n’enlève rien au fait que la Théorie de la Relativité d’Einstein fait appel à des concepts et des outils mathématiques qui n’existent pas chez Newton, d'une part et que -surtout- la théorie de Newton a été réfutée définitivement entre autres avec la mesure de la trajectoire de la planète Mercure.
Dans une deuxième étape, Karl Popper est allé plus loin en contrant à nouveau les thèses du Cercle de Vienne munis de ses critères de démarcation, en montrant que la genèse (l’induction) des théories scientifique ne présentait aucun intérêt d’étude. Ce qui était important était ce régime de création/tests/réfutation/modification de la théorie (ou création d’une nouvelle théorie) /tests… à nouveau. Pour cela encore faut-il que l'environnement du chercheur, la société dans laquelle il vit, autorise l'apparition d'idée puis de théories nouvelles, remarque qui amènera K. Popper à « La Société Ouverte et ses Ennemis » T1 et 2 vu en (III-2-15)... Il a montré, que ces vagues successives de théorie plus ou moins en ruptures les unes avec les autres dans le temps, constituaient autant de paradigmes (mis en exergue par Th. Kuhn) qui se succédaient. Cette mise en lumière de la vraie genèse des théories scientifiques est due à cette boucle de rétroaction entre l’apparition aléatoire des idées à l’origine des théories -la fameuse pomme de Newton !- et cette possibilité de les tester et d’en démontrer ou non leur fausseté (les réfuter). On perçoit bien l’analogie complète entre cette sélection artificielle -parce que faite par les hommes- et la sélection naturelle des espèces vivantes chez Darwin. Cette sélection artificielle n'est autre que la « BVSR » : blind variation and selective retention, c'est à dire variations aveugles puis rétention sélective explicitée en (III-2-6), où l'induction joue le rôle des mutations, et les tests/expérimentations scientifiques pour tenter de réfuter la théorie, joue celui de la sélection naturelle. On voit immédiatement aussi l’esprit -involontairement- systémique de cette « théorie de l’évolution des espèces des théories scientifiques ». Ceci explique la capacité à survivre à très long terme des « théories » non-scientifiques : astrologie, graphologie, religions, idéologies, homéopathie, etc.… car elles ne sont pas soumises à cette véritable pression de sélection naturelle par l'environnement scientifique comme le sont les théories réellement scientifiques.
Enfin, K. Popper a apporté une dernière amélioration à ses théories en admettant qu’une théorie pouvait être plus ou moins corroborée. Ceci est une tentative de réponse aux critiques qui soulignaient le fait que certaines théories pourtant authentiquement scientifiques ne pourraient jamais être réfutées. En effet, toute théorie reposant sur une affirmation d’existence positive, comme par exemple : « il peut exister des cas de transmission de grippe aviaire à l’homme » ne pourra jamais être réfutée, car si ce cas ne s’est jamais produit, rien ne nous dit qu’il ne produira pas demain. Auquel cas la théorie serait bel et bien vérifiée bien que non réfutable. C’est en quelque sorte l’inverse des théories reposant sur une généralisation (par induction) comme l’exemple connu « Tous les corbeau sont noirs » où il suffit de trouver un cas et un seul de corbeau d’une autre couleur pour réfuter la théorie au sens de Popper. En résumé, Popper s’applique aux théories reposant sur une proposition de type « Tous … », ou « Quelque soit … ». Mais ne s’applique pas à « Il existe au moins un cas de… ». On est donc dans le cas inverse des théories de type « Tous...» : elles ne peuvent être réfutées.... bien que possiblement vérifiables !

Tableau synoptique corroborations/réfutations possibles :

Type de théorie
Réfutation
Corroboration
« Quelque soit le cas… »
ou « Tous les… »
Possible :
Trouver un seul cas contraire.
Mais encore faut-il que les tests soient possibles en pratique (sociologie…), même s’ils sont possibles en théorie (un protocole de test est imaginable mais non réalisable en pratique).
Possible (statistique) :
Vérifier N cas confirmant la proposition (position de départ du Cercle de Vienne : le vérificationnisme). Mais rien ne dit qu’elle ne sera pas réfutée demain par un cas unique contraire.
« Il existe un cas… »
ou
« Il peut exister un cas… »
Impossible :
Vérifier N cas où la non-existence est confirmée ne réfute pas la proposition car le cas contraire confirmant le « il existe …» peut arriver demain.
Possible (absolu) :
Il suffit de trouver un cas confirmant ce « il existe… ». Mais encore faut-il que les tests soient possibles en pratique (sociologie…), même s’ils sont possibles en théorie (un protocole de test est imaginable mais non réalisable en pratique).

K. Popper rejoint la Systémique par ses critères de démarcations basés sur la réfutabilité des théories (les modèles et les simulations qui en sont tirées pour la Systémique) et sa lutte contre le Positivisme « classique » d’A. Comte et le Positivisme Logique du Cercle de Vienne.
 
 
Remarque importante : Concernant la Systémique, il faut assimiler aux théories scientifiques les modèles et leurs simulations (lorsque on fait "tourner" le modèle) : un modèle construit par un chercheur est scientifique s'il est réfutable lors d'une simulation. Si l’une de ces simulations montre un comportement présentant un écart « trop » important par rapport au comportement de l’objet réel, ce modèle devra être abandonné ou au minimum modifié. Le « trop » est ici à définir en fonction des instruments de mesures disponibles, du projet du modèle (naturellement) et de la découpe/simplification (est-elle pertinente ?) de l’objet étudié dans le réel. Ainsi une théorie scientifique n’est pas autre chose qu’un modèle, et inversement un modèle - au sens de la Systémique (voir II-3-7) - est une théorie scientifique : «  …le modèle n’est pas tant une abstraction de la réalité qu’une réalité parallèle. Le monde du modèle n’est pas construit en partant du monde réel et par soustraction des facteurs qui le rendent complexe ; bien que le monde du modèle soit plus simple que le monde réel, il n’en est pas une simplification » (Sugden, 2000).
Dans cette approche l’astrologie reste effectivement classée comme non scientifique, par contre l’économie, la psychologie ou la sociologie rejetées par le positivisme pourraient être acceptée (?) comme scientifiques. 
 
Encore faut-il dans ces domaines « mous » ne pas tomber dans l’inversion du modèle popérien : devant l’hyper complexité du réel, il est en effet tentant de construire un modèle basé sur un seul et unique paramètre via une « découpe/simplification » violente sans se poser de question sur sa validité, et donc en oubliant la phronésis/prudence d’Aristote et J.B. Vico. Après avoir fait « tourner » ce modèle hyper simplifié de la réalité (et donc facile à programmer), on en tire de grandes conclusions sur… la réalité censée se mettre en conformité avec ce modèle. Or c’est l’inverse qui doit être fait : dans la comparaison des résultats des simulations tirées du modèle avec le monde réel, c’est le modèle qui doit alors se mettre en conformité avec le monde réel et non l’inverse ! 
Le Constructivisme épistémologique parle en effet aujourd’hui de la viabilité ou non des modèles, concept fort proche de celui de la vérification des théories du Positivisme avant K .Popper. Ce qu’il faudrait évoquer serait plutôt un concept de modèle réfutable « viable sous réserve jusqu’à preuve du contraire », en étant conscient que, de toutes façon, le modèle ne corresponds jamais à la réalité mais peut seulement la simuler plus ou moins fidèlement car « la carte n’est pas le territoire » (A. Korzybsky). L’intérêt de cette approche est de lever le problème des théories « il existe » décrit plus haut. En effet un modèle peut permettre un grand nombre de simulations –c’est d’ailleurs l’un des principaux intérêts de l’approche systémique notamment dans le but d’approfondir sa compréhension de l’objet étudié- il devient donc plus facile de « déclencher » le scénario où le cas du « il existe » se produit pour alors confirmer le modèle. En effet la plupart des modèles sont virtuels et réalisés sur ordinateurs, et non physiquement, sur maquette, ou autres moyens non virtuels, ce qui autorise un nombre de simulations très élevées en un délai très court. On opère alors en symétrique entre les deux types de modèles : le « quelque soit » qui travaille en réfutation possible du modèle dès que la simulation s’écarte « trop » de la réalité et contredit ce « quelque soit » ; et le « il existe » qui travaille en vérification possible du modèle dès que la simulation déclenche le comportement, c’est à dire trouve le cas prévu par le « il existe ».

Schéma de la boucle rétroactive Systémique dans la démarche scientifique :


SUITE du Blog : Théories alliées à la Systémique (Darwin vs Popper)

Benjamin de Mesnard

dimanche 9 novembre 2008

III) Théories alliées à la Systémique

III-1) Théories intégrées par, ou nécessaires à la Systémique :
III-1-1) Le Structuralisme

Le Structuralisme est tellement proche de la Systémique que l’on peut dire qu’il n’est pas autre chose que son équivalant purement philosophique, a-mathématiques, et francophone. Il s’est développé en parallèle de la Systémique puis s’est fondu en lui. Les nouveaux paradigmes apparaissent en effet souvent en plusieurs endroits avant de donner lieu au nouveau courant, paradigme, unique.
Ses thèses seront à titre indicatif analysées dans le tableau comparatif chapitre (IV-7). Le structuralisme a été insuffisant dans ses analyses sur les phénomènes d’organisation, de dynamique - on a beaucoup reproché au structuralisme son côté statique -, de récursivité, et de coordination interne des systèmes. Ceci vient de son absence de mathématisation, ce qui n’a pas été le cas bien sûr de la Systémique qui a été abondamment mise en équations et utilisées dans des modèles mathématiques et simulations sur ordinateurs dans de multiples domaines scientifiques. Notamment un argument souvent utilisé contre le structuralisme a été qu’il n’expliquait pas l’évolution des formes ou structures, alors que Darwin avait proposé une réponse un siècle auparavant. Enfin, le Structuralisme, notamment avec Louis Althusser, est déterministe, les structures déterminant entièrement le futur des êtres ou des objets, impliquant une dépersonnalisation des êtres humains réduits à de simples éléments jouets des structures.

III-1-2) Théorème de Gödel :

Kurt Gödel a démontré dès les années 20 que l’arithmétique ne pouvait se définir par elle-même, c’est-à-dire s’auto-définir par ses seuls axiomes constitutifs. Plus exactement, l’arithmétique ne pouvait démontrer sa validité interne par ses seuls axiomes et théorèmes. En s’en tenant à ceux-ci, on tombe inévitablement sur des propositions indécidables ou contradictoires. Dit en termes imagés on arrive à la situation où A est défini par B qui est défini par C qui est défini par... A, boucle tautologique récursive qui n'explique rien. Cette démonstration constituait la fin du rêve de parvenir à UNE Mathématique Unique, édifice stable s’auto-expliquant et se suffisant à lui-même. Ce théorème, dont le côté négatif a surtout été commenté, doit être vu sous le côté positif. En effet, il est aussi la démonstration de l’existence en mathématiques de couches -ou niveaux- de mathématiques, chacun englobant celui de niveau immédiatement inférieur. Ainsi l’algèbre « explique » l’arithmétique, comme l’a démontré Gödel dans son théorème car il est nécessaire de faire appel à un jeu d’axiome plus « fort », ceux de l’algèbre, pour démontrer la cohérence interne de ceux de l’arithmétique. A son tour l’algèbre ne peut démontrer sa validité interne par ses seuls axiomes et théorèmes, il faudra la placer dans un système d’axiomes plus étendus, « forts » pour y parvenir. Plusieurs jeux d’axiomes sont d’ailleurs alors possibles, ouvrant la voie à de multiples niveaux supérieurs englobant l’algèbre. Ce phénomène a été étendu à la géométrie avec la géométrie euclidienne englobée dans la géométrie de Riemann où la somme des angles d’un triangle ne sera plus égale à 180°. On retombe donc bien dans les concepts de la Systémique qui a généralisé en dehors des mathématiques ces notions. Loin de faire écrouler les sciences, le théorème de Gödel a au contraire permis un saut qualitatif vers le haut, l’ouverture du nouveau paradigme dont la Systémique est le résultat plusieurs années plus tard. Il faut aussi citer Gödel contre le reproche fait au cercle vicieux apparaissant souvent dans les approches scientifiques : « Aucun tout ne peut contenir des éléments ne pouvant être définis que par des concepts contenus dans ce tout lui-même ». Ce que mettent à jour de possibles cercles vicieux, c’est le besoin d’avoir recours à un niveau supérieur plus fort pour résoudre le cercle vicieux. Avec A. Sokal, il est utile de préciser qu’il ne faut pas trop vite généraliser le théorème de Gödel, qui a été fait uniquement sur l’étude d’un système formel dans le domaine des mathématiques. Cependant, la mesure de la variété d’un système (voir plus haut II-4-1-e), montre que le terme souvent employé ici de « force » (au sens de Gödel) est pertinent. Il ne faut donc pas aller sur des considérations par trop philosophiques sur l’impossibilité de se connaître soi-même ou autres. Mais le fait est qu’un niveau supérieur chargé de fonctions de pilotage de niveaux inférieurs, nécessite bien une variété plus forte, et soit donc plus fort (possède des moyens plus forts) au sens de Gödel.

III-1-3) Thermodynamique et théorie de l’information de Shannon :

La théorie de la thermodynamique est essentielle dans ce débat car elle a apporté plusieurs éléments qui ont été constitutifs par la suite de la Systémique. Il suffit de se rapporter au paragraphe (II-5-3) où il est exposé qu’un système est avant tout une structure dissipative en équilibre dynamique instable loin de l’état d’équilibre statique. La Systémique s’inscrit en apparence contre la 2° loi de la thermodynamique, car l’entropie d’un système fermé doit nécessairement augmenter au cours du temps. Cette contradiction n’existe pas car l’entropie globale augmente bel et bien en remontant assez haut dans les niveaux d’emboîtements des systèmes étudiés jusqu’au système global (l'univers) qui est effectivement fermé. En somme :
- Il s'agit ici en général des systèmes dissipatifs et non seulement biologiques comme on pourrait le croire quelque fois.
- La 2° lois de la thermodynamique n'est vraie que sur un système fermé.
- Un système dissipatif est, par définition, un système ouvert, au sein d'un environnement avec lequel il échange de l'énergie/ matière/ information.
- L'émergence de formes nouvelles par auto-organisation (néguentropie) au sein de ce système dissipatifs s'inscrivent bien dans la 2° loi de la thermodynamique par augmentation de l'entropie globale de ce système dissipatif + son environnement.

Cette exception à la 2° loi de la thermodynamique n'est donc qu'apparente, c'est un ordre local qui apparaît au prix d'un désordre global (entropie) encore plus grand. On note d’ailleurs qu’un système dissipatif contribue activement à accélérer l’augmentation de l’entropie du système dans lequel il se trouve. Ainsi, un moteur à explosion va dégager la grande majorité de l’énergie consommée sous forme de chaleur perdue, les rendements thermodynamiques des systèmes ne dépassant jamais quelques pourcents.
La théorie de la thermodynamique est doublement essentielle car elle est aussi le support de la théorie de l’information. Cette théorie est reprise par la Systémique comme expliqué en (II-2-1). Il y est décrit qu’il existe plusieurs types de flux dans un système : les flux de matières, d’énergies, et d’informations, clef des effets de rétro-actions avec ou sans retard et des fonctions de pilotages.

SUITE du Blog : Théorie apparentées à la Systémique (Aristote)

Benjamin de Mesnard

vendredi 31 octobre 2008

II) Présentation détaillée de la Systémique (8/8)

II-5-5) Conséquences des propriétés des systèmes : Niveaux du réel et articulation de ces niveaux :

a) Structuration en niveaux du réel :

La conséquence principale des trois propriétés citées est de permettre d’expliquer la structuration en niveaux du réel et l’articulation de ces niveaux. Chaque niveau, s’appuie donc sur le niveau inférieur. Il supporte et a besoin (au sens de Gödel) du niveau supérieur pour « s’expliquer » au plan de sa finalité, intentionnalité ou téléonomie selon le débat. A nouveau cependant (méfions-nous des simplifications trop cartésiennes !), la plupart des systèmes ne présentent pas des niveaux stratifiés clairement en couches successives, mais plutôt des enchevêtrements d’inter-relations complexes entre sous-systèmes…
Le réel est ainsi plus complexe encore qu'une gigantesque poupée russe, fait d’une succession d’un nombre inconnu de niveaux de « réalités ». « Réalités » est mis ici intentionnellement entre guillemets car c’est bien de cela qu’il s’agit. Car lorsque vient l’étude de ces niveaux de réalités par les sciences, on assiste bien entre deux niveaux trop distants à l’établissement par les scientifiques qui les étudient de lois complètements différentes et indépendantes. Un exemple : les lois de la physique d’Einstein par rapport aux lois du « monde » de la finance. Il s’agit bien de niveaux authentiques de réalités -bien réels-, mais tellement distants, qu’ils n’ont plus rien à voir entre eux et sont (presque) totalement indépendants.
On observe le même phénomène entre Théorie de la Relativité et Théorie Quantique, ces deux théories sont en opposition car opérant à deux niveaux séparés du réel. Pour les réunir, il faudrait avoir recours à l’étude d’un système formel de niveau supérieur (voir ci-dessus), plus englobant, plus fort (au sens strict de Gödel).

Leibniz a construit un modèle à deux mondes, deux niveaux :
1° niveau : le premier niveau est constitué des « replis » de la matière vue comme « composé à l’infini », complexe, dirait-on de nos jours.,
2° niveau : le second est constitué des « replis » de l’âme, vue comme « simple ».

K. Boulding a imaginé 8 niveaux découpés dans le réel :
1° niveau : objets élémentaires de la physique (atomes, …),
2° niveau : structures dynamiques naturelles ou artificielles, domaine de la mécanique,
3° niveau : systèmes artificiels, domaine de la cybernétique,
4° niveau : la cellule vivante, domaine de la biologie,
5° niveau : la plante,
6° niveau : l’animal,
7° niveau : l’homme,
8° niveau : la « socio-culture ».

Mais K. Popper en a imaginé trois :
1° niveau : les objets physiques, matériels,.............................) similaires aux deux mondes
2° niveau : les expériences subjectives ou états mentaux......) de Leibniz donnés ci-dessus
3° niveau : les productions de l’esprit humain vraies ou fausses à la différence du monde des Idées de Platon.

De même L. von Bertalanffy : « (…) on peut en gros trouver trois domaines ou niveaux principaux dans l’observation du monde : la nature inanimée, les systèmes vivants et l’univers symbolique, chacun ayant ses lois immanentes caractéristiques. [Robots, Men and Minds, New York, Braziller, 1967, p 30].
 
L’ISO a normalisé 7 couches dans le domaine des réseaux informatiques :
1° couche : physique, codage électrique ou optique au niveau du bit d’information.
2° couche : couche trame, des trames de bits sont constituées en transmission entre deux points.
3° couche : paquets, ces trames contiennent des paquets d’informations que l’on peut commuter de commutateurs en commutateurs pour les acheminer, en assurant leur routage, entre deux utilisateurs sur le réseau.
4° couche : transport, cette couche assure le transport de bout en bout des échanges entre les deux utilisateurs du réseau d’une manière transparente, indépendante des routes utilisées par la couche paquet.
5° couche : session, une session de communication identifiable en tant que telle est crée entre ces deux utilisateurs, ce qui permet de faire des points de reprise de session en cas d’interruption de celle-ci.
6° couche : présentation, cette couche assure la présentation –sur un écran par exemple- des informations dans un format directement compréhensible par l’application.
7° couche : application, on arrive enfin à l’application informatique elle-même ou encore à l’utilisateur final derrière son poste de travail.

La Systémique a défini un modèle archétype de l’articulation d’un système en neuf niveaux :
1er niveau : le phénomène est identifiable
2ème niveau : le phénomène est actif : il « fait »
3ème niveau : le phénomène est régulé
4ème niveau : le phénomène s'informe sur son propre comportement
5ème niveau : le système décide de son comportement
6ème niveau : le système mémorise
7ème niveau : le système coordonne ses décisions d'action
8ème niveau : le système imagine et conçoit de nouvelles décisions possibles
9ème niveau : le système se finalise.
A noter : à partir du 5° niveau on passe de l’appellation « phénomène » à celle de « système », les niveau inférieur ne méritant pas en effet la dénomination de système au sens propre du terme de la systémique.
Tous ces découpages pouvant se discuter et critiquer à loisir, mais chacun se rejoignant sur l’idée d’un réel ordonné et hiérarchique. Ces découpages sont à prendre avec précautions, comme ils doivent l’être, c’est à dire comme des outils de pensée, des modèles, avec leurs limites et leurs dangers d’enfermements caricaturaux. En effet la nature -comme on vient de le voir- présentant souvent des niveaux en réseaux, voir multi-hiérarchiques et enchevêtrés.

b) Effets de bords et effets pervers :

L’une des conséquences des propriétés des systèmes s’exprime sous le nom d’effets de bord ou encore d’effets pervers. Un système artificiel, dès lors qu’il s’imbrique dans un système de niveau supérieur -à côté d’autres systèmes du même niveau – ou lorsqu’il est mis en réseau, peut influencer d’une manière imprévue les autres systèmes. Ces influences peuvent être qualifiées de simples effets de bord lorsqu’ils sont jugés gérables et prévisibles. Ils peuvent être qualifiés d’effets pervers, lorsqu’ils sont imprévus, agissant sur un périmètre mal contrôlé, ou encore issus d’une boucle rétroactive inattendue. En effet, surtout pour les systèmes artificiels de grande taille, il est important de prévoir ces effets de bord. Ces effets de bords sont à l’origine de la complexité de toutes les tâches ou activités d’intégration au sens large du terme. Ainsi des sous-systèmes fonctionnant parfaitement séparément, peuvent aboutir à un système aux comportements aberrants, incompréhensibles, une fois les sous-systèmes intégrés. De même un système naturel qui semble simple à appréhender lorsqu’il est étudié en pièces, éléments ou sous-systèmes séparés, acquiert un comportement incompréhensible, voir mystérieux à l’état naturel, c’est à dire intégré. Par exemple, c’est le cas d’un cerveau, chaque neurone étant (semble-t-il!) compréhensible, mais personne ne parvenant à véritablement comprendre le fonctionnement du cerveau complet à l’état vivant.

c) Destruction créatrice versus Création destructrice

La Destruction créatrice chère à J. Schumpeter [SCHUMPETER, Joseph, 1942], ou « Vivre de mort, mourir de vie » (Héraclite cité par E. Morin dans La Méthode I) :
Une autre conséquence importante des propriétés d’un système est que celui-ci ne peut souvent se maintenir en équilibre dynamique qu’au prix d’une construction ou production permanente de briques, éléments, ou sous-systèmes nouveaux pour compenser le vieillissement de ceux existants. Cela paraît relativement évident lorsque l’on observe n’importe quel être vivant. Mais le plus étonnant, et qui a été (re)découvert après Héraclite récemment, est que les systèmes ont aussi souvent besoin d’auto détruire des briques, éléments ou des sous-systèmes internes pour maintenir leurs équilibres dynamiques. Cette destruction, bien que paradoxale, est nécessaire à la survie soit en vue d’éliminer un sous-système peu ou plus adapté à l’environnement ou aux besoins du système, soit pour éliminer plus rapidement un sous-système en cours de vieillissement mais non encore mort par lui-même. Il enfin possible de voir un sous-système se faire éliminer après avoir servit à construire un ou plusieurs autres sous-systèmes, comme un échafaudage ou une machine-outil peuvent être enlevés après avoir soutenu la construction d’un bâtiment ou servi à la fabrication d’une automobile. Cette destruction/ construction est un exemple typique d’approche dialogique nécessaire en systémique, différente des approches dialectiques, et inconnue des approches cartésiennes, nous y reviendrons.

d) Référentiel relatif

Une dernière conséquence des propriétés des systèmes et de faire appel à ce que l’on pourrait appeler d’une manière générale un référentiel relatif. En effet, tous ces aspects multi-niveaux emboîtés hiérarchisés ou non, d’émergences, d’équifinalité, d’Eco-Auto-Re-Organisation des systèmes loin de l’équilibre, de dynamique, de variété, d'ergodicité, ou enfin de modèles jetables (réfutables !) découpés plus ou moins pertinemment dans le réel montre combien nous nous trouvons alors dans un référentiel très relatif et pour le moins instable.
Comme on le verra plus loin, il nous faut donc abandonner –ô combien cela est déchirant !- beaucoup de constructions :
· le référentiel absolu cher à Platon (Idées Immuables) ;
· Descartes (la Tabula rasa et son « je pense » en point fixe) ;
· A. Comte (Sciences dures références absolues se passant de la métaphysique) ;
· les religions ou idéologies millénaristes que sont les différents monothéismes ou Marx avec un paradis terrestre en finalité certaine de l’Histoire (on y reviendra) ;
· et la rassurante dialectique idéaliste ou matérialiste binaire prétendant que l’opposition binaire de deux absolus (thèse/antithèse) nous permet de faire le tour complet d’une question/système ;
Et bien d’autres, si confortables et rassurantes. Il nous faut alors aborder les incertaines constructions sur pilotis s’enfonçant dans les sables mouvants de K. Popper mais aussi de Kant, ou encore la connaissance de la connaissance d’E. Morin.
Attention cependant, il ne faut pas pour autant classer la Systémique et -le Constructivisme épistémologique- dans la catégorie des épistémologies relativistes. Si la Systémique a intégré le fait que l'on doit travailler sur des référentiels instables, « jetables », ou temporaires, elle n'est pas pour autant ce que l'on appelle relativiste en opposition à l'absolutisme. Nous reviendrons sur cette question au chapitre V.

e) Information limitée versus raison limitée ou rationalisme limité (« bounded rationality »)

C’est dans l'idée de la Variété requise d’un système de pilotage qu’apparaît le concept de « raison limitée », « rationalité limitée » ou encore « d’horizon de connaissance ».
Sous cette terminologie se confondent souvent deux choses différentes :
  • l’information limitée sur laquelle s’exerce une rationalité efficace qui correspond au phénomène d’horizon de connaissance : c'est la rationalité limitée exogène : c’est l’impossibilité d’avoir connaissance de toutes les informations venant de l’environnement, de l’extérieur. Voire même d’avoir des informations fausses ou de croire en des choses erronées. Cela a été étudié en théorie des jeux, en particulier par :
    - J. Nash dans son mémoire : « Non-cooperative games. » (The Annals of Mathematics, 1951, 54(2):286–96).Avec sa théorie des équilibres en théorie des jeux.
  • - Oskar Morgenstern avec un exemple tiré de Conan Doyle où Sherlock Holmes croyant que Moriarty l’a vu sur le quai du train à la gare de Londres se demande s’il doit descendre au seul arrêt intermédiera de Canterbury ou bien aller jusqu’au terminus de Douvre pour lui échapper. Il ne cesse de changer d’avis car s’il décide de descendre à Canterbury pour tromper Moriarty, il se dit que celui-ci va s’en douter et y descendre aussi. Donc, il va descendre plutôt à Douvre mais craint Morairty ne fasse ce même raisonnement, etc. jusqu’à la régression à l’infini.
    - J. Von Neumann qui est le plus cité comme père de la Théorie des Jeux. Il a travaillé avec O. Morgenstern pour sortir ensemble le livre de référence : « Theory of Games and Economic Behavior » en 1944.
    Certains acteurs au cours d’un jeu mettant en relation plusieurs acteurs, pourront poursuivre une stratégie en fonction des informations limitées en leur possession, de ce qu’ils perçoivent des décisions supposées des autres joueurs. Les décisions prises par chaque joueur leurs sembleront donc bonne, croyant optimiser efficacement et rationnellement leur espérance de gain, en fonction de ce qu'ils savent (je sais que tu sais peut-être que je sais peut-être...). C’est ainsi par exemple que Sherlock Holmes sachant que Moriarty est intelligent, va finalement décider de tirer au sort entre les deux gares pour mieux empêcher celui-ci de mener ses supputations efficacement et avoir au minimum 50 % de chance d’échapper à Moriarty. Un observateur externe omniscient, ayant la possibilité de voir tous les joueurs simultanément et ayant une parfaite connaissance globale de leurs jeux respectifs, comprendra que ces joueurs ne prennent pas les bonnes décisions et vont à leur perte. Le problème bien entendu est que les scientifiques étudiant ainsi ces joueurs ne sont pas ce « Dieu » externe pouvant tout voir. C’est par exemple le problème des économistes qui, même après coup, presque un siècle après la crise de 1929, ne parviennent pas à avoir la totalité des informations en main sur les décisions prises par les nombreux acteurs de l’époque. Ils ne parviennent donc pas être d’accord entre eux et échafaudent alors des théories différentes voire opposées. Cela rejoins la thèse de K. Popper et F. Hayek, sur le Constructivisme social des dirigeants politiques qui prennent quantité de décisions sans avoir la moindre idée – en réalité – de leurs conséquences, et de ce qui va en découler. O. Morgenstern avait d’ailleurs échangé avec eux via le défunt Cercle de Vienne et il a apporté cette approche très épistémologique concernant les limitations des sources d’informations externes aux acteurs et le bien fondé de leurs décisions. On est ici devant un excellent exemple de ce que l’on entends par « Complexité » en Systémique
  • la rationalité limitée (intrinsèquement) étudiée par H.A. Simon dans « Sciences des systèmes. Sciences de l’artificiel », et « A Behavioral Model of Rational Choice » (1955) où la raison de l’individu est insuffisante et commet des erreurs : c'est la rationalité limitée endogène.
    En effet, encore faut-il que les joueurs soient un tant soit peu rationnels pour prendre donc en compte l’habilité, la rationalité ou l’intelligence des autres joueurs. Et pire encore, cela suppose également que chaque joueur puisse estimer correctement le degré de rationalité de chacun des autres..Cette limitation est liée au fait que la Variété requise d’un centre de pilotage quelconque d’un sous-système au sein d’un système plus vaste, est inférieure à la valeur nécessaire (requise) pour parvenir à dominer ce sous-système piloté. En clair le pilote doit être plus « fort » au sens de Gödel que le piloté. H.A. Simon parle de rationalité cognitive limitée, en bref, le système de pilotage n'a pas les capacités de traitements computationnelles, en clair il n'est pas assez intelligent, raide, et efficace, pour pouvoir comprendre toutes les informations qui lui remontent et prendre les bonnes décisions dans les temps impartis.
Cette situation est très courante dans les grandes entreprises où un manager ne disposant pas des informations globales concernant la situation et la stratégie de son entreprise, sera réduit à utiliser celles disponibles, visibles, accessibles dans son horizon (exogène), et prendra des décisions qui lui sembleront optimales et rationnelles... sans avoir pour autant les compétences ou les connaissances pour comprendre ce qu'il faut faire (endogène) . Celles-ci pourront certes sembler bonnes à son niveau, voire correctes à court terme. Par exemple, ce manager donnera la priorité aux tâches demandant le moins de ressources, les plus rapides à exécuter à son niveau. Malencontreusement, ces tâches faites en priorité pourront ne pas correspondre à celles réellement prioritaires vues du pilote du système englobant, le patron de l’entreprise dans notre exemple. Le résultat final, si de nombreux managers sont dans le même cas, pourra aboutir à une entreprise, un système, en ébullition, désordonné, incapable de suivre une stratégie stable, de poursuivre un but identifiable, anarchique, et sera condamné à mort assez rapidement. Il va s'en dire que cela s'applique d'autant plus aux décideurs politiques à l'échelle d'un pays, à l'échelle d'un gouvernement ou d'élus locaux de collectivités locales un peu importantes. L'économie de nos pays étant devenue de plus en plus complexe, ces élus sont clairement dans un contexte de rationalité limitée.
Enfin, cette raison limitée ne s’applique pas qu’à des managers ou à des êtres humains. On peut retrouver par exemple la même limitation dans les phénomènes de rejet en médecine, lors de greffes. Le (sous-)système immunitaire d’un patient ayant eu une greffe va entrer en action en fonction des informations locales limitées disponibles, « interpréter » celles-ci comme une attaque microbienne externe qu’il faut éliminer, déclenchant le rejet du greffon, alors que le patient lui-même (ici le système global) souhaiterait naturellement voir réussir la greffe.
Remarque : il est facile de parier que la croyance en la possibilité d'un système de pilotage plus « fort » au sens de Gödel que le système piloté nous embarquerait immédiatement dans une régression à l'infini. C'est le célèbre adage : « s'il faut un État pour corriger les supposés excès des marchés (et qui va le décider et sur quelles bases ?) , qui alors va corriger les excès des États (guerres, lois scélérates, racismes d’États, camps de la mort, déficits, dettes,... ) ??  C'est pourquoi le chercheur, le citoyen, le politicien doivent considérer que de toutes manières, les systèmes de pilotage (ex : pilote d'avion, conducteur de véhicule, gouvernement, administration, dirigeant de toute entreprise) sont condamnés à être en situation de rationalité limitée  : c'est Aristote et Machiavel contre Platon et Rousseau, on y reviendra.

SUITE du Blog : Théories alliées à la systémique (1)
Benjamin de Mesnard

samedi 11 octobre 2008

II) Présentation détaillée de la Systémique (6/8)

II-4-2) Organisation :

Il faut d’abord souligner combien le concept d’organisation a été flou dans le passé et, notamment, dans le langage commun. La Systémique parvient à une définition très précise avec reconversion de la finalité métaphysique sous la forme de l’ergodicité systémique.
Selon R.A. Ochard en 1972, l’organisation d’un système est donc la collection de toutes les propriétés qui déterminent le comportement d’un système. Par propriétés, on désigne tout ce qui a été dit plus haut, à savoir : interactions, flux, sous-systèmes composants, ergodicité, etc...
Plus précisément, dans l’organisation nous allons trouver les éléments suivants :

a) Structure :

Une structure, c’est la somme des éléments (ou des sous-systèmes) et de leurs interrelations.
Il ne faut pas confondre structure et organisation, une structure - dans la Systémique - fait partie d’une organisation et non l’inverse. Une structure est (relativement) stable. Voir le paragraphe II-2-1 pour une description plus fine de la structure. C’est un point essentiel de ce qui sépare structuralisme de la Systémique. Le structuralisme a - comme son nom l’indique - mis l’accent sur la structure en mettant de côté les aspects organisationnels plus larges et sans voir que la structure ne décrit pas la totalité de ce que l’on appelle un système en Systémique.

b) Niveaux - strates :

Comme déjà introduit en (II-3) avec la récursivité, on appelle niveau l’ensemble des sous-systèmes composants les systèmes. Pour un de ces sous-systèmes, on pourra à nouveau trouver un ensemble de sous-sous-systèmes le composant, ce qui constituera le niveau N-2 d’organisation de notre système de départ et ainsi de suite. A l’inverse, il est possible d’opérer vers le haut par le sur-système dans lequel se trouve le système. Enfin, il est noter qu’un sous-système peut être considéré comme de niveau N1 d’un certain point de vue et de niveau N2 d’un autre, formant un implexe en analogie avec la généalogie.
Deux cas se présentent : niveaux ordonnés ou niveaux hiérarchiques.

b-1) Niveaux Ordonnés :

C’est le cas le plus simple donné plus haut. Un système d’ordre N sera alors plus globalisant que celui d’ordre N-1 et le contiendra logiquement. Une remarque : le niveau N aura tendance à être plus “ macroscopique ” que le niveau N-1, c’est à dire moins précis localement mais aussi plus général. Ces niveaux sont donc articulés entre eux, emboîtés, sans que l’on puisse encore dire qu’un niveau est « supérieur » à l’autre ou bien pilote un autre « inférieur » (voir b-2 ci-dessous). Par contre il est possible d’identifier une structure, une organisation à travers des niveaux ordonnés.


b-2) Niveaux hiérarchiques :

Les niveaux dits hiérarchiques sont par nature ordonnés. Cependant les niveaux hiérarchiques ajoutent une idée d’emboîtement vertical, un niveau donné étant rattaché, et surtout piloté par le niveau hiérarchique supérieur. Un niveau hiérarchique supérieur pourra se superposer, piloter, un ou plusieurs niveaux inférieurs.
Au sujet de la hiérarchie des niveaux, un théorème capital a été démontré en 1931 par K. Gödel. Une structure de niveau N peut être plus forte (au sens mathématique) qu’une autre de niveau inférieur. Précisons : les sous-systèmes du système de niveau N sont des cas particuliers du système de celui-ci. On a besoin pour les situer, d’en connaître l’environnement constitué par définition, par le système lui-même. Cela revient à dire que le niveau N devient nécessaire à la saturation du niveau N-1. Ou encore, que les indécidables du niveau N-1 ne peuvent être résolus que par des moyens « plus forts » que ceux fournis par lui, et donc, qu’il faut recourir aux moyens du niveau N. Encore : les invariants (au sens de la théorie des groupes) du sous-système sont plus nombreux que ceux du système puisque qu’il est plus faible, certaines propriétés du système se transformant en variables exogènes pour le sous-système. Pour résoudre ces variables exogènes il faut construire ou découvrir le niveau N.
C’est sur ce concept de niveaux forts englobant des niveaux faibles du théorème de Gödel qu’a été révolutionné le caractère hiérarchique des niveaux. Avec Gödel, il ne s’agit pas en effet d’une simple analyse des organisations comme on peut les trouver dans tous les livres de sociologie des organisations, mais bien d’une découverte essentielle servant directement à la Systémique. Nous reviendrons en (III-1-2) sur Gödel et ses liens de fait avec la Systémique.
Enfin il faut se méfier d’une hiérarchisation un peu trop rapide des niveaux, par exemple en génétique les rôles respectifs de l’ADN et de l’ARN dans un noyau de cellule vivante ont été très vite hiérarchisés entre eux : l’ADN code, l’ARN sert de messager, or on s’est aperçu récemment que leurs rôles respectifs étaient beaucoup plus complexes que cela.

b-3) Niveaux en réseaux :

Ces différents « niveaux » d’organisation peuvent s’interconnecter aussi en réseaux, et non seulement, en s’empilant ou en s’imbriquant comme les poupées russes, généralisant ainsi les implexes. Des inter-relations croisées peuvent ainsi s’entrelacer et s’enchevêtrer mutuellement. Rendant extrêmement complexe naturellement la compréhension et l’étude de tels systèmes. Malheureusement, la plupart des systèmes naturels sont organisés ainsi, expliquant, par là même, les difficultés des sciences de la vie en général à avancer, voir même à se faire admettre au statut de science au même titre que les mathématiques. Sans aller jusqu’à la biochimie, la chimie offre de multiples exemples d’interactions chimiques croisées complexes, faisant échouer pendant longtemps toutes possibilités de maîtrise par l’homme de ces processus.

b-4) Niveaux multi-hiérarchiques :

Pour être complet il faut combiner les niveaux simplement hiérarchiques où chaque niveau N est coiffé par un seul niveau N+1, avec les niveaux en réseaux. Il est en effet possible (et courant dans la nature) de trouver qu’un niveau N peut être coiffé de plusieurs niveaux N+1 en inter-relations entre eux (eux mêmes en réseau). Ainsi par exemple, l’individu être humain (niveau N) sera coiffé de plusieurs niveaux supérieurs N+1 inter agissants les uns sur les autres (société, psychologie, culture, etc. …). Dans une grande entreprise, il est utile d’identifier au-delà de la hiérarchie officielle (l’organigramme officiel), les organigrammes officieux où l’on trouvera un second, troisième, etc.… réseaux d’influences hiérarchisés internes ou externes à l’entreprise.
Une application de l’identification de niveaux a été trouvée en sociologie par exemple par le pouvoir de « décision » que possède un niveau sur un autre, ou encore en gestion avec les modules de pilotage. Cette idée est même employée par comme définition par J. Eugène. Ce qui nous amène à la :

c) Coordination et Pilotage :

Il est en effet nécessaire pour qu’un système puisse « fonctionner » correctement, que tous les sous-systèmes qui le composent s’intègrent en un tout, agissent de concert, en bref, se coordonnent entre eux. Pour atteindre cette intégration, un chef d’orchestre peut être requis. Ce rôle ne peut être rempli que par le système lui-même, c’est-à-dire par le niveau N par rapport aux niveaux N-1. Le système doit alors être hiérarchisé et surtout organisé. Le niveau N doit être plus fort (au sens de Gödel) que le niveau N-1. Le niveau N doit présenter la Variété requise pour « gérer » le niveau N-1 comme l’a démontré R.W. Ashby et A. Kolmogorov (voir (II-4-1-e)). On peut alors voir apparaître un système spécialisé dans le pilotage des systèmes peuplant les niveaux inférieurs. Ce système présentant nécessairement un niveau de variété supérieur à ceux des systèmes qu’il pilote, cela signifie que ce système doit présenter un niveau de complexité supérieur. On voit apparaître trois conséquences :
  • On retrouve par une autre approche le théorème de Gödel, comme dit plus haut le système pilote doit être en effet plus fort que les systèmes pilotés.
  • Le système pilote présentant une complexité/variété encore plus grande que les systèmes pilotés par lui, aura lui-même besoin d’être piloté à son tour. Ceci explique l’apparition de couches successives au-dessus du système pilote précité, dans un emboîtement (voir enchevêtrement par inter-relations) toujours plus complexes et difficiles à comprendre. Ainsi par exemple, le cerveau humain forme un système extrêmement complexe « pilotant » l’organisme, ce système nécessitant des systèmes aux niveaux supérieurs -tels que systèmes sociaux, psychologiques, spirituels, etc.…- pour parvenir à fonctionner.
d) Variété versus spécialisation :

Comme vu plus haut, la variété d’un système est le nombre d’états (de configurations) possibles que peut prendre ce système. C’est l’inverse de la spécialisation d’un système. C’est cette variété qui va permettre au système de répondre plus souplement, plus richement, aux changements son environnement, en un mot de s’adapter à celui-ci.
Toute la théorie de la sélection de Darwin repose sur ces deux notions antagonistes. En effet, pour qu’un système vivant survive, c’est-à-dire reste dans son domaine d’ergodicité, il faut qu’il soit adapté à son environnement. Il devra présenter une palette de réponses, de comportements, de programmes, potentiels, en nombre suffisant (et donc une variété suffisante), pour pouvoir supporter les changements qui affectent son milieu. Par contre pour survivre d’une manière la plus optimum dans un environnement donné et suffisamment stable, un système devra se spécialiser –et par la même perdre de sa variété- risquant de ne pouvoir se réadapter en cas de changement de son environnement.

SUITE du Blog : Les propriétés d'un système

Benjamin de Mesnard