Économie
→→
Religion ↓ ↓ |
Immanence |
Transcendance
(Étatisme, Centralisme, Communisme) |
Immanence (Athées ou Monothéistes tenants de « Intelligent Design ») |
Libéraux ou Anarchistes |
Communisme (incohérents entre religion et économie) |
Transcendance
(Monothéistes
créationnistes) |
Conservateurs (incohérents entre religion et économie) |
Socialismes Nationaux :
nazisme, fascisme, franquisme, royauté
absolue,
colbertistes… (cohérents entre religion et économie) |
Systémique : Philosophie de la Liberté un lien d'Aristote à la Systémique, blog de Benjamin de Mesnard.
Affichage des articles dont le libellé est Le Moigne. Afficher tous les articles
Affichage des articles dont le libellé est Le Moigne. Afficher tous les articles
lundi 13 décembre 2021
VI) UNE NOUVELLE LIGNE DE FRACTURE APPARAÎT
Cette ligne de fracture nouvelle qui apparaît tend à remettre à leur juste place les anciennes oppositions « classiques ». Cette fracture s’articule finalement autour du concept d’immanence versus transcendance évoqué en (V-7) :
● Immanence : d’un côté la Systémique et le Constructivisme épistémologique avec la « pensée complexe » synthétique et prudente, l’ingénium, l’indéterminisme, la dialogique, et ne confondant ni la carte avec le territoire, ni l’idée avec le réel. Elles sont immanentes avec les concepts d’éco-auto-ré-organisation, d'équilibre dynamique ponctués et d’émergence. Elles sont conscientes des limitations de notre rationalité, prêtes à adopter de multiples point de vues et à se remettre en cause par des théories se prêtant à réfutation. Elles s’appuient sur des philosophies comme celles d’Aristote, le Structuralisme, la Systémique, la cybernétique de second ordre de G. Bateson, A. Korzybski, Pascal, H. Simon, la « pensée complexe » d’E. Morin, et K. Popper ou F. Hayek.
● Transcendance : et de l’autre côté les philosophies platoniciennes, cartésiennes, analytiques , positivistes, scientistes, réductionnistes, recherchant le point fixe et l’évidence cartésienne (succédant immédiatement au pseudo-doute grâce au « je pense donc je suis»). Elles se réclament de l’Idéalisme ou du Matérialisme - dont le dialectique -, deux fausses oppositions, toujours à livrer diverses luttes pour la victoire d’une hypostase, c'est à dire d’une personnification artificielle supposée être par définition dans le camp du Bien absolu avec un grand « B » : « Classe », « Parti », « Nation », « Race », « Prolétariat », « Peuple », « Peuple de gauche » ou « Peuple de Dieu », ou bien le Mal absolu : « Grand Capital » afin de faire appel aux émotions et éteindre notre raison. Pour Simone Weil, « on donne des majuscules à des mots vides de signification » qui n’existent pas en réalité et pour lesquels des millions de gens sont censés se sacrifier voire même donner leur vies, avec la promesse d’un futur paradis radieux. Transcendantes car croyant qu’une organisation ne peut être pensée que « d’en-haut » par un Dieu, un guide ou un grand timonier géniaux. Elles viennent de Platon, Descartes, A. Comte, le Cercle de Vienne, des religions monothéistes et des deux socialismes national ou non : le Nazisme et le Marxisme. Ces hypostases sont supposées être représentées – guidées - par un « homme providentiel » ou un Dieu, affublé de toutes une séries de qualités extraordinaires, qu’il soit être humain ou divinité. On peut qualifier de magique cette « pensée » alors même que les socialismes marxistes ou national nazi se disent scientifiques, ils ne sont en fait que pseudo-sciences car scientistes et irréfutables à la manière de l’astrologie. Typique de la « pensée tribale » comme vu avec K. Popper, elle ne sait que suivre un chef de tribu proposant des solutions simplistes – cartésiennes - inadaptées aux problèmes complexes. On arrive ainsi rapidement aux divers régimes totalitaire comme Simone Weil l’explique : « De toutes parts on est obsédé par une représentation de la vie sociale qui, tout en différant considérablement d’un milieu à l’autre, est toujours faite de mystères, de qualités occultes, de mythes, d'idoles, de monstres ; chacun croit que la puissance réside mystérieusement dans un des milieux où il n'a pas accès, parce que presque personne ne comprend qu'elle ne réside nulle part, de sorte que partout le sentiment dominant est cette peur vertigineuse que produit toujours la perte du contact avec la réalité. Chaque milieu apparaît du dehors comme un objet de cauchemar. Dans les milieux qui se rattachent au mouvement ouvrier, les rêves sont hantes par des monstres mythologiques qui ont nom Finance, Industrie, Bourse, Banque et autres ; les bourgeois rêvent d'autres monstres qu'ils nomment meneurs, agitateurs, démagogues ; les politiciens considèrent les capitalistes comme des êtres surnaturels qui possèdent seuls la clef de la situation, et réciproquement ; chaque peuple regarde les peuples d'en face comme des monstres collectifs animés d'une perversité diabolique. On pourrait développer ce thème à l'infini. Dans une pareille situation, n'importe quel soliveau peut être regardé comme un roi et en tenir lieu dans une certaine mesure grâce à cette seule croyance ; et cela n'est pas vrai seulement en ce qui concerne les hommes, mais aussi en ce qui concerne les milieux dirigeants. Rien n'est plus facile non plus que de répandre un mythe quelconque à travers toute une population. Il ne faut pas s'étonner dès lors de l'apparition de régimes « totalitaires » sans précédent dans l'histoire. ». [WEIL, Simone, Œuvres, « Les origines de l’hitlérisme » en 1940, Ed. Quarto Gallimard, p 381].
Deux questions se posent alors :
- Quelle est la légitimité du Dictateur (ou du supposé Représentant du Dieu Unique) transcendant ? : « Qui t’as fait Roi ? » a dit Adalbert à Hugues Capet…
- Et si l’État (ou le Représentant d’une Église) contrôle tout, qui alors les contrôlent ? C’est le problème de la récursivité sans fin du système de pilotage « top-down » des sociétés tribales reposant sur la transcendance.
Le tableau suivant montre les incohérences philosophiques que l’on rencontre entre certains tenants de l’Immanence et de la Transcendance selon que l’on se met du point de vue de l’économie ou des religions monothéistes (création de l’univers ou des êtres vivants). Ainsi certains seront pour la Transcendance religieuse mais pour l’Immanence en économie (les conservateurs « libéraux ») ; et d’autres pour l’Immanence religieuse (les athées) mais pour la Transcendance en économie (marxistes, socialistes, communistes) avec un État centralisateur contrôlant tout. D’autres, plus rares aujourd’hui, sont par contre cohérents, c’est à dire soit tenants de la Transcendance en tout : conservateurs étatistes/colbertistes, socialistes nationaux nazis, fascistes, ou franquistes (avec une alliance forte entre l’Église et l’État centralisateur) aboutissant aux dictatures ; soit tenants de l’Immanence en tout : les Libéraux athées… et la Systémique avec ses concepts d’éco-auto-ré-organisation.
Les anciennes oppositions sont donc remises en perspectives, comme l’Idéalisme opposé au Matérialisme, le Rationalisme opposé à l’Empirisme, le Nominalisme opposé au Réalisme, la Dialectique opposée à la Logique Formelle, le Mécanisme opposé au Finalisme, l’Induction opposé à la Déduction, ou encore le clivage Gauche-Droit en politique. Ces anciennes oppositions semblent devenir caduques lorsqu’elles sont réétudiées à la lumière de la Systémique. Car on peut alors comprendre qu’elles n’existaient que parce certains aspects de la réalité que montre la Systémique étaient ignorés. On peut citer dans le désordre : existence de différents niveaux de réalités, effets de rebouclages rétroactifs non linéaires, rebouclages avec ou sans retards temporels, différence entre modèles/théories et systèmes réels, équifinalité versus finalisme ou prise en compte de l’ergodicité, de l’homéostasie, et des équilibres dynamiques ponctués non linéaires.
Cette nouvelle ligne de fracture pourrait être étudiée plus à fond afin de reconstruire la philosophie en réunissant d’un même côté : Aristote, Pascal, la Systémique, le Constructivisme épistémologique, Gödel, le Gestaltisme, la théorie de l’Information, la Thermodynamique et sa flèche du temps, Darwin, A. Korzybsky, T. Kuhn, Karl Popper, H. Simon, F. Hayek, E. Morin le tout dans une démarche…dialogique prudente et modeste car ne prétendant pas détenir la Vérité. Le but de la Systémique et du Constructivisme épistémologique est de permettre de comprendre les phénomènes d’éco-auto-ré-organisations immanents des systèmes complexes. En ce sens la Systémique est bien un méta-paradigme, comme décrit par L. Moreira, plutôt qu’un « simple » nouveau paradigme de l’épistémologie. Ce méta-paradigme, représentant d’un courant épistémologique, est un dépassement des philosophies « classiques », réelle émergence, au sens précisément de la Systémique. C’est un nouvel outil de pensée moderne, mais également un courant épistémologique profond et ancien, qui avance avec une humilité et une prudence recommandée par G.B. Vico, et non une nouvelle idéologie. Cette démarche doit être menée dans le respect des libertés individuelles, et économiques au sein de sociétés ouvertes. Il faut prendre garde à la tentation technocratique où l'être humain, l'économie ou la société seraient considérés sans prudence exclusivement comme de purs sous-systèmes ou robots obéissants. Il faut donc éviter de tomber dans la présomption fatale de « l’ingénierie sociale », l'expérimentation économique ou l'expérimentation humaine… A ce titre tant au plan sociologique qu’économique, la Systémique et le Constructivisme épistémologique semble donc être de bons candidats pour donner une solide base épistémologique aux défenseurs de nos libertés.
Benjamin de Mesnard
Épistémologie Systémique Constructivisme
samedi 27 septembre 2014
V-12) Induction versus Déduction
V-12) Induction versus Déduction
L’induction
n’a pas été réellement conceptualisée jusqu’à Karl Popper, qui s’y est
intéressé pour mieux la mettre à jour et la combattre sur ses effets
inconscients plus ou moins désastreux –selon lui- sur les travaux
de beaucoup de scientifiques ou de philosophes. L’induction est
similaire au mécanisme de production des mutations dans la théorie
de l’évolution. Il est inutile d’en décortiquer ses mécanismes,
tout ce qui compte pour Popper étant qu’elle existe pour permettre
la production « brute » de nouvelles idées. Ainsi on
connaît la petite histoire (vraie ou fausse) de la pomme de Newton
ou encore celle de l’histoire de l’illumination de R. Poincaré
lorsqu’il monta dans son omnibus. Ces idées peuvent, si elles
se figent, donner lieu à des théories qui devront faire ensuite
l’objet des procédures de tests rigoureuses décrites par K.
Popper. L’induction, n’est qu’un mode, que l’on pourrait
tout aussi bien qualifier d’aléatoire, de production d’idée
candidates à de futures théories qui devront être construites
(constructivisme), testée rigoureusement et rejetées si elles
s’avèrent fausses, rien de plus. Certes… mais il est par contre
essentiel de garder en mémoire que l’induction n’est pas
naturelle et ne se produit que dans certains cadres favorables, des
conditions décrites par G.B. Vico tel que l’art de la rhétorique,
de la poésie, de la créativité, en bref de ce que l’on nommait
les topiques ou encore au Moyen-Age les arts libéraux. Il faut en
effet un « générateur » d’idée au chercheur dans une
première phase, avant de passer à la deuxième, la déduction.
Rejeter ainsi l’induction comme
l’on fait K. Popper et avant lui Descartes au contraire de G.B.
Vico, c’est prendre le risque de ne plus avoir de fournisseur de
nouvelles théories explicatives à tester, à réfuter, par
stérilisation des chercheurs.
A l’opposé, les tenants de la déduction soit prétendent -comme Descartes- établir par introspection le « point fixe » fondement de toute connaissance solide ; soit croient que seule l’observation des faits pourra permettre de déduire les lois et théories à en dégager, c’est l’autre manière de dire l’approche purement empiriste.
Mais comme le fait observer très justement K. Popper (voir V-3 plus
haut), pourquoi observer tel ou tel fait plutôt qu’un autre à
moins d’avoir déjà une théorie plus ou moins implicite, et donc
sous la forme d’une idée même mal formulée car venant de sa
créativité personnelle ?
Apport de
la Systémique : la Systémique utilise -tout comme
explicité en (V-3)- au maximum les deux modes en gardant à l’esprit
que ce sont des outils, utiles à différentes étapes de l’étude,
et dont il ne s’agit pas de faire des idéologies mais des outils
heuristiques pratiques. On pourra ainsi avoir recours
alternativement, à plusieurs reprises, aux phases inductions d’une
théorie puis déductions de ses impacts/conséquences/effets de
bords, en boucles rétroactives prudentes comme le recommande Vico,
car la fausse piste guette : « Tout
cela vient de ce que le vrai est un, que le vraisemblable est
multiple et que le faux est infini. » [VICO,
GiamBattista, 1981, p 48] Il sera alors permis d’en tirer des
possibilités de tests expérimentaux pour prouver ou non les erreurs
ou insuffisances de cette théorie, en bref la réfuter ou non au
sens poppérien du terme. C'est que l'on nomme couramment la méthode hypothético-déductive.
Pour résumer cette pensée J.L. Le Moigne
parle de transduction ou encore de méthode heuristique propre au
Constructivisme épistémologique.
SUITE du Blog : V-13) Finalisme versus Mécanisme
Benjamin de Mesnard
Épistémologie Systémique Constructivisme
SUITE du Blog : V-13) Finalisme versus Mécanisme
Benjamin de Mesnard
Épistémologie Systémique Constructivisme
mercredi 20 août 2014
V-10) Gestaltisme versus Connexionnisme et cognitivisme
Le
cognitivisme prône le fonctionnement « computationnel »
du cerveau et des mécanismes biologiques en général. Il considère
que le vivant, tel un ordinateur, manipule des symboles élémentaires
à travers un programme (implicitement pensé comme écrit à
l’avance). Cette manipulation de symboles trouve leur
correspondance dans le monde réel, la « computation »
permettant d’arriver à un résultat lui-même composé de
symboles. Le cognitivisme a donc besoin de l’idéalisme et du
réalisme, le monde des idées correspondant au monde réel, les
symboles aux idées. Ainsi la compréhension du monde se résume à
« comprendre » (la computation) les symboles en les
manipulant, en leur appliquant des règles prédéfinies, en les
réordonnant, etc.… En ce sens le cognitivisme se rapproche en fait
(en apparence) du Nominalisme, du Positivisme Logique et du Cercle de
Vienne où tout est considéré comme pouvant se ramener à des
manipulations de symboles, comme avec les propositions logiques de
Wittgenstein.
Le
connexionnisme, comme vu plus haut en (IV-5), envisage la cognition
comme le résultat d'une interaction d’un grand nombre de parties
élémentaires d'un réseau avec établissement de nouvelles
connexions (synapses) dans ce réseau. Ces nouvelles connexions,
nouveaux schémas de relations entre neurones, transposent dans le
cerveau la perception du monde réel. Ce réseau de connexions joue
le rôle d’un programme et effectue un certain nombre de
« calculs » ou plus exactement de « computations »
pour lesquels il a été conçu par le chercheur. Ces deux approchent
s’opposent par nature au gestaltisme vu en (II-2-1) car celui-ci va
s’intéresser d’emblée à une approche globale, à une Forme au
sens aristotélicien, à l’organisation, de la chose étudiée. En
cela il est donc radicalement opposé au connexionnisme et au
cognitivisme intrinsèquement cartésiens et positivistes car
implicitement simples et non complexes.
Apport de
la Systémique : Il y a quelque fois une confusion dénoncée
par JL Le Moigne entre autres entre le connexionnisme vu comme
s’opposant à la Systémique par une mise en avant des phénomènes
de réseaux connexionnistes, contre les systèmes implicitement
pensés comme strictement hiérarchiques. Comme expliqué en (II-4-2), un système peut être organisé en hiérarchique simple,
en réseau, ou en multi-hiérarchique (réseau hiérarchique). La
Systémique prend en compte la capacité d’une telle organisation à
se réorganiser, notamment mais pas seulement comme décrit par le
connexionnisme. La Systémique en première approche semble donc
plutôt proche du connexionnisme qui semble bien se rattacher aux
courants holistiques. Cependant, la Systémique étudie clairement
les flux d’informations, allant vers ou venant de l’extérieur ou
encore internes aux systèmes. Il ne prétend pas qu’un seul type
de système -comme le fait le connexionnisme- puisse traiter le monde
extérieur. La Systémique reconnaît tous les types de systèmes (y
compris ceux qualifiables de « computationnels ») soit au
niveau du système principal de pilotage, soit au niveau des
sous-systèmes avec son propre pilotage. Enfin la Systémique va plus
loin avec le concept utilisé par le Constructivisme également et
déjà évoqué de nombreuses fois ici d’Eco-Auto-Ré-organisation.
SUITE du Blog : V-11) Internalisme versus Externalisme
Benjamin de Mesnard
Épistémologie Systémique Constructivisme
SUITE du Blog : V-11) Internalisme versus Externalisme
Benjamin de Mesnard
Épistémologie Systémique Constructivisme
dimanche 29 mars 2009
III) Théories alliées à la Systémique (Constructivisme épistémologique)
III-2-13) Le Constructivisme épistémologique
Note : à ne pas confondre avec le Constructivisme Social qui a la « présomption fatale » de reconstruire la société à partir des idées décrétées Vraies de certains individus au pouvoir s'estimant plus intelligents que les autres…
Le Constructivisme épistémologique n’est pas à proprement parlé apparenté à la Systémique, il est plus approprié de dire qu’il en descend, qu’il l’utilise pour en tirer les leçons adéquates en terme d’épistémologie. Systémique et Constructivisme épistémologique sont en fait intimement liés tout comme matière et forme chez Aristote... Le terme est apparu dès 1928 chez L. von Bertalanffy – ce qui montre le lien étroit avec la Systémique - : « La loi [naturelle] n’appartient pas au domaine empirique, mais est une relation logique entre des constructions conceptuelles […] Seule la pensée constructive édifie les lois. ». [Bertalanffy L. von, « Kritische Theorie der Formbildung, Abhandlungen zur theoretischen Biologie, hrsg. v. Julius Schaxel, », Berlin, Gebrüder Borntraeger, 1928, pp. 91 et 94.]. Le concept a été développé au cours des années 90-2000 par J.L. Le Moigne. Il a été en quelque sorte co-développé avec E. Morin à travers ses ouvrages « La Méthode » en plusieurs tomes et autres œuvres et plus spécifiquement l’association MCX-APC (Modélisations Complexes – Association pour la Pensée Complexe). Le Constructivisme épistémologique soutien –comme le dit Bachelard- qu'en matière de philosophie de la connaissance, que « rien n’est donné, tout est construit ». Une théorie scientifique est relative à son époque, son paradigme (T. Kuhn), elle provient d’une construction de l’esprit qui tente d’expliquer une partie du réel. Ici encore il faut citer L. von Bertalanffy : « La perception est universellement humaine, déterminée par l’équipement psycho-physique de l’homme. La conceptualisation est liée à la culture parce qu’elle dépend des systèmes symboliques que nous appliquons, lesquels sont largement déterminés par des facteurs linguistiques, la structure du langage appliqué. » [BERTALANFFY, L. von, An essay on the relativity of categories, Philosophy of Science, 1955, p 253]. Cette citation permet de noter au passage la réelle proximité intime du Constructivisme épistémologique avec la Systémique. Avec le Constructivisme on retrouve à nouveau cette idée de la Systémique de découpe arbitraire et à risques du réel, car venant d’un choix, d’un point de vue, du chercheur. Le Constructivisme est en opposition complète avec Descartes bien sûr et avec l’ensemble du Positivisme. Il s’attaque à l’ensemble de la complexité du réel et l’accepte, en refusant le découpage analytique cher à Descartes. Il utilise délibérément un ou des modèles dans le but de « comprendre » la chose étudiée et dans une démarche faisant appel à l'analogie, tout en étant conscient de l’interaction qui existe entre le chercheur et l’objet d’étude. En accord avec K. Popper, pour le Constructivisme épistémologique, il n’y a pas de Vérité absolue (avec « V » majuscule), mais des approches de vérités relatives, momentanées et en évolution. Ainsi, K. Popper écrit : « C’est toujours nous qui formulons les questions à poser à la nature ; c’est nous qui sans relâche essayons de poser ces questions de manière à obtenir un « oui » ou un « non » ferme. Car la nature ne donne de réponse que si on l’en presse. » [POPPER Karl, 1978, p 286]. Mais cette démarche ne relève pas du Relativisme, car ici la nature, le réel, est bel et bien reconnu comme existant réellement, la seule chose relative venant de nos capacités de compréhension limitées. A ce titre l’expérimentation scientifique, si chère à A. Comte qui la considère comme un référentiel absolu, est vue ici comme un outil parmi d’autres –tout comme par exemple les modèles- à prendre avec précaution, dont les résultats ne sont pas toujours (très rarement par exemple en sciences sociales) reproductibles. Ses résultats sont sujets à interprétations par le chercheur qui va donc devoir décider s’ils réfutent ou non sa théorie. Celui-ci rentre donc encore plus profondément alors en interaction avec la chose étudiée… La recherche devient projet (projective) : « tout est méthode, et le chemin se construit en marchant » (A. Machado).
Le Constructivisme épistémologique s’exprime sous trois facettes : le relationnel (ou « génétique ») de J. Piaget, le projectif (ou téléologique) de J.-L. Le Moigne et le radical (ou phénoménologique) de E. von Glazersfeld :
Comme on le voit ce « constructivisme » n'a rien à voir avec le constructivisme social dénoncé par F. Hayek. Celui de Hayek désigne la volonté -présomption fatale !-, de recréer /reconstruire la société en décrétant qu'une ou quelques idées doivent impérativement s'imposer à tous. Par exemple : une race supérieure aux autres, ou bien que tout les citoyens doivent être absolument égaux, ou encore qu'une "Classe" doit vaincre au bout de l'Histoire (avec un "H"). C'est la route de la servitude, souvent en apparence pavée de soit-disant bon sentiments...
SUITE du Blog : Théories alliées à la Systémique (F. Hayek)
Benjamin de Mesnard
Le Constructivisme épistémologique n’est pas à proprement parlé apparenté à la Systémique, il est plus approprié de dire qu’il en descend, qu’il l’utilise pour en tirer les leçons adéquates en terme d’épistémologie. Systémique et Constructivisme épistémologique sont en fait intimement liés tout comme matière et forme chez Aristote... Le terme est apparu dès 1928 chez L. von Bertalanffy – ce qui montre le lien étroit avec la Systémique - : « La loi [naturelle] n’appartient pas au domaine empirique, mais est une relation logique entre des constructions conceptuelles […] Seule la pensée constructive édifie les lois. ». [Bertalanffy L. von, « Kritische Theorie der Formbildung, Abhandlungen zur theoretischen Biologie, hrsg. v. Julius Schaxel, », Berlin, Gebrüder Borntraeger, 1928, pp. 91 et 94.]. Le concept a été développé au cours des années 90-2000 par J.L. Le Moigne. Il a été en quelque sorte co-développé avec E. Morin à travers ses ouvrages « La Méthode » en plusieurs tomes et autres œuvres et plus spécifiquement l’association MCX-APC (Modélisations Complexes – Association pour la Pensée Complexe). Le Constructivisme épistémologique soutien –comme le dit Bachelard- qu'en matière de philosophie de la connaissance, que « rien n’est donné, tout est construit ». Une théorie scientifique est relative à son époque, son paradigme (T. Kuhn), elle provient d’une construction de l’esprit qui tente d’expliquer une partie du réel. Ici encore il faut citer L. von Bertalanffy : « La perception est universellement humaine, déterminée par l’équipement psycho-physique de l’homme. La conceptualisation est liée à la culture parce qu’elle dépend des systèmes symboliques que nous appliquons, lesquels sont largement déterminés par des facteurs linguistiques, la structure du langage appliqué. » [BERTALANFFY, L. von, An essay on the relativity of categories, Philosophy of Science, 1955, p 253]. Cette citation permet de noter au passage la réelle proximité intime du Constructivisme épistémologique avec la Systémique. Avec le Constructivisme on retrouve à nouveau cette idée de la Systémique de découpe arbitraire et à risques du réel, car venant d’un choix, d’un point de vue, du chercheur. Le Constructivisme est en opposition complète avec Descartes bien sûr et avec l’ensemble du Positivisme. Il s’attaque à l’ensemble de la complexité du réel et l’accepte, en refusant le découpage analytique cher à Descartes. Il utilise délibérément un ou des modèles dans le but de « comprendre » la chose étudiée et dans une démarche faisant appel à l'analogie, tout en étant conscient de l’interaction qui existe entre le chercheur et l’objet d’étude. En accord avec K. Popper, pour le Constructivisme épistémologique, il n’y a pas de Vérité absolue (avec « V » majuscule), mais des approches de vérités relatives, momentanées et en évolution. Ainsi, K. Popper écrit : « C’est toujours nous qui formulons les questions à poser à la nature ; c’est nous qui sans relâche essayons de poser ces questions de manière à obtenir un « oui » ou un « non » ferme. Car la nature ne donne de réponse que si on l’en presse. » [POPPER Karl, 1978, p 286]. Mais cette démarche ne relève pas du Relativisme, car ici la nature, le réel, est bel et bien reconnu comme existant réellement, la seule chose relative venant de nos capacités de compréhension limitées. A ce titre l’expérimentation scientifique, si chère à A. Comte qui la considère comme un référentiel absolu, est vue ici comme un outil parmi d’autres –tout comme par exemple les modèles- à prendre avec précaution, dont les résultats ne sont pas toujours (très rarement par exemple en sciences sociales) reproductibles. Ses résultats sont sujets à interprétations par le chercheur qui va donc devoir décider s’ils réfutent ou non sa théorie. Celui-ci rentre donc encore plus profondément alors en interaction avec la chose étudiée… La recherche devient projet (projective) : « tout est méthode, et le chemin se construit en marchant » (A. Machado).
Le Constructivisme épistémologique s’exprime sous trois facettes : le relationnel (ou « génétique ») de J. Piaget, le projectif (ou téléologique) de J.-L. Le Moigne et le radical (ou phénoménologique) de E. von Glazersfeld :
- Le relationnel a donné lieu à de nombreux développements dans le monde de l’éducation. Il montre que l’enfant développe par constructions progressives ses capacités cognitives et qu’il redécouvre certains concepts (présence/absence, nombre, existence d’un objet même lorsqu’il est caché) « universels » par reconstruction spontanée. Le langage apparaît au même âge en s’appuyant sur ces mécanismes.Il est aussi nommé « épistémologie génétique » car il montre que l’enfant, dans sa construction progressive des concepts, ne part pas de rien, mais démarre d’une base qui semble être propre à l’être humain (et peut-être à d’autres espèces du moins en partie : primates, dauphins,…) : une base génétique, appelée les schèmes. Ce Constructivisme épistémologique rejoint par conséquent en apparence Kant et ses connaissances « à priori » mais ce n’est pas en réalité le cas car comme le dit L. von Bertalanffy (en parallèle de J. Piaget) : « chaque organisme découpe pour ainsi dire dans la masse des choses qui l’entourent et conformément aux dits organes un petit nombre de caractéristiques [Merkmale] auxquelles il réagit, qui forment dans leur ensemble son « milieu » [Umwelt] ; rien du reste ne lui étant accessible. Chaque animal est comme entouré d’une bulle de savon par son milieu, lequel porte en lui tout ce qui fait sa vie et est constitué des caractères qui lui sont accessibles […] La relation entre le milieu et l’organisation [psychobiologique] concerne aussi les « formes de l’intuition » que Kant tenait pour des principes immuables, « a priori » : l’espace et le temps. Le biologiste trouve qu’il n’y a pas d’espace ni de temps en soi, mais des espaces et temps qui dépendent de l’organisation. » [BERTALANFFY, L. von, Das Gefüge des Lebens, Leipzig, Teubner,1937, p 154-155]. Dans ce passage L. von Bertalanffy utilise d’ailleurs le mot « découpe (...) dans la masse des choses », mot clé qui revient très souvent dans cet essai...
- Le projectif soutien que tout sujet est projet, qu’il a un but, un objectif. Il faut par conséquent l’étudier non en fonction de sa seule organisation (synchronique) mais aussi de son projet, de sa fonction en fonction de ses buts téléologiques (diachronique). Il s’agit en somme pour reprendre la Systémique de trouver ses équifinalités. Cette approche rejoint clairement Spinoza lorsqu’il explique à Blyenbergh en (III-2-2) ce que j’appelle ici la Forme spatio-temporelle, et ben sûr rejoint Aristote.
- Le radical s’intéresse particulièrement à la construction de l’esprit (du chercheur), c’est le « rien n’est donné, tout est construit » de Bachelard. Sans être anti-Kantien par nature, il minimise le fait qu’il puisse exister quoi que ce soit « à priori » au départ, se rapprochant curieusement de la « tabula rasa » de Descartes… en voulant rejeter l’ontologisme. Cette position est quelque peu opposée aux deux autres, qui bien au contraire, soutiennent que si tout est construit, tout se construit à partir de quelque chose, et plus précisément de systèmes préexistants, structures originelles, structure cervicales innées issues de la sélection naturelle, culture, croyance conscientes ou inconscientes du chercheur, capacités intellectuelles différentes,…. Le radical rejette ainsi l'idée du « réel voilé » de B. d'Espagnat, non pas qu'il nie véritablement que le réel existe, mais plutôt qu'il part du principe que tout se passe « comme si » le réel n'existait pas. Tout -d'où le nom de radical- est alors construit dans l'esprit du chercheur, le réel tel qu'il le conçoit, son esprit et aussi l'action de son esprit sur le réel et réciproquement. Par conséquent ce Constructivisme est clairement relativiste et se rapproche -involontairement- d’une forme d’idéalisme. Cependant ce Constructivisme épistémologique ne peut en aucune manière se faire cataloguer comme plato-cartésien pour autant car il est clairement parent des deux précédents et est souvent cités par eux. L’apport de cette position est, par prudence toute vichienne, de s’abstenir de prendre un à priori ontologique sur le réel et de ne considérer l’existence de systèmes que dans les modèles créés par le chercheur sans en conclure que le modèle reflète si fidèlement la réalité : c’est « la carte n’est pas le territoire » de A. Korzybsky. En somme le Constructivisme radical est une théorie du savoir et non de l’être.
Comme on le voit ce « constructivisme » n'a rien à voir avec le constructivisme social dénoncé par F. Hayek. Celui de Hayek désigne la volonté -présomption fatale !-, de recréer /reconstruire la société en décrétant qu'une ou quelques idées doivent impérativement s'imposer à tous. Par exemple : une race supérieure aux autres, ou bien que tout les citoyens doivent être absolument égaux, ou encore qu'une "Classe" doit vaincre au bout de l'Histoire (avec un "H"). C'est la route de la servitude, souvent en apparence pavée de soit-disant bon sentiments...
SUITE du Blog : Théories alliées à la Systémique (F. Hayek)
Benjamin de Mesnard
samedi 17 janvier 2009
III) Théories alliées à la Systémique (Popper)
III-2-8) Karl Popper l'épistémologue
A l’inverse, on ne peut jamais démontrer qu’une théorie scientifique est vraie. Ainsi une théorie scientifique offrira d’emblée les moyens de la tester, de la soumettre à un certain nombre de tests expérimentaux, afin de démontrer qu’elle est fausse (si elle l’est) : c’est le concept traduit à tort en français de « falsification de la théorie », et qu’il est plus propre de traduire par « réfutabilité de la théorie ». Car il s'agit bien ici, non pas de produire un faux document (falsification), mais de réfuter une théorie. Karl Popper insiste sur le fait que ce n’est pas parce qu’une théorie a passé avec succès cent tests de réfutations qu’elle pourra être considérée comme vraie, ce que le grand public a souvent tendance à croire. Une théorie pourra aussi être considérée à tort comme vraie parce qu’elle a passé avec succès un certain nombre (voire un grand nombre) de tests expérimentaux effectués avec une certaine précision due aux outils de mesure de l’époque. Mais elle pourra être mise ensuite en défaut par le même test effectué ultérieurement avec des instruments plus précis, ou bien en tombant sur un cas de figure différent. Par exemple la théorie de la gravitation de Newton était considérée comme « vraie » avec la précision des instruments de mesure de la fin du XVIII° siècle. Elle s’est révélée fausse dans l’absolu, avec la précision plus élevée des instruments du XX° siècle, lorsque les effets relativistes de la théorie d’Einstein ont pu être mis en évidence. Il est maintenant admis -par seule commodité- de dire que la théorie de Newton est « vraie avec X % de marge d’erreur, ou d’approximation », mais cette approche doit être absolument rejetée.
Attention, cette notion de « vérité d’une théorie » a été approfondi par ailleurs, notamment par le Constructivisme épistémologique, et il n’est pas question ici de soutenir qu’Einstein est simplement plus exact que Newton, car on a bien assisté avec la Théorie de la Relativité à l’apparition d’un nouveau paradigme –au sens de Th. Kuhn- scientifique et épistémologique par rapport à la théorie de Newton. On rejoint ici le concept de théorie d’Einstein plus « forte » (au sens de Gödel) que la théorie de Newton. En effet la théorie de Newton peut être définie comme un sous-ensemble de la théorie d’Einstein, pour ne pas dire un sous-système. Une fois de plus, cela n’enlève rien au fait que la Théorie de la Relativité d’Einstein fait appel à des concepts et des outils mathématiques qui n’existent pas chez Newton, d'une part et que -surtout- la théorie de Newton a été réfutée définitivement entre autres avec la mesure de la trajectoire de la planète Mercure.
Dans une deuxième étape, Karl Popper est allé plus loin en contrant à nouveau les thèses du Cercle de Vienne munis de ses critères de démarcation, en montrant que la genèse (l’induction) des théories scientifique ne présentait aucun intérêt d’étude. Ce qui était important était ce régime de création/tests/réfutation/modification de la théorie (ou création d’une nouvelle théorie) /tests… à nouveau. Pour cela encore faut-il que l'environnement du chercheur, la société dans laquelle il vit, autorise l'apparition d'idée puis de théories nouvelles, remarque qui amènera K. Popper à « La Société Ouverte et ses Ennemis » T1 et 2 vu en (III-2-15)... Il a montré, que ces vagues successives de théorie plus ou moins en ruptures les unes avec les autres dans le temps, constituaient autant de paradigmes (mis en exergue par Th. Kuhn) qui se succédaient. Cette mise en lumière de la vraie genèse des théories scientifiques est due à cette boucle de rétroaction entre l’apparition aléatoire des idées à l’origine des théories -la fameuse pomme de Newton !- et cette possibilité de les tester et d’en démontrer ou non leur fausseté (les réfuter). On perçoit bien l’analogie complète entre cette sélection artificielle -parce que faite par les hommes- et la sélection naturelle des espèces vivantes chez Darwin. Cette sélection artificielle n'est autre que la « BVSR » : blind variation and selective retention, c'est à dire variations aveugles puis rétention sélective explicitée en (III-2-6), où l'induction joue le rôle des mutations, et les tests/expérimentations scientifiques pour tenter de réfuter la théorie, joue celui de la sélection naturelle. On voit immédiatement aussi l’esprit -involontairement- systémique de cette « théorie de l’évolution des espèces des théories scientifiques ». Ceci explique la capacité à survivre à très long terme des « théories » non-scientifiques : astrologie, graphologie, religions, idéologies, homéopathie, etc.… car elles ne sont pas soumises à cette véritable pression de sélection naturelle par l'environnement scientifique comme le sont les théories réellement scientifiques.
Enfin, K. Popper a apporté une dernière amélioration à ses théories en admettant qu’une théorie pouvait être plus ou moins corroborée. Ceci est une tentative de réponse aux critiques qui soulignaient le fait que certaines théories pourtant authentiquement scientifiques ne pourraient jamais être réfutées. En effet, toute théorie reposant sur une affirmation d’existence positive, comme par exemple : « il peut exister des cas de transmission de grippe aviaire à l’homme » ne pourra jamais être réfutée, car si ce cas ne s’est jamais produit, rien ne nous dit qu’il ne produira pas demain. Auquel cas la théorie serait bel et bien vérifiée bien que non réfutable. C’est en quelque sorte l’inverse des théories reposant sur une généralisation (par induction) comme l’exemple connu « Tous les corbeau sont noirs » où il suffit de trouver un cas et un seul de corbeau d’une autre couleur pour réfuter la théorie au sens de Popper. En résumé, Popper s’applique aux théories reposant sur une proposition de type « Tous … », ou « Quelque soit … ». Mais ne s’applique pas à « Il existe au moins un cas de… ». On est donc dans le cas inverse des théories de type « Tous...» : elles ne peuvent être réfutées.... bien que possiblement vérifiables !
Tableau synoptique corroborations/réfutations possibles :
K. Popper rejoint la Systémique par ses critères de démarcations basés sur la réfutabilité des théories (les modèles et les simulations qui en sont tirées pour la Systémique) et sa lutte contre le Positivisme « classique » d’A. Comte et le Positivisme Logique du Cercle de Vienne.
K. Popper a tenté de mettre sur pied une méthode pertinente dans le but de tester les théories afin de savoir si elles sont scientifiques ou non. K. Popper -en s’appuyant sur David Hume- a voulu montrer quels étaient les critères définissant la science de la non-science, ces critères sont qualifiés de critères de démarcation. En cela, il s’est opposé au Cercle de Vienne (Schlick, Carnap, Hahn, Neurath, etc…) et à leurs théories connues sous le nom de Positivisme Logique.
Le Positivisme Logique est un Positivisme corrigé de ses excès, car devenu idéologique voir mystique avec A. Comte. Le Positivisme Logique est résolument réductionniste et vérificationniste. Il est réductionniste car –comme le Positivisme- il est analytique et cartésien. Il est vérificationniste car il affirme comme critère de démarcation entre science et non-science que l’on doit pouvoir vérifier, c'est-à-dire reproduire à tout moment, une expérience pour vérifier que l’on obtient bien à nouveau sous les mêmes conditions, les mêmes résultats. On peut alors en déduire qu’une loi scientifique existe, que la Théorie est Vraie (avec un « V» majuscule). On retrouve ici le concept de « Présomption Fatale » chère à F. Hayek : la certitude de l'atteinte de la Vérité en science, présomption fatale qui se retrouve dans la société avec les historicistes Hégéliens ou Marxistes par exemple et autres Constructivistes Sociaux qui croient savoir reconstruire la société à zéro à partir de leurs Idées décrétés comme Vraies. K. Popper y revient, voir (III-2-15). Ainsi sur la certitude que les connaissances scientifiques aboutissent à la Vérité grâce au matérialisme scientifique, on peut donner ce mémoire signé Staline citant Lénine : « Lénine accuse de fidéisme Bogdanov, Bazarov, Iouchkévitch et les autres partisans de Mach ; il défend la thèse matérialiste bien connue d'après laquelle nos connaissances scientifiques sur les lois de la nature sont valables, et les lois scientifiques sont des vérités objectives ; il dit à ce sujet : « Le fidéisme contemporain ne répudie nullement la science ; il n'en répudie que les "prétentions excessives", à savoir la prétention de découvrir la vérité objective. S'il existe une vérité objective (comme le pensent les matérialistes), si les sciences de la nature, reflétant le monde extérieur dans l'"expérience" humaine, sont seules capables de nous donner la vérité objective, tout fidéisme doit être absolument rejeté. » (Matérialisme et empiriocriticisme, t. XIII, p.102.) ». [STALINE, J.V., Matérialisme dialectique et Matérialisme historique, p 8, 1938]. Bizarrement d’ailleurs Lénine et Staline assimilent d’une manière incompréhensibles le refus de croire que les sciences donnent des théories Vraies au fidéisme, c’est à dire à la Foi religieuse, elle qui bien au contraire prétend détenir la Vérité par la Foi et les saintes écritures… tout comme le marxisme !
Le Positivisme Logique est un Positivisme corrigé de ses excès, car devenu idéologique voir mystique avec A. Comte. Le Positivisme Logique est résolument réductionniste et vérificationniste. Il est réductionniste car –comme le Positivisme- il est analytique et cartésien. Il est vérificationniste car il affirme comme critère de démarcation entre science et non-science que l’on doit pouvoir vérifier, c'est-à-dire reproduire à tout moment, une expérience pour vérifier que l’on obtient bien à nouveau sous les mêmes conditions, les mêmes résultats. On peut alors en déduire qu’une loi scientifique existe, que la Théorie est Vraie (avec un « V» majuscule). On retrouve ici le concept de « Présomption Fatale » chère à F. Hayek : la certitude de l'atteinte de la Vérité en science, présomption fatale qui se retrouve dans la société avec les historicistes Hégéliens ou Marxistes par exemple et autres Constructivistes Sociaux qui croient savoir reconstruire la société à zéro à partir de leurs Idées décrétés comme Vraies. K. Popper y revient, voir (III-2-15). Ainsi sur la certitude que les connaissances scientifiques aboutissent à la Vérité grâce au matérialisme scientifique, on peut donner ce mémoire signé Staline citant Lénine : « Lénine accuse de fidéisme Bogdanov, Bazarov, Iouchkévitch et les autres partisans de Mach ; il défend la thèse matérialiste bien connue d'après laquelle nos connaissances scientifiques sur les lois de la nature sont valables, et les lois scientifiques sont des vérités objectives ; il dit à ce sujet : « Le fidéisme contemporain ne répudie nullement la science ; il n'en répudie que les "prétentions excessives", à savoir la prétention de découvrir la vérité objective. S'il existe une vérité objective (comme le pensent les matérialistes), si les sciences de la nature, reflétant le monde extérieur dans l'"expérience" humaine, sont seules capables de nous donner la vérité objective, tout fidéisme doit être absolument rejeté. » (Matérialisme et empiriocriticisme, t. XIII, p.102.) ». [STALINE, J.V., Matérialisme dialectique et Matérialisme historique, p 8, 1938]. Bizarrement d’ailleurs Lénine et Staline assimilent d’une manière incompréhensibles le refus de croire que les sciences donnent des théories Vraies au fidéisme, c’est à dire à la Foi religieuse, elle qui bien au contraire prétend détenir la Vérité par la Foi et les saintes écritures… tout comme le marxisme !
Pour K. Popper, ce critère vérificationniste trouve ses limites dans l’impossibilité –au contraire- d’affirmer qu’une théorie est vraie, même après un très grand nombre d’expériences répétées confirmant le résultat attendu. Rien ne dit en effet que le Nième test ne vas donner un résultat en contradiction avec une autre prédiction issue de la théorie, qui se trouve donc alors réfutée. Il faut aussi combattre le syndrome de l' explication "ad-hoc" donnée après coup pour expliquer pourquoi lors de ce dernier test la théorie a échouée. Il faut donc trouver un autre critère que celui des vérificationnistes pour qui il suffit d'avoir un grand nombre de tests, d'expériences confirmant une théorie pour la déclarer "vraie"... et cesser les tests, les expériences. Certains pourront aller jusqu'à délibérément ignorer, passer sous silence, les tests ayant démontré que la théorie est fausse : c'est ce que font graphologie, astrologie, ou les utopies (Nazisme, Marxisme...) etc... mais aussi régulièrement des scientifiques refusant une remise en cause par trop profonde de leur paradigme et du travail de toute une vie … En fait, pour K. Popper, une théorie est scientifique lorsqu’elle revendique un statut universel ET se donne les moyens d’être démontrée fausse si jamais il s’avère qu’elle l’est :
une théorie scientifique doit donc être intrinsèquement réfutable.
Attention, cette notion de « vérité d’une théorie » a été approfondi par ailleurs, notamment par le Constructivisme épistémologique, et il n’est pas question ici de soutenir qu’Einstein est simplement plus exact que Newton, car on a bien assisté avec la Théorie de la Relativité à l’apparition d’un nouveau paradigme –au sens de Th. Kuhn- scientifique et épistémologique par rapport à la théorie de Newton. On rejoint ici le concept de théorie d’Einstein plus « forte » (au sens de Gödel) que la théorie de Newton. En effet la théorie de Newton peut être définie comme un sous-ensemble de la théorie d’Einstein, pour ne pas dire un sous-système. Une fois de plus, cela n’enlève rien au fait que la Théorie de la Relativité d’Einstein fait appel à des concepts et des outils mathématiques qui n’existent pas chez Newton, d'une part et que -surtout- la théorie de Newton a été réfutée définitivement entre autres avec la mesure de la trajectoire de la planète Mercure.
Dans une deuxième étape, Karl Popper est allé plus loin en contrant à nouveau les thèses du Cercle de Vienne munis de ses critères de démarcation, en montrant que la genèse (l’induction) des théories scientifique ne présentait aucun intérêt d’étude. Ce qui était important était ce régime de création/tests/réfutation/modification de la théorie (ou création d’une nouvelle théorie) /tests… à nouveau. Pour cela encore faut-il que l'environnement du chercheur, la société dans laquelle il vit, autorise l'apparition d'idée puis de théories nouvelles, remarque qui amènera K. Popper à « La Société Ouverte et ses Ennemis » T1 et 2 vu en (III-2-15)... Il a montré, que ces vagues successives de théorie plus ou moins en ruptures les unes avec les autres dans le temps, constituaient autant de paradigmes (mis en exergue par Th. Kuhn) qui se succédaient. Cette mise en lumière de la vraie genèse des théories scientifiques est due à cette boucle de rétroaction entre l’apparition aléatoire des idées à l’origine des théories -la fameuse pomme de Newton !- et cette possibilité de les tester et d’en démontrer ou non leur fausseté (les réfuter). On perçoit bien l’analogie complète entre cette sélection artificielle -parce que faite par les hommes- et la sélection naturelle des espèces vivantes chez Darwin. Cette sélection artificielle n'est autre que la « BVSR » : blind variation and selective retention, c'est à dire variations aveugles puis rétention sélective explicitée en (III-2-6), où l'induction joue le rôle des mutations, et les tests/expérimentations scientifiques pour tenter de réfuter la théorie, joue celui de la sélection naturelle. On voit immédiatement aussi l’esprit -involontairement- systémique de cette « théorie de l’évolution des espèces des théories scientifiques ». Ceci explique la capacité à survivre à très long terme des « théories » non-scientifiques : astrologie, graphologie, religions, idéologies, homéopathie, etc.… car elles ne sont pas soumises à cette véritable pression de sélection naturelle par l'environnement scientifique comme le sont les théories réellement scientifiques.
Enfin, K. Popper a apporté une dernière amélioration à ses théories en admettant qu’une théorie pouvait être plus ou moins corroborée. Ceci est une tentative de réponse aux critiques qui soulignaient le fait que certaines théories pourtant authentiquement scientifiques ne pourraient jamais être réfutées. En effet, toute théorie reposant sur une affirmation d’existence positive, comme par exemple : « il peut exister des cas de transmission de grippe aviaire à l’homme » ne pourra jamais être réfutée, car si ce cas ne s’est jamais produit, rien ne nous dit qu’il ne produira pas demain. Auquel cas la théorie serait bel et bien vérifiée bien que non réfutable. C’est en quelque sorte l’inverse des théories reposant sur une généralisation (par induction) comme l’exemple connu « Tous les corbeau sont noirs » où il suffit de trouver un cas et un seul de corbeau d’une autre couleur pour réfuter la théorie au sens de Popper. En résumé, Popper s’applique aux théories reposant sur une proposition de type « Tous … », ou « Quelque soit … ». Mais ne s’applique pas à « Il existe au moins un cas de… ». On est donc dans le cas inverse des théories de type « Tous...» : elles ne peuvent être réfutées.... bien que possiblement vérifiables !
Tableau synoptique corroborations/réfutations possibles :
Type de théorie
|
Réfutation
|
Corroboration
|
« Quelque soit le cas… »
ou « Tous les… »
|
Possible :
Trouver un seul cas contraire.
Mais encore faut-il que les tests soient possibles en pratique (sociologie…), même s’ils sont possibles en théorie (un protocole de test est imaginable mais non réalisable en pratique).
|
Possible (statistique) :
Vérifier N cas confirmant la proposition (position de départ du Cercle de Vienne : le vérificationnisme). Mais rien ne dit qu’elle ne sera pas réfutée demain par un cas unique contraire.
|
« Il existe un cas… »
ou
« Il peut exister un cas… »
|
Impossible :
Vérifier N cas où la non-existence est confirmée ne réfute pas la proposition car le cas contraire confirmant le « il existe …» peut arriver demain.
|
Possible (absolu) :
Il suffit de trouver un cas confirmant ce « il existe… ». Mais encore faut-il que les tests soient possibles en pratique (sociologie…), même s’ils sont possibles en théorie (un protocole de test est imaginable mais non réalisable en pratique).
|
K. Popper rejoint la Systémique par ses critères de démarcations basés sur la réfutabilité des théories (les modèles et les simulations qui en sont tirées pour la Systémique) et sa lutte contre le Positivisme « classique » d’A. Comte et le Positivisme Logique du Cercle de Vienne.
Remarque importante : Concernant la Systémique, il faut assimiler aux théories scientifiques les modèles et leurs simulations (lorsque on fait "tourner" le modèle) : un modèle construit par un chercheur est scientifique s'il est réfutable lors d'une simulation. Si l’une de ces simulations montre un comportement présentant un écart « trop » important par rapport au comportement de l’objet réel, ce modèle devra être abandonné ou au minimum modifié. Le « trop » est ici à définir en fonction des instruments de mesures disponibles, du projet du modèle (naturellement) et de la découpe/simplification (est-elle pertinente ?) de l’objet étudié dans le réel. Ainsi une théorie scientifique n’est pas autre chose qu’un modèle, et inversement un modèle - au sens de la Systémique (voir II-3-7) - est une théorie scientifique : « …le modèle n’est pas tant une abstraction de la réalité qu’une réalité parallèle. Le monde du modèle n’est pas construit en partant du monde réel et par soustraction des facteurs qui le rendent complexe ; bien que le monde du modèle soit plus simple que le monde réel, il n’en est pas une simplification » (Sugden, 2000).
Dans cette approche l’astrologie reste effectivement classée comme non scientifique, par contre l’économie, la psychologie ou la sociologie rejetées par le positivisme pourraient être acceptée (?) comme scientifiques.
Encore faut-il dans ces domaines « mous » ne pas tomber dans l’inversion du modèle popérien : devant l’hyper complexité du réel, il est en effet tentant de construire un modèle basé sur un seul et unique paramètre via une « découpe/simplification » violente sans se poser de question sur sa validité, et donc en oubliant la phronésis/prudence d’Aristote et J.B. Vico. Après avoir fait « tourner » ce modèle hyper simplifié de la réalité (et donc facile à programmer), on en tire de grandes conclusions sur… la réalité censée se mettre en conformité avec ce modèle. Or c’est l’inverse qui doit être fait : dans la comparaison des résultats des simulations tirées du modèle avec le monde réel, c’est le modèle qui doit alors se mettre en conformité avec le monde réel et non l’inverse !
Le Constructivisme épistémologique parle en effet aujourd’hui de la viabilité ou non des modèles, concept fort proche de celui de la vérification des théories du Positivisme avant K .Popper. Ce qu’il faudrait évoquer serait plutôt un concept de modèle réfutable « viable sous réserve jusqu’à preuve du contraire », en étant conscient que, de toutes façon, le modèle ne corresponds jamais à la réalité mais peut seulement la simuler plus ou moins fidèlement car « la carte n’est pas le territoire » (A. Korzybsky). L’intérêt de cette approche est de lever le problème des théories « il existe » décrit plus haut. En effet un modèle peut permettre un grand nombre de simulations –c’est d’ailleurs l’un des principaux intérêts de l’approche systémique notamment dans le but d’approfondir sa compréhension de l’objet étudié- il devient donc plus facile de « déclencher » le scénario où le cas du « il existe » se produit pour alors confirmer le modèle. En effet la plupart des modèles sont virtuels et réalisés sur ordinateurs, et non physiquement, sur maquette, ou autres moyens non virtuels, ce qui autorise un nombre de simulations très élevées en un délai très court. On opère alors en symétrique entre les deux types de modèles : le « quelque soit » qui travaille en réfutation possible du modèle dès que la simulation s’écarte « trop » de la réalité et contredit ce « quelque soit » ; et le « il existe » qui travaille en vérification possible du modèle dès que la simulation déclenche le comportement, c’est à dire trouve le cas prévu par le « il existe ».
Schéma de la boucle rétroactive Systémique dans la démarche scientifique :
SUITE du Blog : Théories alliées à la Systémique (Darwin vs Popper)
Benjamin de Mesnard
Schéma de la boucle rétroactive Systémique dans la démarche scientifique :
SUITE du Blog : Théories alliées à la Systémique (Darwin vs Popper)
Benjamin de Mesnard
dimanche 26 octobre 2008
II) Présentation détaillée de la Systémique (7/8)
II-5) Les propriétés d’un système :
II-5-1) Émergence
II-5-1) Émergence
Le principe d’émergence est au centre du discours systémique. La Systémique soutien, en opposition avec Descartes et le réductionnisme, que quelque chose de neuf, de nouveau, de supplémentaire émerge de l’organisation, des relations, de la structure, qui relient entre eux les différents composants (sous-systèmes) constituant le système étudié. Ce « quelque chose » n’est pas prévisible, calculable, intrinsèque, suite à une étude (analyse) des composants du système. Il ne faut pas confondre ici deux choses : l’émergence, telle que décrite ici, et le résultat « prévisible » (plus ou moins facilement) d’en groupe de composants. Ainsi, le comportement d’un être humain n’est pas déductible des organes le composants (foie, viscères,...), il est donc émergeant. Par contre, il est d’usage de prendre comme exemple de comportement non-émergent un tas de sable donné comme « calculable », disons prévisible (bien que fort complexe en réalité !), à partir des qualités intrinsèques des grains de sables (mouillés, ronds, pente du tas de sable, etc.…). C’est pourquoi l’image d’un « tas » revient souvent en opposition à celui d’un système : les grains d’un tas de sable sont faiblement reliés, en inter-actions entre eux, ils ne constituent pas un système.
Dans le cas d'un tas de sable, cela ne signifie pas que ces « prévisions » ou « calculs » sont faciles et simples, bien sûr, car ils peuvent demander de grandes puissances de calculs mais, un algorithme existe (du moins en théorie…) qui permet de prévoir ce comportement. On n’est pas alors en face d’un système mais plutôt « d’un tas ». La différence entre ces deux cas tient à la densité des inter-relations. Ainsi le tas de sable n’est composé, que de grains quasi identiques entre eux, en inter-relations faibles (les frottements entre les grains), deux grains éloignés n’étant pas reliés. A l'inverse, tous les organes d’un être humains, mêmes éloignés, sont en interrelation très étroitement.
Enfin, cette non-prévisibilité, cette impossibilité de calculer, n’as rien à voir avec le principe d’Heisenberg de la Théorie Quantique. Ainsi, nous sommes au cœur du concept, au centre du principe même de l’émergence en théorie des systèmes et le refuser revient à démontrer une incompréhension profonde de l’idée d’émergence. Même en considérant que chaque élément du système serait le plus simple possible, en allant jusqu’à le décomposer en « atomes » (monades !) non quantiques, on peut fort bien tomber sur des systèmes non calculables et non prévisibles du fait de leurs richesses et de leurs complexités d’inter-relations. Un bon exemple, travaillé par Poincaré, est le problème des trois corps tournants les uns autour des autres dans l'espace en gravité newtonienne (inutile d’avoir recours à Einstein...). Même si -par exercice de pensée mathématique- on part du principe que ces trois corps sont des points mathématiques que l’on peut situer (position et vitesse) aussi précisément que demandé, leurs trajectoires au bout d’un certain temps deviendront imprévisibles. Ce temps est d’ailleurs un paramètre enregistrable du système, dépendant directement du degré de précision des positions initiales mesurées. Plus la précision des positions et vitesses initiales sera précise, plus ce temps « d’horizon de la prédiction » s’allongera, mais il existera toujours. Seule une mesure infiniment précise des positions initiales pourrait -en théorie- faire reporter ce temps d’horizon de la prédiction à l’infini également.
Ce qui est intéressant de noter ici, c’est que l’on retrouve une sorte de principe d’incertitude d’Heisenberg, par un fait que l’on pourrait qualifier de loi de la nature des systèmes mêmes.
On retombe ici sur l’apparition du chaos, des « attracteurs étranges » et des fractals, dans un système. On retrouve aussi naturellement l’apparition de la flèche du temps sans avoir besoin d’avoir recours au petit diable de Laplace.
Parmi les spécialistes travaillant sur le concept d’émergence, certains défendent l’émergence comme étant substantielle, d’autres non, défendant alors l'émergence comme étant accidentelle en s’opposant quelque fois durement. Il est à noter que les tenants de l’émergence substantielle –qualifiée d’ailleurs alors de substance émergente- peuvent être assimilés à la Systémique comme le fait I. Prigogine décrivant l’émergence de structures, les cellules de convection de Bénard, dans un liquide soumis à un gradient de température, voir (II-5-2). Ceci est erroné car on peut accepter le fait qu’il y a bien deux types d’émergences : substantielle et accidentelle. On retrouve alors fidèlement les qualités aristotélicienne de substance et d’accident, aucun argument ne permettant de rejeter à priori l’émergence accidentelle comme non authentique, ou inacceptable aux yeux de la Systémique. Ce débat peut être utilement clarifié encore une fois par l'idée de mouvement lent (substantiel) versus mouvement rapide (accidentel) de F. Hayek montrant bien le flou de la dichotomie -typiquement cartésienne !- ainsi décrétée et par là même les limites de ce débat. Nous reviendrons sur ce débat en (III-2-1).
Dans le cas d'un tas de sable, cela ne signifie pas que ces « prévisions » ou « calculs » sont faciles et simples, bien sûr, car ils peuvent demander de grandes puissances de calculs mais, un algorithme existe (du moins en théorie…) qui permet de prévoir ce comportement. On n’est pas alors en face d’un système mais plutôt « d’un tas ». La différence entre ces deux cas tient à la densité des inter-relations. Ainsi le tas de sable n’est composé, que de grains quasi identiques entre eux, en inter-relations faibles (les frottements entre les grains), deux grains éloignés n’étant pas reliés. A l'inverse, tous les organes d’un être humains, mêmes éloignés, sont en interrelation très étroitement.
Enfin, cette non-prévisibilité, cette impossibilité de calculer, n’as rien à voir avec le principe d’Heisenberg de la Théorie Quantique. Ainsi, nous sommes au cœur du concept, au centre du principe même de l’émergence en théorie des systèmes et le refuser revient à démontrer une incompréhension profonde de l’idée d’émergence. Même en considérant que chaque élément du système serait le plus simple possible, en allant jusqu’à le décomposer en « atomes » (monades !) non quantiques, on peut fort bien tomber sur des systèmes non calculables et non prévisibles du fait de leurs richesses et de leurs complexités d’inter-relations. Un bon exemple, travaillé par Poincaré, est le problème des trois corps tournants les uns autour des autres dans l'espace en gravité newtonienne (inutile d’avoir recours à Einstein...). Même si -par exercice de pensée mathématique- on part du principe que ces trois corps sont des points mathématiques que l’on peut situer (position et vitesse) aussi précisément que demandé, leurs trajectoires au bout d’un certain temps deviendront imprévisibles. Ce temps est d’ailleurs un paramètre enregistrable du système, dépendant directement du degré de précision des positions initiales mesurées. Plus la précision des positions et vitesses initiales sera précise, plus ce temps « d’horizon de la prédiction » s’allongera, mais il existera toujours. Seule une mesure infiniment précise des positions initiales pourrait -en théorie- faire reporter ce temps d’horizon de la prédiction à l’infini également.
Ce qui est intéressant de noter ici, c’est que l’on retrouve une sorte de principe d’incertitude d’Heisenberg, par un fait que l’on pourrait qualifier de loi de la nature des systèmes mêmes.
On retombe ici sur l’apparition du chaos, des « attracteurs étranges » et des fractals, dans un système. On retrouve aussi naturellement l’apparition de la flèche du temps sans avoir besoin d’avoir recours au petit diable de Laplace.
Parmi les spécialistes travaillant sur le concept d’émergence, certains défendent l’émergence comme étant substantielle, d’autres non, défendant alors l'émergence comme étant accidentelle en s’opposant quelque fois durement. Il est à noter que les tenants de l’émergence substantielle –qualifiée d’ailleurs alors de substance émergente- peuvent être assimilés à la Systémique comme le fait I. Prigogine décrivant l’émergence de structures, les cellules de convection de Bénard, dans un liquide soumis à un gradient de température, voir (II-5-2). Ceci est erroné car on peut accepter le fait qu’il y a bien deux types d’émergences : substantielle et accidentelle. On retrouve alors fidèlement les qualités aristotélicienne de substance et d’accident, aucun argument ne permettant de rejeter à priori l’émergence accidentelle comme non authentique, ou inacceptable aux yeux de la Systémique. Ce débat peut être utilement clarifié encore une fois par l'idée de mouvement lent (substantiel) versus mouvement rapide (accidentel) de F. Hayek montrant bien le flou de la dichotomie -typiquement cartésienne !- ainsi décrétée et par là même les limites de ce débat. Nous reviendrons sur ce débat en (III-2-1).
Enfin il faut distinguer deux conceptions de l’émergence. Ces deux conceptions sont déterminantes dans le débat sciences de la nature versus « sciences » humaines, on y reviendra. Je cite : « La première, que j’appellerai « émergentisme épistémologique », pose les thèses complémentaires suivantes : (2) les caractéristiques d’une entité, y compris constitutives, sont toujours dérivables en principe de celles de ses parties et de leurs relations (externes et internes) ; (3) dans le cas général, le manque de connaissance exhaustive des relations internes et des propriétés relationnelles des parties impose d’admettre au moins provisoirement des traits émergents, non réductibles, ainsi que des niveaux de réalité correspondants, dans une perspective heuristique et en vue d’obtenir une connaissance significative de nature holistique ; (4) chaque science référant à un niveau de réalité distingué doit au moins provisoirement développer ses propres termes, concepts et lois, ne serait-ce qu’afin de fournir les connaissances de type holistique nécessaires à l’actualisation de (2).
Une autre variante, que j’appellerai « émergentisme métaphysique », pose des thèses plus radicales : (2’) à supposer que l’on connaisse toutes les propriétés des parties d’une entité et toutes leurs relations, on ne pourrait toutefois pas encore en dériver toutes les propriétés de cette entité, dont les traits holistiques forment une nouveauté radicale et définitivement irréductible ; (3’) les traits émergents doivent être acceptés sans explication et former le point de départ de nouvelles recherches dans une perspective holistique admettant une stratification du réel en niveaux ontologiquement distincts ; (4’) chaque science référant à un niveau de réalité doit avoir ses propres vocabulaire, principes et lois, sans souci des sciences référant à des niveaux de réalité auxquels appartiendraient les
parties constitutives des entités qu’elle considère, dans la mesure tout au moins où aucune contradiction n’est ainsi engendrée. » [POUVREAU, David, Une histoire de la « systémologie générale » de Ludwig von Bertalanffy, Thèse EHESS, 2013, p 51-52]. La première, l’épistémologique, que l’on pourrait qualifier de juste milieu aristotélicien raisonnable est l’outil utilisé avec prudence par les sciences de la nature ; la seconde, la métaphysique, a tendance à être érigée en absolu dans les « sciences » sociales en ayant recours à des personnifications abusives dénoncées par S. Weil, K. Popper ou F. Hayek souvent cités par la suite dans cet essai. En bref, cette émergence métaphysique fini par voir des systèmes et en faire des êtres, des personnes agissant et se comportant comme des êtres humains, ce qui n’est pourtant pas le cas, c’est le mécanisme de la personnification, on y reviendra. Bien entendu L. von Bertalanffy se situe clairement sur l’émergence épistémologique.
II-5-2) L’intentionnalité versus la finalité
Il ne faut pas confondre finalité et intentionnalité dans un système. Un exemple permet d’illustrer très simplement cette différence : l’intention d’une équipe d’ingénieur est de créer tel type d’avion, la finalité d’un avion (constat) est de voler.
Avec l’intention, on constate une propriété affichée ou imposée à un système mais pas forcément réalisée par lui. Avec la finalité : « tout se passe comme si... » : propriété révélée par le comportement du système, optimisation d’une fonction, d'un objectif,... le système tends de lui-même à réaliser ou atteindre une ou des fonctions ou objectifs.
La non compréhension de la différence de ces deux concepts explique les débats entre vitalistes ou mécanistes, finalisme et téléonomie, tout particulièrement sur les systèmes vivants où il est difficile de séparer téléonomie simple et finalisme. En effet la finalité de l’avion à voler du fait de l’intention des ingénieurs qui l’on conçu ne pose pas débat, par contre celui-ci est posé avec les êtres vivants.
Dans un système comme le pendule (similaire au problème des trois corps), on voit apparaître les phénomènes d’attracteurs étranges (fractals), sans qu’il soit possible de décréter que le pendule est soumis à l’intention d’un créateur de le faire converger vers cet attracteur étrange. Il existe aussi d’autres systèmes simples non créés intentionnellement et convergeant eux aussi vers un état qui semble « pré désigné » sans intention d’un inventeur. Ainsi, les cellules de convections découvertes par Bénard apparaissant spontanément dans une casserole remplie d’eau chauffée à feu doux, et présentant un certain gradient de températures, ne peuvent en aucun cas être le résultat d’une intention. Pourtant, l’eau converge spontanément vers cet état « final », plus exactement d’équilibre dynamique, si la température de la casserole reste dans une plage correcte.
François Jacob va jusqu’à écrire : « la reproduction d'un organisme est devenue celle des molécules qui le constituent. […]
Ce qui est transmis de génération en génération, ce sont les «instructions » spécifiant les structures moléculaires. Ce sont les plans d'architecture du futur organisme. Ce sont aussi les moyens de mettre ces plans à exécution et de coordonner les activités du système. Chaque œuf contient donc, dans les chromosomes reçus de ses parents, tout son propre avenir, les étapes de son développement, la forme et les propriétés de l'être qui en émergera. L'organisme devient ainsi la réalisation d'un programme prescrit par l'hérédité. A l'intention d'une Psyché s'est substituée la traduction d'un message. L'être vivant représente bien l'exécution d'un dessein, mais qu'aucune intelligence n'a conçu. Il tend vers un but, mais qu'aucune volonté n'a choisi. Ce but, c'est de préparer un programme identique pour la génération suivante. C'est de se reproduire. Un organisme n'est jamais qu'une transition, une étape entre ce qui fut et ce qui sera. La reproduction en constitue à la fois l'origine et la fin, la cause et le but. Avec le concept de programme appliqué à l'hérédité, disparaissent certaines des contradictions que la biologie avait résumées par une série d’oppositions : finalité et mécanisme, nécessité et contingence, stabilité et variation. Dans l'idée de programme viennent se fondre deux notions que l'intuition avait associées aux êtres vivants : la mémoire et le projet. Par mémoire s'entend le souvenir des parents que l'hérédité trace dans l'enfant. Par projet, le plan qui dirige dans le détail la formation d'un organisme. » (17, introduction).
II-5-3) Ago-antagonisme et homéostasie
Souvent confondue avec la dialectique , remplacée en l'occurrence par le terme de dialogique par E. Morin. Les systèmes en équilibres dynamiques se trouvent dans un « jeu » de forces variées, souvent nombreuses, s'exerçant dans des sens différents (et non forcément opposés) mais plus ou moins égales. Certaines forces, ou sous-systèmes, jouent dans le même sens (agonistes), d'autres en opposition (antagonistes). Ainsi, en médecine, comme l'observe E. Bernard-Weil dans un article sur le sujet « Théorie et praxis des systèmes ago-antagonistes » : « Très simplement, il y a deux hypophyses. L'hypophyse postérieure sécrète une hormone, l'hormone anti-diurétique (HAD), et l'hypophyse antérieure sécrète indirectement (via l’ACTH) une hormone diurétique cortico-surrénalienne, la cortisone. Vous enlevez l'hypophyse postérieure, chez l’animal […] et l'on comprend pourquoi apparaît un diabète insipide, émission quotidienne de plus de 10 litres d'urines par jour. Et maintenant enlevez l'hypophyse antérieure […], le diabète insipide disparaît, car il n'y a plus ni hormones diurétique ni anti-diurétique, en fait il n'y a pas eu de guérison, mais deux maladies au lieu d'une et qui paraissent s'annuler. ». Il a donc découvert ici un système composé de deux sous-système dialogiques (les deux hypophyses) produisant chacun une hormone qui va venir équilibrer en permanence l'autre et vice-versa. Ces deux hypophyses ne travaillent pas en simple opposition dialectique, elle ne sont pas la même choses (« A » et « non A ») s'opposant à lui-même car ce sont bien deux hypophyses différentes. Non, elles travaillent de concert, ensemble (agonisme) et simultanément en équilibre instable par équilibration dynamique (antagonisme) permanent. La rupture de cette dialogique, de ce travail en commun comme deux jambes s'équilibrant l'une l'autre, amène la maladie, qui n'est pas autre choses qu'un déséquilibre.
En mécanique, sur une voiture, les sous-systèmes « accélérateur » et « freins » loin de s’opposer comme l’aurait conclu un dialecticien comme Hegel ou Marx, coopèrent ensemble au contraire en mode dialogique pour faire avancer correctement le véhicule. Ainsi par exemple lors d’une course des 24 Heures du Mans un concurrent a gagné car pour la première fois sa voiture avait des freins à disques beaucoup plus efficaces, lui permettant d’aller… beaucoup plus vite !
De même en matière de socio-politique, le maître mot est là aussi le jeu des forces ago-antagonistes. Simone Weil résume très bien ce jeu des forces, se livrant en passant à une critique destructrice du Marxisme dès 1937... : « Les marxistes n’ont pas facilité une vue claire du problème en choisissant l’économie comme clef de l’énigme sociale. Si l’on considère une société comme un être collectif, alors ce gros animal, comme tous les animaux, se définit principalement par la manière dont il s’assure la nourriture, le sommeil, la protection contre les intempéries, bref la vie. Mais la société considérée dans son rapport avec l’individu ne peut pas se définir simplement par les modalités de la production. On a beau avoir recours à toutes sortes de subtilités pour faire de la guerre un phénomène essentiellement économique, il éclate aux yeux que la guerre est destruction et non production. L’obéissance et le commandement sont aussi des phénomènes dont les conditions de la production ne suffisent pas à rendre compte. Quand un vieil ouvrier sans travail et sans secours périt silencieusement dans la rue ou dans un taudis, cette soumission qui s’étend jusque dans la mort ne peut pas s’expliquer par le jeu des nécessités vitales. La destruction massive du blé, du café, pendant la crise est un exemple non moins clair. La notion de force et non la notion de besoin constitue la clef qui permet de lire les phénomènes sociaux. ». [WEIL, Simone, « Méditation sur l’Obéissance et la Liberté », Œuvres, Ed. Quarto Gallimard, p 490].
II-5-4) Eco-Auto-Re-Organisation des systèmes loin de l’équilibre
C’est ici qu’interviennent dans l’étude des systèmes les phénomènes d’auto-organisation permettant d’éclairer le débat finalisme-intention, à condition de ne pas oublier les phénomènes d’émergences cités plus hauts.
Ces aspects ont été particulièrement développés par E. Morin et JL Le Moigne.
Loin de l’équilibre, signifie que le système n’est pas au repos, et est soumis à des flux d’énergies, informations et/ou de matières. Ces flux ne doivent pas être ni trop faibles ni trop fort, dans les limites de ce que peut « encaisser » le système. Dans cet état, le système se trouve probablement dans l’état qui lui est « le meilleur ». Ce dernier terme entre guillemets montre bien le penchant de l’être humain pour les termes finalistes…
Dans ce régime, un système peut spontanément, sur des délais variables, se mettre à présenter des phénomènes de réorganisations internes. Ces réorganisations interviendront surtout si les natures ou les régimes des flux entrants ou sortants évoluent dans le temps, ceci, à nouveau, sans dépasser une plage admissible pour le système.
Ces réorganisations internes peuvent provenir soit :
II-5-2) L’intentionnalité versus la finalité
Il ne faut pas confondre finalité et intentionnalité dans un système. Un exemple permet d’illustrer très simplement cette différence : l’intention d’une équipe d’ingénieur est de créer tel type d’avion, la finalité d’un avion (constat) est de voler.
Avec l’intention, on constate une propriété affichée ou imposée à un système mais pas forcément réalisée par lui. Avec la finalité : « tout se passe comme si... » : propriété révélée par le comportement du système, optimisation d’une fonction, d'un objectif,... le système tends de lui-même à réaliser ou atteindre une ou des fonctions ou objectifs.
La non compréhension de la différence de ces deux concepts explique les débats entre vitalistes ou mécanistes, finalisme et téléonomie, tout particulièrement sur les systèmes vivants où il est difficile de séparer téléonomie simple et finalisme. En effet la finalité de l’avion à voler du fait de l’intention des ingénieurs qui l’on conçu ne pose pas débat, par contre celui-ci est posé avec les êtres vivants.
Dans un système comme le pendule (similaire au problème des trois corps), on voit apparaître les phénomènes d’attracteurs étranges (fractals), sans qu’il soit possible de décréter que le pendule est soumis à l’intention d’un créateur de le faire converger vers cet attracteur étrange. Il existe aussi d’autres systèmes simples non créés intentionnellement et convergeant eux aussi vers un état qui semble « pré désigné » sans intention d’un inventeur. Ainsi, les cellules de convections découvertes par Bénard apparaissant spontanément dans une casserole remplie d’eau chauffée à feu doux, et présentant un certain gradient de températures, ne peuvent en aucun cas être le résultat d’une intention. Pourtant, l’eau converge spontanément vers cet état « final », plus exactement d’équilibre dynamique, si la température de la casserole reste dans une plage correcte.
François Jacob va jusqu’à écrire : « la reproduction d'un organisme est devenue celle des molécules qui le constituent. […]
Ce qui est transmis de génération en génération, ce sont les «instructions » spécifiant les structures moléculaires. Ce sont les plans d'architecture du futur organisme. Ce sont aussi les moyens de mettre ces plans à exécution et de coordonner les activités du système. Chaque œuf contient donc, dans les chromosomes reçus de ses parents, tout son propre avenir, les étapes de son développement, la forme et les propriétés de l'être qui en émergera. L'organisme devient ainsi la réalisation d'un programme prescrit par l'hérédité. A l'intention d'une Psyché s'est substituée la traduction d'un message. L'être vivant représente bien l'exécution d'un dessein, mais qu'aucune intelligence n'a conçu. Il tend vers un but, mais qu'aucune volonté n'a choisi. Ce but, c'est de préparer un programme identique pour la génération suivante. C'est de se reproduire. Un organisme n'est jamais qu'une transition, une étape entre ce qui fut et ce qui sera. La reproduction en constitue à la fois l'origine et la fin, la cause et le but. Avec le concept de programme appliqué à l'hérédité, disparaissent certaines des contradictions que la biologie avait résumées par une série d’oppositions : finalité et mécanisme, nécessité et contingence, stabilité et variation. Dans l'idée de programme viennent se fondre deux notions que l'intuition avait associées aux êtres vivants : la mémoire et le projet. Par mémoire s'entend le souvenir des parents que l'hérédité trace dans l'enfant. Par projet, le plan qui dirige dans le détail la formation d'un organisme. » (17, introduction).
II-5-3) Ago-antagonisme et homéostasie
Souvent confondue avec la dialectique , remplacée en l'occurrence par le terme de dialogique par E. Morin. Les systèmes en équilibres dynamiques se trouvent dans un « jeu » de forces variées, souvent nombreuses, s'exerçant dans des sens différents (et non forcément opposés) mais plus ou moins égales. Certaines forces, ou sous-systèmes, jouent dans le même sens (agonistes), d'autres en opposition (antagonistes). Ainsi, en médecine, comme l'observe E. Bernard-Weil dans un article sur le sujet « Théorie et praxis des systèmes ago-antagonistes » : « Très simplement, il y a deux hypophyses. L'hypophyse postérieure sécrète une hormone, l'hormone anti-diurétique (HAD), et l'hypophyse antérieure sécrète indirectement (via l’ACTH) une hormone diurétique cortico-surrénalienne, la cortisone. Vous enlevez l'hypophyse postérieure, chez l’animal […] et l'on comprend pourquoi apparaît un diabète insipide, émission quotidienne de plus de 10 litres d'urines par jour. Et maintenant enlevez l'hypophyse antérieure […], le diabète insipide disparaît, car il n'y a plus ni hormones diurétique ni anti-diurétique, en fait il n'y a pas eu de guérison, mais deux maladies au lieu d'une et qui paraissent s'annuler. ». Il a donc découvert ici un système composé de deux sous-système dialogiques (les deux hypophyses) produisant chacun une hormone qui va venir équilibrer en permanence l'autre et vice-versa. Ces deux hypophyses ne travaillent pas en simple opposition dialectique, elle ne sont pas la même choses (« A » et « non A ») s'opposant à lui-même car ce sont bien deux hypophyses différentes. Non, elles travaillent de concert, ensemble (agonisme) et simultanément en équilibre instable par équilibration dynamique (antagonisme) permanent. La rupture de cette dialogique, de ce travail en commun comme deux jambes s'équilibrant l'une l'autre, amène la maladie, qui n'est pas autre choses qu'un déséquilibre.
En mécanique, sur une voiture, les sous-systèmes « accélérateur » et « freins » loin de s’opposer comme l’aurait conclu un dialecticien comme Hegel ou Marx, coopèrent ensemble au contraire en mode dialogique pour faire avancer correctement le véhicule. Ainsi par exemple lors d’une course des 24 Heures du Mans un concurrent a gagné car pour la première fois sa voiture avait des freins à disques beaucoup plus efficaces, lui permettant d’aller… beaucoup plus vite !
De même en matière de socio-politique, le maître mot est là aussi le jeu des forces ago-antagonistes. Simone Weil résume très bien ce jeu des forces, se livrant en passant à une critique destructrice du Marxisme dès 1937... : « Les marxistes n’ont pas facilité une vue claire du problème en choisissant l’économie comme clef de l’énigme sociale. Si l’on considère une société comme un être collectif, alors ce gros animal, comme tous les animaux, se définit principalement par la manière dont il s’assure la nourriture, le sommeil, la protection contre les intempéries, bref la vie. Mais la société considérée dans son rapport avec l’individu ne peut pas se définir simplement par les modalités de la production. On a beau avoir recours à toutes sortes de subtilités pour faire de la guerre un phénomène essentiellement économique, il éclate aux yeux que la guerre est destruction et non production. L’obéissance et le commandement sont aussi des phénomènes dont les conditions de la production ne suffisent pas à rendre compte. Quand un vieil ouvrier sans travail et sans secours périt silencieusement dans la rue ou dans un taudis, cette soumission qui s’étend jusque dans la mort ne peut pas s’expliquer par le jeu des nécessités vitales. La destruction massive du blé, du café, pendant la crise est un exemple non moins clair. La notion de force et non la notion de besoin constitue la clef qui permet de lire les phénomènes sociaux. ». [WEIL, Simone, « Méditation sur l’Obéissance et la Liberté », Œuvres, Ed. Quarto Gallimard, p 490].
II-5-4) Eco-Auto-Re-Organisation des systèmes loin de l’équilibre
C’est ici qu’interviennent dans l’étude des systèmes les phénomènes d’auto-organisation permettant d’éclairer le débat finalisme-intention, à condition de ne pas oublier les phénomènes d’émergences cités plus hauts.
Ces aspects ont été particulièrement développés par E. Morin et JL Le Moigne.
Loin de l’équilibre, signifie que le système n’est pas au repos, et est soumis à des flux d’énergies, informations et/ou de matières. Ces flux ne doivent pas être ni trop faibles ni trop fort, dans les limites de ce que peut « encaisser » le système. Dans cet état, le système se trouve probablement dans l’état qui lui est « le meilleur ». Ce dernier terme entre guillemets montre bien le penchant de l’être humain pour les termes finalistes…
Dans ce régime, un système peut spontanément, sur des délais variables, se mettre à présenter des phénomènes de réorganisations internes. Ces réorganisations interviendront surtout si les natures ou les régimes des flux entrants ou sortants évoluent dans le temps, ceci, à nouveau, sans dépasser une plage admissible pour le système.
Ces réorganisations internes peuvent provenir soit :
- de l’apparition de nouvelles relations ou inter-relations entre ses sous-systèmes. Par exemple l’établissement de nouvelles synapses dans un cerveau réalisant un apprentissage.
- d’une modification limitée de l’un ou de plusieurs sous-systèmes (qu'il faudrait alors à leur tour individuellement étudier en tant que systèmes).
- D’une transformation en profondeur de l’un ou de plusieurs sous-systèmes aboutissant à l’apparition d’un sous-système réellement nouveau.
A nouveau un exemple simple est l’auto-organisation des cellules de convection dans une casserole d’eau chaude. Aucun ingénieur n’est présent avec l’intention (intentionnalité) de les créer, et pourtant le système s’auto-organise spontanément en un réseau de cellules avec une structure typique en cellule d’abeilles.
Cet état est instable, les cellules varient en permanence de taille et de forme, tout en restant proche de la section hexagonale. Une cellule peut presque même par instants disparaître pour quelques secondes, plus la température augmente et plus ces mouvements deviendront des soubresauts violents qui finiront par anéantir cette nouvelle (auto) organisation : le système est mort, il a explosé sous la trop grande intensité des flux auquel il a été soumis.
Comme déjà évoqué en (II-3-3) au sujet de JL Le Moigne, Edgar Morin dit que l’organisation est en fait bien plus qu’une simple auto-organisation, mais est un processus de transformation permanente sur 3 registres imbriqués :
« - celui de l’éco-organisation, qui est l’ouverture aux évolutions et à la diversité de l’environnement, éco-organisation qui est à la fois dépendante de l’environnement, mais aussi créatrice de son environnement.
- Ensuite l’auto-organisation, qui est le développement de l’autonomie, la capacité à élaborer et à mettre en œuvre ses propres projets, d’organiser ses modes d’action et ses processus pour s’auto-produire de façon adaptée aux contraintes et sophistications de l’environnement.
- Troisièmement, la ré-organisation qui est la transformation permanente assez subtile, entre le renouvellement et la reproduction, ré-organisation qui ne peut s’opérer qu’en complète symbiose avec l’éco et l’auto-organisation. ». (Evelyne Biausser, éditrice du dossier MCX XVIII, Une Pragmatique du « bien penser »).
Ainsi l’éco-organisation consiste à s’adapter aux changements de l’environnement, et en retour à modifier celui-ci, de la bactérie qui va alcooliser son environnement en consommant le sucre contenu par celui-ci pour produire de la bière, jusqu’à l’homme et le réchauffement planétaire… qui devront ensuite s’adapter en retour aux changements de l’environnement pourtant provoqués par eux-mêmes. C’est le système actif.
L’auto-organisation a été traitée plus haut, c’est le système dynamiquement stable capable de s’organiser de lui-même (immanence) .
La ré-organisation qui consiste à détruire/ construire son organisation interne comme explicité plus bas en (II-5-4-c), c’est le système évoluant. On arrive alors à la phrase à méditer d’E. Morin : « l’organisation est l’organisation de l’organisation ».
SUITE du Blog : Les propriétés d'un système
Benjamin de Mesnard
Cet état est instable, les cellules varient en permanence de taille et de forme, tout en restant proche de la section hexagonale. Une cellule peut presque même par instants disparaître pour quelques secondes, plus la température augmente et plus ces mouvements deviendront des soubresauts violents qui finiront par anéantir cette nouvelle (auto) organisation : le système est mort, il a explosé sous la trop grande intensité des flux auquel il a été soumis.
Comme déjà évoqué en (II-3-3) au sujet de JL Le Moigne, Edgar Morin dit que l’organisation est en fait bien plus qu’une simple auto-organisation, mais est un processus de transformation permanente sur 3 registres imbriqués :
« - celui de l’éco-organisation, qui est l’ouverture aux évolutions et à la diversité de l’environnement, éco-organisation qui est à la fois dépendante de l’environnement, mais aussi créatrice de son environnement.
- Ensuite l’auto-organisation, qui est le développement de l’autonomie, la capacité à élaborer et à mettre en œuvre ses propres projets, d’organiser ses modes d’action et ses processus pour s’auto-produire de façon adaptée aux contraintes et sophistications de l’environnement.
- Troisièmement, la ré-organisation qui est la transformation permanente assez subtile, entre le renouvellement et la reproduction, ré-organisation qui ne peut s’opérer qu’en complète symbiose avec l’éco et l’auto-organisation. ». (Evelyne Biausser, éditrice du dossier MCX XVIII, Une Pragmatique du « bien penser »).
Ainsi l’éco-organisation consiste à s’adapter aux changements de l’environnement, et en retour à modifier celui-ci, de la bactérie qui va alcooliser son environnement en consommant le sucre contenu par celui-ci pour produire de la bière, jusqu’à l’homme et le réchauffement planétaire… qui devront ensuite s’adapter en retour aux changements de l’environnement pourtant provoqués par eux-mêmes. C’est le système actif.
L’auto-organisation a été traitée plus haut, c’est le système dynamiquement stable capable de s’organiser de lui-même (immanence) .
La ré-organisation qui consiste à détruire/ construire son organisation interne comme explicité plus bas en (II-5-4-c), c’est le système évoluant. On arrive alors à la phrase à méditer d’E. Morin : « l’organisation est l’organisation de l’organisation ».
SUITE du Blog : Les propriétés d'un système
Benjamin de Mesnard
dimanche 28 septembre 2008
II) Présentation détaillée de la Systémique (4/8)
II-3-7) Formalisation et modèles :
Il existe plusieurs types de modèles, dans le cadre de processus de modélisations bien définis :
a) Types de modèles :
Découpe - malheureusement arbitraire - dans le réel du système à étudier :
Le chercheur découpe donc arbitrairement « de manière consciemment simplifiée certains aspects » du réel perçu, plus exactement dans l'ensemble des phénomènes que nos sens outillés ou non peuvent percevoir.
Une note importante ici : le mot découpe est ici volontairement mal choisi. Il s’agit aussi bien à ce stade qu’aux suivants de construire (voir III-2-13 Constructivisme) en fait le système scientifique à étudier. Comme le dit Jean Ullmo en citant d’ailleurs Bachelard : « la Science choisit le réel, choix actif d’objets scientifiques construits (et non choix passifs parmi une réalité donnée), réel opératoire projeté par l’esprit pour s’égaler aux phénomènes ». En passant, il faut aussi remarquer la complète opposition de la Systémique, et en particulier du Constructivisme épistémologique, avec les classiques sur ce point puisqu’il n’y a plus alors ni “ Réel Donné ” immédiat, ni de “ Vérité Absolue ”, comme le soutiennent les positivistes avec Descartes dont la méthode consiste « à ne jamais reconnaître une chose pour vraie que je ne la connaisse évidemment pour telle ». Le critère « d’Évidence » -typiquement cartésien- étant des plus dangereux, peu clair et contestable, car dépendant en réalité des à priori culturels, religieux, psychologiques, etc… de l’intéressé.
Cette découpe pourra se faire selon plusieurs perspectives :
Identification et classification des éléments constitutifs par leurs propriétés, classes, groupes,...etc :
On ne peut parler de Systémique sans parler de formalisation. Les différents formalismes préexistaient à la Systémique mais sont employés par elle méthodiquement et consciemment, notamment en établissant des analogies avec le réel par l’intermédiaire de modèles. L’analogie est un outil pour la Systémique, encore une fois en opposition avec Descartes qui la combattait comme incertaine, ou relevant d’une pensée archaïque et magique qu’il fallait éliminer. Le malentendu a duré longtemps, l’utilisation systématique des modèles et des analogies, dégagés de toute confusion avec une pensée primitive, se faisant au cours du XX° siècle.
Enfin il ne faut pas perdre de vue deux choses avec les modèles :
- « la carte n’est pas le territoire » d’A. Korzybski, le modèle n’est pas la réalité ;
- ils doivent donc être utilisés, et surtout généralisés au monde réel avec la plus extrême phronésis/prudence d’Aristote et G.B. Vico ;
- enfin, inventer, construire une théorie, n’est pas autre choses que créer un modèle, une théorie est un modèle conceptuel de la réalité, simplifié et découpé plus ou moins arbitrairement dans la réalité et en prenant des risques. C’est ce que résume L. von Bertalanffy dès 1965 en une phrase qui contient déjà tous les mots clés de la Systémique, du Constructivisme épistémologique et de la méthode de conjecture/réfutation de K. Popper : « Un modèle théorique est une construction conceptuelle qui restitue de manière consciemment simplifiée certains aspects d’un phénomène naturel et permet des déductions et des prédictions qui peuvent être testées dans l’expérience. ». [BERTALANFFY L. von, « Zur Geschichte theoretischer Modelle in der Biologie. » , Studium Generale, 18, 1965, p 291].
Enfin il ne faut pas perdre de vue deux choses avec les modèles :
- « la carte n’est pas le territoire » d’A. Korzybski, le modèle n’est pas la réalité ;
- ils doivent donc être utilisés, et surtout généralisés au monde réel avec la plus extrême phronésis/prudence d’Aristote et G.B. Vico ;
- enfin, inventer, construire une théorie, n’est pas autre choses que créer un modèle, une théorie est un modèle conceptuel de la réalité, simplifié et découpé plus ou moins arbitrairement dans la réalité et en prenant des risques. C’est ce que résume L. von Bertalanffy dès 1965 en une phrase qui contient déjà tous les mots clés de la Systémique, du Constructivisme épistémologique et de la méthode de conjecture/réfutation de K. Popper : « Un modèle théorique est une construction conceptuelle qui restitue de manière consciemment simplifiée certains aspects d’un phénomène naturel et permet des déductions et des prédictions qui peuvent être testées dans l’expérience. ». [BERTALANFFY L. von, « Zur Geschichte theoretischer Modelle in der Biologie. » , Studium Generale, 18, 1965, p 291].
Il existe plusieurs types de modèles, dans le cadre de processus de modélisations bien définis :
a) Types de modèles :
- Modèle verbal (premier modèle mis sur pied par le chercheur). Ce modèle intuitif est le plus proche de la pensée primitive ou instinctive, où le chercheur explore une idée incertaine voire fugitive.
- Modèle abstrait en langage symbolique, exemple : mathématiques, physique, ... Avec ce modèle, le chercheur passe à un stade de consolidation où ce modèle sera l’outil permettant d’explorer les divers aspects de l’hypothèse travaillée, ses contours, conséquences, réactions, pouvant susciter d’autres pistes le cas échéant. Cet outil permettra de faire « vivre » le système exploré.
- Maquette sur matériaux, sur plastique, sur ordinateur … A ce stade il s’agit de tester dans des conditions les plus réelles possibles le système étudié. Un modèle abstrait n’est jamais à l’abri d’erreurs, quelques fois importantes, qu’une maquette révèlera plus facilement. Le dernier stade de la maquette sera le test en réel (prototype, échantillons, analyses statistiques,…).
- Schématisation, langage pictographique : AMS (Analyse Modulaire des Systèmes), organigrammes, ... qui sont autant de formes de langages possibles, assimilables aux modèles abstraits.
- Modèles cognitifs : compréhension du système.
- Modèles normatifs : optimisation en fonction d’un projet, et mesures précises des performances, réactions, comportements, dimensions, du système étudié.
- Modèles prospectifs : description des formes d’avenir possibles du système en fonction d’entrées différentes, d’états de départs, de variables internes, de l’environnement, ....
Découpe - malheureusement arbitraire - dans le réel du système à étudier :
Le chercheur découpe donc arbitrairement « de manière consciemment simplifiée certains aspects » du réel perçu, plus exactement dans l'ensemble des phénomènes que nos sens outillés ou non peuvent percevoir.
Une note importante ici : le mot découpe est ici volontairement mal choisi. Il s’agit aussi bien à ce stade qu’aux suivants de construire (voir III-2-13 Constructivisme) en fait le système scientifique à étudier. Comme le dit Jean Ullmo en citant d’ailleurs Bachelard : « la Science choisit le réel, choix actif d’objets scientifiques construits (et non choix passifs parmi une réalité donnée), réel opératoire projeté par l’esprit pour s’égaler aux phénomènes ». En passant, il faut aussi remarquer la complète opposition de la Systémique, et en particulier du Constructivisme épistémologique, avec les classiques sur ce point puisqu’il n’y a plus alors ni “ Réel Donné ” immédiat, ni de “ Vérité Absolue ”, comme le soutiennent les positivistes avec Descartes dont la méthode consiste « à ne jamais reconnaître une chose pour vraie que je ne la connaisse évidemment pour telle ». Le critère « d’Évidence » -typiquement cartésien- étant des plus dangereux, peu clair et contestable, car dépendant en réalité des à priori culturels, religieux, psychologiques, etc… de l’intéressé.
Cette découpe pourra se faire selon plusieurs perspectives :
- en fonction de la finalité du sujet/objet étudié (téléonomie) : quelle est sa fonction ? Quel est son projet ?
- en fonction de l’historique du sujet/objet étudié : quelle est la genèse du système ?
- en fonction du niveau d'organisation : quelle est la place du système par rapport aux autres ou par rapports au sur-système ?
- en fonction de la structure globale : dans quel type de niveau se trouve-t il (simple, hiérarchisés, en réseau, fractals,…) ?
- par différents axes d’attaques, points de vue, ou différentes tentatives de découpes. Au lieu de « voir » l’objet d’étude comme imposé, donné, il s’agit au contraire de choisir sous quel angle nous allons l’étudier, sous quel critère qualitatif. C’est ce que L. von Bertalanffy appelle le « perspectivisme », dans son processus de cognition, l’être humain (et tous les animaux) ne sont pas passif, mais agents actifs : « Aucun organisme, l’homme inclus, n’est un simple spectateur de la scène du monde […] Il est un ré-acteur et un acteur du drame […] Il semble que ce soit la plus sérieuse insuffisance de la philosophie occidentale classique de Platon à Descartes et Kant que de considérer primordialement l’homme comme un spectateur, un ens cogitans, alors que pour des raisons biologiques il doit essentiellement être un acteur, un ens agens dans le monde où il est jeté. » [Von BERTALANFFY, L., “An essay on the relativity of categories”, Philosophy of Science, 1955, p 256].Ainsi, on peut choisir d’étudier l’espèce canine sous les aspects de mammifères, de cellules vivantes animales, de système de meutes organisées et hiérarchisées, dans son rapport avec l’être humain, etc… C’est la dialogique d’E. Morin. Ces différents axes volontairement multiples sont ici naturellement en opposition avec les approches cartésiennes où l’on prendra l’unique axe consistant à expliquer le niveau supérieur par le niveau inférieur, sans même avoir conscience que l’on opère une découpe de l’objet d’étude dans le réel.
- par la prise en compte du fait que cette découpe se fait du point de vue du chercheur particulier, et aboutit à un modèle lui-même fait à partir de ce point de vue. Comme le dit J.L. Le Moigne, le modèle se fait donc à partir de ce point de vue et non à partir du modèle.
- par une réflexion non plus sous la forme d’oppositions binaires tout/rien, avant/après, blanc/noir, ouvert/fermé, de sauts qualitatifs brutaux propres à la dialectique –quelle soit idéaliste ou matérialiste- et que l’on pourrait aussi bien écrire sous la forme de « di-alectique » à cet égard ; mais par une réflexion de différenciations progressives pouvant déclencher des équilibres dynamiques ponctués non-linéaires issus de co-organisation de sous-systèmes en coopétitions. On retrouve à nouveau la définition de la dialogique d’E. Morin.
Identification et classification des éléments constitutifs par leurs propriétés, classes, groupes,...etc :
On essaye dans la mesure du possible de ne rien ignorer, mais l’on peut aussi volontairement laisser de côté certains éléments pour les besoins de simplification, encore une autre opposition à Descartes.
II-3-8) Le cas des modèles utilisant des statistiques :
Dans de nombreux domaines, on s’appuie sur des statistiques pour créer des modèles, des simulations. Or les statistiques se heurtent au problème de découpe soulevé plus haut d’une part et également au problème de faire référence au passé, sur des éventements non reproductibles car historiques, comme c’est le cas en économie :
- Identification et classification des interrelations avec la même remarque.
- Incubation/Saturation puis Illumination/Inspiration -au sens de Hermann von Helmohlz- qui peut arriver à n’importe quel moment, rapide ou très lent, tenir du génie ou être complètement invalidée par la suite du processus.
- Induction/ généralisation par remplacement du modèle par un autre plus universel, si cela est possible.
- Déductions tirées de ce modèle en vue de vérifications expérimentales répétables et vérifiables. C’est le réel considéré comme seule référence,… malgré toutes les difficultés soulignées en (II-3-5). Ceci renvoie à l’approche empirique que Karl Popper a analysée en détail dans ses ouvrages sous le vocable mal traduit en français de « falsification », en fait réfutation, d’une théorie. On aborde aussi ici, avec l’informatique, les domaines des simulations en tous genres. Apparaît ici le besoin d’un nouveau critère de démarcation « à la Popper » des modèles, sur lequel nous reviendrons.
- Bouclage du processus a toutes les étapes.
- Il faut insister sur le fait qu’un certain degré de simplification, s’il est explicité correctement, peut intervenir pour rendre le modèle plus compréhensible.
- Enfin on sort de l’éternel débat Induction versus Déduction puisque les deux sont délibérément utilisés, c’est la synthèse.
II-3-8) Le cas des modèles utilisant des statistiques :
Dans de nombreux domaines, on s’appuie sur des statistiques pour créer des modèles, des simulations. Or les statistiques se heurtent au problème de découpe soulevé plus haut d’une part et également au problème de faire référence au passé, sur des éventements non reproductibles car historiques, comme c’est le cas en économie :
● Quel périmètre de « découpe » pour une série statistique ? Prenons par exemple une étude statistique économique sur « le prix des pommes de terre ». Il y a donc création par l’économiste d’un agrégat, « les pommes de terre » vues comme un ensemble unique implicitement cohérent. Admettons dans cet exemple que parmi celles-ci on trouve en réalité des pommes de terre d’un goût farineux bas de gamme mais assez résistantes aux maladies, et à l’opposé, des pommes de terre douces haut de gamme mais fragiles. L’économiste va donc prendre la totalité des ventes de la production de toutes les pommes de terre pour en tirer un prix de vente moyen. Admettons que la 2° année de production, les pommes de terre douces aient été victimes d’une maladie, leur production sera alors basse, La production des bas de gamme (dont le prix est beaucoup plus bas) restant constante. Le chercheur sera alors en face du paradoxe incompréhensible pour lui d’une baisse du prix moyen alors que la production totale a baissé pour une demande identique. La 3° année, les productions revenant à la normale, il se trouve qu’une nouvelle sorte de riz très prisée par les consommateurs apparaisse sur le marché entraînant une désaffection pour les pommes de terre, le prix moyen de celles-ci sera alors beaucoup plus bas sans raison apparente pour le chercheur ne travaillant que sur le périmètre, l’agrégat – la découpe - « les pommes de terre ».
Il faut citer également les sondages d’opinion : ils se font sur des échantillons beaucoup trop petits (950 personnes par exemple), des journalistes commentant alors abondamment une variation de 0,5 % alors que les mathématiques donnent une marge d’erreur de ± 3 % sur un échantillon de 3000 individus . Cet exemple trivial montre toute les pièges des agrégats statistiques faits sans la prudence tel que recommandée par J.B. Vico, et sans réflexion de fond sur la pertinence de ces travaux.
● Les statistiques économiques relèvent de l’Histoire, donc non reproductible en laboratoire : C’est un point largement souligné par K. Popper. On peut faire toutes les statistiques que l’on veut, mais celles-ci ne reflètent – en admettant quelles soient pertinentes !- qu’une chaîne d’évènements du passé qui n’a aucune chance de renouveler à l’identique. Ainsi que conclure de statistiques économiques portant du les années 1920 à 1930 pour édicter une théorie sur les crises économiques en général ? On retrouve ici le débat entre rationalisme versus empirisme (Voir V-3) car il est possible de comprendre des événements historiques précis (à la condition de s’en tenir aux faits). Mais il est impossible de tirer une théorie générale d’un cas particulier… on ne peut que proposer l’intuition d’une théorie mais elle sera impossible à tester – contrairement aux sciences de la nature - puisqu’il est impossible de reconstituer en laboratoire le monde des années 20 du XX° siècle. Nous y reviendrons avec K. Popper.
II-3-9) Exemple de modèle : la norme ISO/IEC 15288 :
L’IEC et l’ISO ont bien compris l’importance de la Systémique en éprouvant le besoin de normaliser pour les besoins de l’industrie, des services, etc.… les systèmes, types de systèmes, organisations, etc.… qui peuvent exister dans les entreprises. Un exemple ici concerne le modèle des processus techniques à cycles de vies de l’Ingénierie des Systèmes (l’Ingénium cher à G. Vico et Vinci !) que l’on peut trouver dans l’organisation d’une entreprise :
· Processus d’Entreprise :
o Processus de management de l’environnement de l’entreprise
o Processus de management de l’investissement
o Processus de management des processus de cycles de vie du système
o Processus de management des ressources
o Processus de management de la qualité
· Processus Contractuels :
o Processus d’acquisition
o Processus de fourniture
· Processus de Projet :
o Processus de planification du projet
o Processus d’évaluation du projet
o Processus de pilotage du projet
o Processus de décision
o Processus de management des risques
o Processus de gestion de configuration
o Processus de management de l’information
· Processus Technique :
o Processus de définition des exigences des parties prenantes
o Processus d’analyse des exigences
o Processus de conception de l’architecture
o Processus d’implémentation
o Processus de vérification
o Processus de transition
o Processus de validation
o Processus d’exploitation
o Processus de maintenance
o Processus de retrait de service
(Tiré du site de l’AFIS, Association Française d’Ingénierie Système).
Dans cette norme, on aura identifié (découpé) quatre processus majeurs : d’entreprise, des projets, techniques, et contractuels, eux-mêmes composés de sous-processus en inter-relations étroites au sein du processus qui l’englobe, mais aussi avec d’autres processus appartenant à l’un des quatre autres processus principaux. Exemple : le sous-processus de décision dépend des résultats du sous-processus d’analyses des exigences.
SUITE du Blog : Les caractéristiques d'un système
Benjamin de Mesnard
L’IEC et l’ISO ont bien compris l’importance de la Systémique en éprouvant le besoin de normaliser pour les besoins de l’industrie, des services, etc.… les systèmes, types de systèmes, organisations, etc.… qui peuvent exister dans les entreprises. Un exemple ici concerne le modèle des processus techniques à cycles de vies de l’Ingénierie des Systèmes (l’Ingénium cher à G. Vico et Vinci !) que l’on peut trouver dans l’organisation d’une entreprise :
· Processus d’Entreprise :
o Processus de management de l’environnement de l’entreprise
o Processus de management de l’investissement
o Processus de management des processus de cycles de vie du système
o Processus de management des ressources
o Processus de management de la qualité
· Processus Contractuels :
o Processus d’acquisition
o Processus de fourniture
· Processus de Projet :
o Processus de planification du projet
o Processus d’évaluation du projet
o Processus de pilotage du projet
o Processus de décision
o Processus de management des risques
o Processus de gestion de configuration
o Processus de management de l’information
· Processus Technique :
o Processus de définition des exigences des parties prenantes
o Processus d’analyse des exigences
o Processus de conception de l’architecture
o Processus d’implémentation
o Processus de vérification
o Processus de transition
o Processus de validation
o Processus d’exploitation
o Processus de maintenance
o Processus de retrait de service
(Tiré du site de l’AFIS, Association Française d’Ingénierie Système).
Dans cette norme, on aura identifié (découpé) quatre processus majeurs : d’entreprise, des projets, techniques, et contractuels, eux-mêmes composés de sous-processus en inter-relations étroites au sein du processus qui l’englobe, mais aussi avec d’autres processus appartenant à l’un des quatre autres processus principaux. Exemple : le sous-processus de décision dépend des résultats du sous-processus d’analyses des exigences.
SUITE du Blog : Les caractéristiques d'un système
Benjamin de Mesnard
samedi 13 septembre 2008
II) Présentation détaillée de la Systémique (3/8)
II-3-4) Complexité :
II-3-6) Le facteur Temps :
Le concept cartésien de “simple” à déjà été explicité, et doit être opposé au concept systémique de complexité (voir II-1). Un objet complexe sera constitué d’un nombre quelconque d’éléments éventuellement eux-mêmes complexes (récursivité), divers et en étroite interdépendance par le jeu d’un riche ensemble d’interactions ou boucles de rétroactions non linéaires, on retrouve la définition même d’un système. H.A. Simon dans un article paru dans le bulletin de « The Philosophy of Science Association » en 1976 résume ainsi en sept points le concept de complexité :
« 1. Les systèmes qui ont beaucoup de composants peuvent être considérés comme complexes en comparaison des systèmes qui en ont peu. Ainsi la cardinalité d'un ensemble peut être prise comme une mesure de sa complexité.
2. Les systèmes dans lesquels il y a beaucoup d’interdépendances entre les composants sont généralement considérés comme plus complexes que les systèmes avec moins d'interdépendance entre les composants.
3. Les systèmes dont le comportement est considéré comme « indécidables » peuvent être considérés comme complexes comparés à ceux dont le comportement est tenu pour déterminable ;
4. La complexité des systèmes peut être mesurée par leur contenu d'information, au sens de Shannon-Wiener. Par ce critère, les systèmes ayant beaucoup de composants identiques sont moins complexes que les systèmes de taille comparable dont les composants sont tous différents.
On peut parler de façon générale non seulement de la complexité des systèmes mais aussi plus spécifiquement de la complexité des théories ou des domaines de problème ou des problématiques.
5. En relation étroite avec la notion de complexité informationnelle, on trouve l'idée de mesure de la complexité des théories par le nombre de leurs paramètres, ou par le nombre de symboles nécessaires pour les caractériser.
6. Il y a aujourd'hui un intérêt très marqué parmi les mathématiciens et les informaticiens pour la complexité : évaluée par le nombre maximum ou le nombre attendu de pas de calculs élémentaires nécessaires pour résoudre les problèmes d’une classe donnée.
7. Les mesures de la difficulté d'un problème peuvent être regardées, au moins dans certaines circonstances comme une classe particulière des mesures de la complexité computationnelle
La complexité peut résider dans la structure d'un système, mais elle peut aussi se trouver dans l'œil d'un observateur de ce système. Même quand un système est par nature simple - c'est-à-dire descriptible, en principe, en termes simples - un observateur peut ne pas réussir à découvrir cette description simple, et peut n'être capable de caractériser le système que d'une façon très compliquée. De plus, la simplicité ou la complexité d'une description dépendra des éléments qui seront choisis comme primitives. La description d'un programme d'ordinateur dans un langage de haut niveau comme ALGOL sera généralement plus courte que la description de ce même programme en langage machine.
La relativité de la complexité par rapport à l'ensemble de ces primitives est particulièrement évidente dans les cas de complexité informationnelle et computationnelle, mais elle s'applique aussi à la cardinalité qui dépend de ce qui est pris comme unité élémentaire».
Fin de la citation.
Pour finir, la complexité est relative :
a) au couple observateur - chose (système) observé. Ainsi une automobile apparaîtra comme plus simple –en apparence !- à appréhender pour un utilisateur commun que pour ingénieur en mécanique d’un constructeur automobile. Cette relativité dépendant de l’observateur explique pourquoi J.L. Le Moigne insiste sur le point que la modélisation se fait d’après le point de vue du modélisateur et non d’après le réel.
b) au niveau « de zoom » employé. La voiture sera plus simple à appréhender si elle considérée globalement comme «engin permettant de se déplacer d’un point A à un point B ». Par contre, si on rentre dans ses différents sous-systèmes où «on ouvre le capot » : bloc moteur, système de freinage, ergonomie du conducteur, etc… et leurs interactions (zoom) la complexité interne de l’automobile apparaît. Ce dernier aspect pose le problème de l’approche cartésienne où il n’est pas démontré que la découpe de l’objet étudié en plusieurs éléments (en fait sous-systèmes) simplifie les choses. Au contraire, on observe comme indiqué ici le phénomène inverse car c’est alors que l’on rencontre toute la complexité des inter-relations entre les différents sous-systèmes, d’une part, et d’autre part que l’on prend des risques sur le choix de ces découpages arbitraires. Cette prise de risque est consciente chez la Systémique, mais sous estimée, voire ignorée chez Descartes.
II-3-5) Récursivité :
Contrairement au cartésianisme qui n’utilise que la notion d’itération (répétition simple d’une opération un nombre limité de fois), la Systémique utilise aussi la récursivité. Pour les non informaticiens, une bonne image de la récursivité peut être donnée par les poupées russes. Une poupée contient une autre poupée contenant à son tour une autre poupée qui contient...etc., ou encore les tables gigognes ou les fractals. De même un système peut être composé de sous-systèmes en inter-relations, eux-mêmes composés de sous-systèmes pouvant “ s’emboîter ” ainsi un certain nombre de fois.
Cette notion est importante car elle est la composante même de la complexité d’un système. L’esprit humain ayant souvent des difficultés à accepter cette succession de niveaux d’emboîtements - niveaux du réel - dont l’arrêt, la fin, n’est pas évident à celui qui étudie les premiers niveaux à sa portée.
L’invention de « l’essence » aristotélicienne répond peut-être au besoin de stopper à un niveau donné cette spirale des niveaux descendants -ou ascendants- du réel, spirale donnant quelque fois l’impression que “l’explication” se dérobe sans cesse au chercheur. L’image la plus connue de cette fuite de l’explication finale est donnée par Molière par la fameuse vertu dormitive. Dans cette pièce du Malade Imaginaire, notre héros demande à son médecin pourquoi son médicament fait dormir. Le médecin lui répond alors sur le ton de la docte évidence que « cela vient de sa vertu dormitive bien sûr ». Mais l ‘explication de l’existence de cellules humaines, puis de récepteurs à la surface de ces cellules, puis d’une molécule particulière se trouvant dans le somnifère et venant se coller au récepteur est-elle tellement « plus explicative » ? On retrouve ici directement la problématique des niveaux du réel. Le médecin de Molière s’arrête au premier niveau en considérant que cela est à l’évidence largement suffisant pour son travail et les besoins de ses malades, ce qui n’est en fait pas si stupide si cela lui suffit à guérir. Les biochimistes modernes auront eux besoin, et considérerons ce besoin comme évident, d’aller beaucoup plus loin et plus bas dans les niveaux de réalité afin de mieux comprendre avec une plus grande finesse les détails des mécanismes impliqués.
K. Popper a exprimé ce que représentait le soi-disant déterminisme de la science. Il disait à ce propos : « La science ne repose pas sur une base rocheuse. La structure audacieuse de ses théories s'édifie en quelque sorte sur un marécage. Elle est comme une construction bâtie sur pilotis. Les pieux sont enfoncés dans le marécage, mais pas jusqu'à la rencontre de quelque base naturelle ou « données » et, lorsque nous cessons d'essayer de les enfoncer davantage, ce n'est pas parce que nous avons atteint un terrain ferme. Nous nous arrêtons, tout simplement, parce que nous sommes convaincus qu'ils sont assez solides pour supporter l'édifice, … du moins provisoirement » [POPPER, Karl, 1984, p 111].
Son idée cachait le plus grand défi de la science : l'illusion du savoir.
« 1. Les systèmes qui ont beaucoup de composants peuvent être considérés comme complexes en comparaison des systèmes qui en ont peu. Ainsi la cardinalité d'un ensemble peut être prise comme une mesure de sa complexité.
2. Les systèmes dans lesquels il y a beaucoup d’interdépendances entre les composants sont généralement considérés comme plus complexes que les systèmes avec moins d'interdépendance entre les composants.
3. Les systèmes dont le comportement est considéré comme « indécidables » peuvent être considérés comme complexes comparés à ceux dont le comportement est tenu pour déterminable ;
4. La complexité des systèmes peut être mesurée par leur contenu d'information, au sens de Shannon-Wiener. Par ce critère, les systèmes ayant beaucoup de composants identiques sont moins complexes que les systèmes de taille comparable dont les composants sont tous différents.
On peut parler de façon générale non seulement de la complexité des systèmes mais aussi plus spécifiquement de la complexité des théories ou des domaines de problème ou des problématiques.
5. En relation étroite avec la notion de complexité informationnelle, on trouve l'idée de mesure de la complexité des théories par le nombre de leurs paramètres, ou par le nombre de symboles nécessaires pour les caractériser.
6. Il y a aujourd'hui un intérêt très marqué parmi les mathématiciens et les informaticiens pour la complexité : évaluée par le nombre maximum ou le nombre attendu de pas de calculs élémentaires nécessaires pour résoudre les problèmes d’une classe donnée.
7. Les mesures de la difficulté d'un problème peuvent être regardées, au moins dans certaines circonstances comme une classe particulière des mesures de la complexité computationnelle
La complexité peut résider dans la structure d'un système, mais elle peut aussi se trouver dans l'œil d'un observateur de ce système. Même quand un système est par nature simple - c'est-à-dire descriptible, en principe, en termes simples - un observateur peut ne pas réussir à découvrir cette description simple, et peut n'être capable de caractériser le système que d'une façon très compliquée. De plus, la simplicité ou la complexité d'une description dépendra des éléments qui seront choisis comme primitives. La description d'un programme d'ordinateur dans un langage de haut niveau comme ALGOL sera généralement plus courte que la description de ce même programme en langage machine.
La relativité de la complexité par rapport à l'ensemble de ces primitives est particulièrement évidente dans les cas de complexité informationnelle et computationnelle, mais elle s'applique aussi à la cardinalité qui dépend de ce qui est pris comme unité élémentaire».
Fin de la citation.
Pour finir, la complexité est relative :
a) au couple observateur - chose (système) observé. Ainsi une automobile apparaîtra comme plus simple –en apparence !- à appréhender pour un utilisateur commun que pour ingénieur en mécanique d’un constructeur automobile. Cette relativité dépendant de l’observateur explique pourquoi J.L. Le Moigne insiste sur le point que la modélisation se fait d’après le point de vue du modélisateur et non d’après le réel.
b) au niveau « de zoom » employé. La voiture sera plus simple à appréhender si elle considérée globalement comme «engin permettant de se déplacer d’un point A à un point B ». Par contre, si on rentre dans ses différents sous-systèmes où «on ouvre le capot » : bloc moteur, système de freinage, ergonomie du conducteur, etc… et leurs interactions (zoom) la complexité interne de l’automobile apparaît. Ce dernier aspect pose le problème de l’approche cartésienne où il n’est pas démontré que la découpe de l’objet étudié en plusieurs éléments (en fait sous-systèmes) simplifie les choses. Au contraire, on observe comme indiqué ici le phénomène inverse car c’est alors que l’on rencontre toute la complexité des inter-relations entre les différents sous-systèmes, d’une part, et d’autre part que l’on prend des risques sur le choix de ces découpages arbitraires. Cette prise de risque est consciente chez la Systémique, mais sous estimée, voire ignorée chez Descartes.
II-3-5) Récursivité :
Contrairement au cartésianisme qui n’utilise que la notion d’itération (répétition simple d’une opération un nombre limité de fois), la Systémique utilise aussi la récursivité. Pour les non informaticiens, une bonne image de la récursivité peut être donnée par les poupées russes. Une poupée contient une autre poupée contenant à son tour une autre poupée qui contient...etc., ou encore les tables gigognes ou les fractals. De même un système peut être composé de sous-systèmes en inter-relations, eux-mêmes composés de sous-systèmes pouvant “ s’emboîter ” ainsi un certain nombre de fois.
Cette notion est importante car elle est la composante même de la complexité d’un système. L’esprit humain ayant souvent des difficultés à accepter cette succession de niveaux d’emboîtements - niveaux du réel - dont l’arrêt, la fin, n’est pas évident à celui qui étudie les premiers niveaux à sa portée.
L’invention de « l’essence » aristotélicienne répond peut-être au besoin de stopper à un niveau donné cette spirale des niveaux descendants -ou ascendants- du réel, spirale donnant quelque fois l’impression que “l’explication” se dérobe sans cesse au chercheur. L’image la plus connue de cette fuite de l’explication finale est donnée par Molière par la fameuse vertu dormitive. Dans cette pièce du Malade Imaginaire, notre héros demande à son médecin pourquoi son médicament fait dormir. Le médecin lui répond alors sur le ton de la docte évidence que « cela vient de sa vertu dormitive bien sûr ». Mais l ‘explication de l’existence de cellules humaines, puis de récepteurs à la surface de ces cellules, puis d’une molécule particulière se trouvant dans le somnifère et venant se coller au récepteur est-elle tellement « plus explicative » ? On retrouve ici directement la problématique des niveaux du réel. Le médecin de Molière s’arrête au premier niveau en considérant que cela est à l’évidence largement suffisant pour son travail et les besoins de ses malades, ce qui n’est en fait pas si stupide si cela lui suffit à guérir. Les biochimistes modernes auront eux besoin, et considérerons ce besoin comme évident, d’aller beaucoup plus loin et plus bas dans les niveaux de réalité afin de mieux comprendre avec une plus grande finesse les détails des mécanismes impliqués.
K. Popper a exprimé ce que représentait le soi-disant déterminisme de la science. Il disait à ce propos : « La science ne repose pas sur une base rocheuse. La structure audacieuse de ses théories s'édifie en quelque sorte sur un marécage. Elle est comme une construction bâtie sur pilotis. Les pieux sont enfoncés dans le marécage, mais pas jusqu'à la rencontre de quelque base naturelle ou « données » et, lorsque nous cessons d'essayer de les enfoncer davantage, ce n'est pas parce que nous avons atteint un terrain ferme. Nous nous arrêtons, tout simplement, parce que nous sommes convaincus qu'ils sont assez solides pour supporter l'édifice, … du moins provisoirement » [POPPER, Karl, 1984, p 111].
Son idée cachait le plus grand défi de la science : l'illusion du savoir.
II-3-6) Le facteur Temps :
Le facteur « temps » est ignoré par le cartésianisme et le positivisme. C’est au contraire un concept central de la Systémique. Rien ne se fait sans prendre un certain temps. Ainsi le fait qu’une action sur un système puisse avoir un effet contraire à celui escompté par un cartésien tiens souvent à l’ignorance du temps de réaction du système. A l’image d’un paquebot qui met plus d’une vingtaine de minutes à réagir sur un coup de barre du gouvernail, il peut alors être tentant, face à l’absence de réaction du bateau dans les minutes qui suivent d’accentuer encore le coup de barre. Cela fera encore plus virer le navire… mais 20 minutes après le 2° coup de barre. Voyant le bateau prendre alors un virage beaucoup trop fort, le pilote cartésien mettra un violent coup de barre opposé pour tenter de corriger la trajectoire, faisant partir le bateau dans une série de zigzags toujours plus accentués. C’est toute la question des phénomènes de boucles d’actions / rétro-actions avec effet retard d’un système. De même la cybernétique a découvert un phénomène que les prédateurs (loups, félins, etc.) et les chasseurs connaissent bien : pour atteindre une cible en mouvement rapide, un avion ennemi par exemple, il faut tirer en avant de la cible, d’autant plus en avant que la cible se meut rapidement. Ce type d’erreur se retrouve dans plusieurs domaines, notamment en politique où les citoyens s’attendent à des résultats immédiat après une mesure gouvernementale sans comprendre que l’économie est un système ayant une hystérésis, un temps de réponse pouvant s’étendre sur plusieurs années. Cette erreur se retrouve chez la majorité des économistes – les « néoclassiques » - où on ne considère que des équations traitant des équilibres statiques (Walras) accessoirement dans un environnement de concurrence dite parfaite. L’ensemble des actions considérées sur une économie sont alors vues comme ayant un effet immédiat : pas de stocks intermédiaires, d’effet de percolation, de propagation au sein de l’économie, etc. On se retrouve alors avec des paradoxes qui ne viennent que de la non prise en compte du facteur temps : « Mises a résolu, le premier, le problème, apparemment insoluble, du raisonnement circulaire au sujet de l’application de la théorie de l’utilité marginale à la monnaie. En effet, le prix ou pouvoir d’achat de la monnaie est déterminé par son offre et sa demande ; la demande de monnaie est faite par les hommes, qui ne se basent pas sur l’utilité directe que procure la monnaie, mais la font précisément en fonction de son pouvoir d’achat. Mises a résolu, justement, ce raisonnement apparemment circulaire avec son théorème régressif de la monnaie (Mises, 1995 : 491-500). Selon ce théorème, la demande de monnaie est déterminée non pas par le pouvoir d’achat d’aujourd’hui (ce qui entraînerait le raisonnement circulaire), mais par la connaissance qu’a l’acteur grâce à son expérience du pouvoir d’achat que la monnaie a eu hier. Le pouvoir d’achat d’hier est, à son tour, déterminé par une demande d’argent qui s’est faite sur la base de la connaissance que l’on avait de son pouvoir d’achat d’avant-hier. Et ainsi de suite, » [ HUERTA DE SOTO, Jésus, « L’École Autrichienne, Marché et Créativité Entrepreneuriale », Institut Charles Coquelin, 2007, p 88].
Inscription à :
Commentaires (Atom)
