Affichage des articles dont le libellé est Kuhn. Afficher tous les articles
Affichage des articles dont le libellé est Kuhn. Afficher tous les articles

jeudi 29 octobre 2015

V-13) Finalisme versus Mécanisme


Le finalisme, soutenu entre autres par Aristote comme vu plus haut via la cause finale, affirme que tout être-système naturel est dirigé depuis -comme aspiré par- son futur propre, vers son état final. De ce type de pensée découlent un certain nombre de croyances fatalistes, considérant que le futur est déjà plus ou moins écrit. Beaucoup de religions monothéistes ou polythéistes et leurs églises défendent cette approche. Cela se comprend car c’est bien sûr la main de dieu –ou des dieux- qui est vue derrière la cause finale, de la même manière que la main de l’ingénieur se voit derrière un système artificiel. Tout devient alors simple : les systèmes naturels sont assimilables aux systèmes artificiels, seuls leurs créateurs diffèrent. Le mécanisme considère au contraire que chaque être ou objet naturel n’est que le résultat de causes matérielles identifiables, sans qu’aucun être ou objet naturel ne s’inscrive dans une finalité. Le débat pour les objets artificiels ne se pose pas, l’ingénieur humain ayant créé cet objet faisant clairement fonction de cause finale. Ces deux positions se sont très violemment opposées au cours de l’histoire. Elles semblent encore aujourd’hui poser un clivage fort en philosophie ou en épistémologie. Le structuralisme l’a évité en niant le temps, comme le platonisme avant lui. Le Marxisme l’a posé au contraire en termes les plus puissants par la sur-détermination de l’histoire des classes via les infrastructures historiques, où le destin de la classe ouvrière est inévitablement de prendre le pouvoir (la dictature nécessaire et inévitable du prolétariat)... mais sans jamais démontrer pourquoi et en quoi le prolétariat devait ainsi gagner. De même le Nazisme posait à priori la suprématie de la « race » aryenne dirigée par la cause finale consistant à soutenir qu'elle était destinée à dominer l'ensemble de la planète à la fin de l'histoire. On voit bien que la cause finale sous la forme Historiciste se développe toujours à travers des régimes totalitaires, comme le démontre par exemple K. Popper dans « La Société Ouverte et ses Ennemis ». A l'inverse, ce sont les régimes démocratiques et libéraux qui ne seront pas Historicistes, ne rechercherons pas la thèse d'une cause finale, d'un destin grandiose particulier. Du côté de la science moderne, à partir de la Renaissance, celle-ci n’a pu se développer qu’en luttant vigoureusement contre le finalisme de l'antiquité (celui d'Aristote notamment) et du Moyen-âge (celui de Thomas d’Aquin entre autres). Comme le décrit T. Kuhn, la science moderne s’est trouvée un paradigme -le mécanisme- et a dû lutter violemment (rappelons-nous le malheureux Galilée et plus encore G. Bruno condamnés par l’Église Catholique) pour parvenir à s’imposer contre l’ancien paradigme. La cause finale a donc été rejetée en bloc, imposant un mécanisme caricatural, même lorsque soutenu par de grands savants comme Laplace ou Newton. Cela se comprend car en effet il est probable que le finalisme « proposant » une raison évidente au comportement des systèmes naturels (dieu ou les dieux) bloque de fait toute réflexion et besoin de comprendre ce qui fait bouger, agir ces systèmes.

Apport de la Systémique : La Systémique applique le précepte téléologique : interpréter l'objet non pas seulement en lui-même, en le disséquant, mais aussi par son comportement. Il faut donc comprendre ce comportement et les ressources qu'il mobilise par rapport aux projets que, librement, le modélisateur attribue à l'objet. Ceci est la démarche suivie par la Systémique tant pour les systèmes artificiels intentionnels (ce qui ne pose pas de débat philosophique) que pour systèmes inintentionnels naturels ou artificiels (société, économie,...). La Systémique réponds ainsi à sa manière à la question philosophique du Finalisme opposé au Mécanisme. Aujourd’hui, avec la nouvelle approche de la Systémique, il s’agit de lutter (au sens de T. Kuhn) à la fois contre les deux approches purement finalistes et mécanistes, surtout dans leurs versions idéologiques politiques ou religieuses, pour imposer le méta-paradigme systémique. A nouveau, Mécanisme et Finalisme pourront être vus comme des outils de pensée heuristiques, utiles à certaines étapes de l’étude, à manier sans idéologie, avec une prudence toute vichienne comme décrit en (II-3-6-b) et en écartant tout scientisme positiviste ni présomption fatale comme demandé par F. Hayek.

 SUITE du Blog : V-14) Âme versus Esprit versus Corps

Benjamin de Mesnard
Épistémologie Systémique Constructivisme 

dimanche 11 octobre 2009

V-3) Rationalisme versus Empirisme


Le Rationalisme attaque des différents problèmes auxquels sont confrontés les scientifiques “ par le haut ” tandis que les Empiristes le font “ par le bas ”. Karl Popper est le dernier philosophe à avoir pris une position tranchée sur ce débat par le concept du néo-positivisme logique. Le Rationaliste pense donc avoir besoin en premier lieu d’une théorie, qu’il essaiera de tester par des expériences qui devront corroborer ou infirmer celle-ci. Sur la base des infirmations de sa théorie, il devra modifier ou abandonner celle-ci.  Il est donc dirigé par la Raison. L’Empiriste, lui, prétend ne pas avoir de théorie, être sans préjugés, et mener des expériences au hasard, et construire des suites de raisonnements à posteriori en tenant compte des résultats observés. K. Popper se demandait alors très justement pourquoi faire alors telle ou telle expérience plutôt qu’une autre, sinon à avoir une idée derrière la tête et donc une théorie au moins implicite. L’apport important de l’Empirisme a été de souligner l’importance des expériences dans la démarche scientifique, en opposition à un rationalisme pur consistant à raisonner en chambre et conclure des résultats, inventer des théories sans jamais les tester sur le monde « réel » (comme le fait le matérialisme dialectique du Marxisme). La Renaissance à cet égard s’est opposé au Moyen-âge, où, par déformation et caricature des philosophes grecs, dits scolastiques, certaines universités donnaient le prima aux discussions sans fin, aux débats, en s’éloignant de plus en plus de la réalité, y compris quelque fois de la réalité la plus commune et quotidienne. On voit bien cependant que Rationalisme et Empirisme ne sont en fait que les deux faces d’une même position qui ne veut voir à chaque fois qu’un seul aspect des choses. Elles se rejoignent sur le fait qu’elles sont toutes deux une manifestation de l’approche parcellaire/disjointe/découpée de la réalité, où l’on tente à tout prix de simplifier les choses, typique d’une approche plato-cartésienne.
K. Popper a fait remarquablement progresser ce débat par ses positions, qui conduisent finalement à le rapprocher d’un “Darwinisme des théories scientifiques”, faisant l’objet d’une sélection artificielle car faite par l’homme. Seules les théories les plus adaptées à l’environnement des expériences, et donc au monde « réel » survivent, leur survivance n’étant en rien une preuve de leur véracité absolue et encore moins définitive. Cette survie dépend en effet des capacités de cet environnement à monter des expériences permises par les outils et matériels disponibles et par les capacités et la précision des instruments de mesures. On ne peut évoquer cette opposition sans citer les positions de T Kuhn, quelque fois catalogué à tort d’anti-rationaliste, sous prétexte que les paradigmes qui se succèdent à travers les révolutions scientifiques changent le monde. J.R. Searle traite fort bien le sujet dans son article « Rationality and Realism, What is at Stake ? » publié dans Deadalus en 1993 : « Thomas Kuhn et Richard Rorty sont deux des auteurs les plus fréquemment cités par ceux qui rejettent la tradition rationaliste occidentale. Je vais maintenant faire une brève digression sur eux. Kuhn est censé avoir montré dans La Structure des révolutions scientifiques que les prétentions de la science à décrire une réalité existant de manière indépendante sont fausses ; en fait, les scientifiques sont plus gouvernés par une psychologie de masse que par la rationalité, et ils tendent à se regrouper d’un "paradigme" à un autre au cours de révolutions scientifiques périodiques. Il n’existe pas de monde réel que la science doit décrire ; chaque nouveau paradigme crée plutôt son propre monde, de telle sorte que, ainsi que le dit Kuhn « les scientifiques travaillent après une révolution dans un monde différent ».
Je pense que cette interprétation est une sorte de caricature de la pensée de Kuhn. Mais quand bien même l’interprétation serait correcte, l’argument ne montrerait pas qu’il n’y a pas de monde réel indépendant de nos représentations ; il ne prouverait pas non plus que la science n’est pas une série de tentatives -selon des degrés de réussite divers- pour fournir une description de cette réalité. Même si l’on accepte l’interprétation la plus naïve des vues de T. Kuhn à propos des révolutions scientifiques, cela n’entraîne pas de telles conséquences ontologiques spectaculaires. Bien au contraire, même la conception la plus pessimiste de l’histoire des sciences est parfaitement consistante avec l’idée qu’il existe un monde réel existant de manière indépendante et que l’objectif de la science est de le décrire. » (fin de citation). Searle relance ainsi la position d’un « réel donné indépendant » bien qu’évolutif, et notamment sous l’influence des courants de pensées et autres paradigmes. Mais cela ne change rien au fait qu’il y a bien des réserves à émettre, comme décrit en (II-3-6-b) à propos des processus de modélisation et de découpe dans le réel de l’objet à étudier, sur :
a) le fait que le chercheur appartient au monde qu’il étudie,
b) qu’il a en tête des aprioris culturels, psychologiques, etc. dont il peut ne même pas avoir conscience,
c) qu’il va le plus souvent se retrouver en interaction avec son sujet/objet d’étude, sans même avoir besoin d’évoquer les échelles quantiques,
d) qu’il a dû opérer –plus ou moins consciemment- une découpe arbitraire dans le réel du sujet/objet qu’il a décidé d’étudier,
e) que ce sujet/objet se retrouve dans un environnement (le reste du réel après la découpe) qui comme souligné par J.R. Searle évolue, y compris sous l’effet des paradigmes scientifiques (ou culturel, religieux,…), est mal connu, et qui inclus… le chercheur lui-même,
f) et qu'il est soumis à une Rationalité limitée, voir H.A. Simon (II-5-5-e).
Toutes ces réserves sont ignorée ou minorées à la fois par le Rationalisme et l’Empirisme, par leur approche commune simplificatrice propre à l’école plato-cartésienne.

Par ailleurs il est intéressant de noter que G. Bachelard souligne une autre opposition, celle existante cette fois-ci entre rationalisme et réalisme. Ainsi il alerte sur le danger du réalisme qui est trop proche des vues intuitives et de l’évidence (à laquelle Descartes attache tant d’importance). Le réalisme, c’est l’état premier d’une science archaïque, primitive et balbutiante. Il est en cela en fait un obstacle épistémologique que doit surmonter les scientifiques : « Même dans une pratique engagée entièrement derrière une théorie, il se manifeste des retours vers des conduites réalistes. Ces conduites réalistes se réinstallent parce que le théoricien rationaliste a besoin d’être compris de simples expérimentateurs, parce qu’il veut parler plus vite […], parce que, dans le commun de la vie, il est effectivement réaliste. De sorte que les valeurs rationnelles sont tardives, éphémères, rares […]. Dans le règne de l’esprit aussi, la mauvaise monnaie chasse la bonne, le réalisme chasse le rationalisme. » [BACHELARD G., La Philosophie du non, Paris, PUF, 1940, p. 27]. 

Apport de la Systémique : la Systémique, après avoir opéré les choix et les découpages conscients et réfléchis décrits pour le débat réalisme contre nominalisme, va élaborer des modèles (alias théories), selon les différents types de modèles décrits plus hauts. Ces types de modèles permettent de sortir du débat dans la mesure où ces types étant répertoriés par la Systémique, il s’agit d’attaquer le système à étudier sous plusieurs angles, via plusieurs tentatives de modélisations, sans jamais perdre de vue que « la carte n’est pas le territoire » (Korzybsky). Les théories scientifiques ne sont jamais que des modèles de systèmes découpés sur un niveau choisi de la réalité. Ils emportent donc avec eux des « à priori » et des présupposés (voir plus haut). Enfin, les expériences devant réfuter une théorie -et non la vérifier comme l’explique Karl Popper- ne sont pas toujours ni simples, ni aisées, ni fiables, ni répétables (la flèche du temps), ni même possibles. Le recours prudent comme le recommande la Systémique à des approches transversales, essayant de tenir comptes des niveaux englobés et englobant, et de l’environnement du système découpé à l’étude sera le bien venu. La Systémique opérera par approches multiples, selon différents points de vues, différentes découpes. Elle essaiera de d’identifier les systèmes connexes au sujet/objet (système) découpé puis prendre en compte les interactions, les liens entre ceux-ci et avec le sujet/objet étudié. Enfin, elle tiendra compte de la flèche du temps. On utilise alors les apports intéressants des deux approches Réalistes et Empiristes en se dégageant des débats idéologiques des deux camps.

SUITE du Blog : V-4) Essentialisme versus Substantialisme

Benjamin de Mesnard

dimanche 8 mars 2009

III) Théories alliées à la Systémique (Kuhn, Korzybsky et Gestalt)

III-2-10) Thomas Kuhn et la structure des révolutions scientifiques

C’est -après Karl Popper- Thomas Kuhn qui a contribué à « finaliser » les théories exposées dans le paragraphe précédent en explicitant le concept de paradigme scientifique. Ceci est à rapprocher de l’équivalent logique de l’espèce chez Darwin. T. Kuhn a bien décrit la boucle de rétroaction existant entre l’apparition d’une nouvelle théorie scientifique résistante aux tests, devenant peu à peu le nouveau paradigme implicite accepté par toute la communauté, et modifiant par retour l’environnement scientifique (boucle de rétroaction d’éco-auto-ré-organisation). Ce paradigme nouveau peut à son tour devenir un obstacle au développement et à l’extension d’une nouvelle théorie – même résistante aux tests expérimentaux – et « meilleure » que les théories précédentes. Pour continuer sur l’analogie darwinienne, comme un environnement qui tarderait à changer sous l’influence d’une nouvelle espèce tendant à le modifier. Ainsi, l’atmosphère de la terre à mis des millions d’années à s’enrichir en oxygène sous l’effet des nouvelles espèces vivantes qu’on été les végétaux. De même, les milieux scientifiques ont mis un demi-siècle à intégrer véritablement les théories quantiques (et la relativité générale) car elles heurtaient trop violemment le « bon sens » newtonien des scientifiques du début du XX° siècle.

III-2-11) Alfred Korzybsky et la Sémantique Générale

Korzybsky a écrit deux ouvrages intitulés « Sémantique Générale » en 1933 et « Science and Sanity » et il a produit plusieurs articles entre 1920 et 1950. Il a construit un système présenté comme non-aristotélicien dans le but de créer une rupture dans l’esprit des lecteurs. Aristote étant pour A. Korzybsky le prototype même d’un état d’esprit rigide et ignorant. Son système pourrait plutôt se présenter aujourd’hui comme non-sens commun ou anti-sens commun. Ses attaques contre Aristote ont souvent été mal comprises. Ce que voulait signifier A. Korzybsky, c’est que son approche allait au delà des approches aristotéliciennes, non pas qu’elles soient fausses, mais en les englobant, comme la Relativité Générale va au delà de Newton. C'est pourquoi il parle de non-Aristotélisme et non d'anti-Aristotélisme. Il voulait aussi secouer la rigidité dans laquelle étaient tombés beaucoup de philosophes par le cartésiano-positivisme se réclamant d’Aristote, en ne retenant de lui que les syllogismes.
Pour A. Korzybsky, il faut retenir trois préceptes de base si l’on veut garder un esprit sain face au monde au réel tel qu’il est. Ceux-ci peuvent être donnés par analogie avec la relation entre une carte et le territoire :
1. Une carte n'est pas le territoire.
2. Une carte ne représente pas tout le territoire.
3. Une carte est auto-réflexive en ce sens qu'une carte "idéale" devrait inclure une carte de la carte, etc., indéfiniment.
Appliqué à la vie courante et au langage, cela donne :
1. Un mot n'est pas ce qu'il représente.
2. Un mot ne représente pas tous les "faits", etc.
3. Le langage est auto-réflexif en ce sens que nous pouvons l'utiliser pour parler à propos du langage (concept typiquement Systémique et Constructiviste, repris notamment par E. Morin).
On retrouve bien là un certain nombre de concepts systémiques tels que les niveaux, la réflexivité et l’auto-réflexivité, la nécessité des démarches d’abstraction conscientes, la modélisation (la carte), ou les boucles de rétroactions. Comme la Systémique, elle peut être vue comme une méthode de travail utilisable dans tous les travaux scientifiques (ou non), comme une méta-méthode. Elle s’oppose clairement à Descartes, autre inventeur d’une méta-méthode, car A. Korzybsky insiste souvent et clairement sur le fait que l’on ne peut se contenter de séparer le réel en petites pièces facilement analysables pour tout connaître, mais qu’il faut tenir compte du fait que le tout est supérieur aux parties : « le système nerveux humain comme-un-tout », concept typiquement aristotélicien ! Notamment pour lui, la formulation d'un système général, fondée sur les méthodes physico-mathématiques d'ordre, de relation, etc., permet d’édifier un système qui rendrait possible des évaluations appropriées et, par conséquent, une meilleur prédictibilité du réel.
Enfin A. Korzybsky doit absolument être rapproché de T. Kuhn car il est clair qu’une nouvelle théorie scientifique qui réussit à s’imposer en devenant un paradigme, finira par devenir le monde réel aux yeux des scientifiques, et au-delà. Ainsi le paradigme se met à échapper au premier précepte sanitaire d’A. Korzybsky : « une carte n'est pas le territoire », ou si l’on préfère le paradigme n’est pas la réalité ! A titre d’exemple, le paradigme cartésien fait croire à la plupart des gens -bien au-delà des seuls scientifiques- que le monde réel pourra bel et bien être découpé en petites parties sans problème. Ou bien, le paradigme newtonien fera croire au public qu’une loi locale demeurera vraie à grande échelle sans aucune remise en cause, approche clairement non-systémique par ignorance notamment du concept d’émergence. 
En résumé A. Korsybski va au-delà d'Aristote, et également de Descartes, tout comme la Systémique, et fait la critique justifiée des syllogismes, et surtout de leur usage exagéré et caricatural tel qu'il en a été fait à la fin du Moyen-Age.

III-2-12) Gestaltisme (ou théorie de la forme “Gestalt-théorie”)

Théorie de la psychologie moderne, issue des travaux de Wertheimer (1880), qui conçoit l’étude des systèmes psychiques ou physiques selon une approche structuraliste. Elle considère les phénomènes dans leur totalité, sans tenir compte des éléments isolables et sans signification hors de cet ensemble organisé. Cette théorie a d’abord été appliquée aux processus perceptifs, organisés en formes qui suivent des lois spécifiques :
  • lois d’homogénéité de l’objet, de proximité ou de similitude, dont les variations peuvent renforcer ou amoindrir la portée du stimulus et de ses effets. Constance de la forme qui est résistante à son changement, par un effet de mémoire de la forme réelle sur celle qui est perçue
  • lois de la relation figure-fond, prégnance de la « bonne forme », forme privilégiée, régulière ou symétrique. Cette théorie suppose les mécanismes d’individualisation des objets dans un champ, de leur action réciproque et des interactions entre les deux, des rapports entre la réponse perceptive et la stimulation. Elle s’est étendue à de nombreux domaines psychologiques et à la médecine. Le Gestaltisme est lié au Connexionnisme au sens où l’ayant précédé, il n’a pu utiliser la puissance de l’électronique moderne qui a permis de vérifier où d’infirmer beaucoup de thèses du Gestaltisme. Par exemple celui-ci prédisait un mode d’analyse/perception d’images qui a pu être vérifié (simulé) avec certains réseaux de neurones artificiels beaucoup plus tard. Dans la pratique aujourd’hui, cette théorie se retrouve dans les algorithmes de reconnaissance de formes, de visages (biométrique), de configurations de courbes pathologiques par exemple en cardiologie, etc... 
SUITE du Blog : Théories alliées à la Systémique (Constructivisme Épistémologique)

Benjamin de Mesnard

dimanche 8 février 2009

III) Théories alliées à la Systémique (Darwin versus Popper+Kuhn)

III-2-9) Comparatif Darwin versus Popper+Kuhn:
Tableau comparatif de la « théorie de l’évolution des espèces des théories scientifiques » de Popper + Kuhn avec la théorie de l’évolution des espèces vivantes de Darwin :
Item
Darwin
Popper+Kuhn
Le sujet l’espèce vivante la théorie scientifique
Environnement naturel des espèces vivantes milieux ou écoles scientifique, universités, laboratoires
Niche écologique secteur scientifique
Apparition de nouvelles espèces de nouvelles théories scientifiques
Moteur du changement
mutations génétiques accidentelles
(néo-darwinisme)
idées, rêves, réflexions conscientes ou inconscientes et accidentelles, analogies plus ou moins valides d’un ou plusieurs chercheurs
Compétition pour une niche écologique entre théories scientifiques contradictoires sur un même secteur scientifique
Sélection l’espèce la plus apte pour une niche écologique donnée à un instant donné la théorie qui n’a pas (encore) été démontrée fausse sur un sujet donné (avec les instruments de mesure et/ou les moyens de l’époque)
Rétroaction
le « re » de éco-auto-re-organisation
des espèces sur leur environnement en contribuant à le changer des théories sur le niveau de connaissance global des scientifiques et leur capacité en retour à accepter de nouvelles théories puis à en imaginer d’autres…

Karl Popper croit régler son compte à l’induction, qui n’a plus aucune valeur d’intérêt à ses yeux. Pour Popper, savoir comment une hypothèse nouvelle apparaît n’est pas le plus intéressant. Cela n’est pas plus intéressant que la vie privée d’un grand scientifique ou philosophe. Ce qui est intéressant –et donne à l’hypothèse son statut de scientifique- est de savoir si elle peut être intrinsèquement sujette à réfutation. C’est pourquoi l’empirisme s’oppose au rationalisme chez Popper. On verra plus loin cependant que l’induction ne peut pas être méprisée ainsi non plus car elle est -comme décrit plus haut- créatrice de nouvelles idées alimentant le « générateur » de nouvelles théories. On retrouve ici une analogie avec Darwin où les mutations génétiques accidentelles alimentent le « générateur » de nouvelles espèces. Sur ce point des études ont montrés que certaines conditions culturelles, sociétales ou sociologiques doivent être réunies pour que ce « générateur » de nouvelles théories se mette en place pour faire démarrer le progrès scientifique. Cela n’a pas été toujours le cas en Europe, il s’est produit vers le XVI° siècle, et ne se produit pas encore de nos jours dans certaines régions de monde.

SUITE du Blog : Théories alliées à al Systémique (Kuhn, Korzybsky, Gestaltisme)

Benjamin de Mesnard

samedi 17 janvier 2009

III) Théories alliées à la Systémique (Popper)

III-2-8) Karl Popper l'épistémologue

K. Popper a tenté de mettre sur pied une méthode pertinente dans le but de tester les théories afin de savoir si elles sont scientifiques ou non. K. Popper -en s’appuyant sur David Hume- a voulu montrer quels étaient les critères définissant la science de la non-science, ces critères sont qualifiés de critères de démarcation. En cela, il s’est opposé au Cercle de Vienne (Schlick, Carnap, Hahn, Neurath, etc…) et à leurs théories connues sous le nom de Positivisme Logique.
Le Positivisme Logique est un Positivisme corrigé de ses excès, car devenu idéologique voir mystique avec A. Comte. Le Positivisme Logique est résolument réductionniste et vérificationniste. Il est réductionniste car –comme le Positivisme- il est analytique et cartésien. Il est vérificationniste car il affirme comme critère de démarcation entre science et non-science que l’on doit pouvoir vérifier, c'est-à-dire reproduire à tout moment, une expérience pour vérifier que l’on obtient bien à nouveau sous les mêmes conditions, les mêmes résultats. On peut alors en déduire qu’une loi scientifique existe, que la Théorie est Vraie (avec un « V» majuscule). On retrouve ici le concept de « Présomption Fatale » chère à F. Hayek : la certitude de l'atteinte de la Vérité en science, présomption fatale qui se retrouve dans la société avec les historicistes Hégéliens ou Marxistes par exemple et autres Constructivistes Sociaux qui croient savoir reconstruire la société à zéro à partir de leurs Idées décrétés comme Vraies. K. Popper y revient, voir (III-2-15). Ainsi sur la certitude que les connaissances scientifiques aboutissent à la Vérité grâce au matérialisme scientifique, on peut donner ce mémoire signé Staline citant Lénine : « Lénine accuse de fidéisme Bogdanov, Bazarov, Iouchkévitch et les autres partisans de Mach ; il défend la thèse matérialiste bien connue d'après laquelle nos connaissances scientifiques sur les lois de la nature sont valables, et les lois scientifiques sont des vérités objectives ; il dit à ce sujet : « Le fidéisme contemporain ne répudie nullement la science ; il n'en répudie que les "prétentions excessives", à savoir la prétention de découvrir la vérité objective. S'il existe une vérité objective (comme le pensent les matérialistes), si les sciences de la nature, reflétant le monde extérieur dans l'"expérience" humaine, sont seules capables de nous donner la vérité objective, tout fidéisme doit être absolument rejeté. » (Matérialisme et empiriocriticisme, t. XIII, p.102.) ». [STALINE, J.V., Matérialisme dialectique et Matérialisme historique, p 8, 1938]. Bizarrement d’ailleurs Lénine et Staline assimilent d’une manière incompréhensibles le refus de croire que les sciences donnent des théories Vraies au fidéisme, c’est à dire à la Foi religieuse, elle qui bien au contraire prétend détenir la Vérité par la Foi et les saintes écritures… tout comme le marxisme ! 
Pour K. Popper, ce critère vérificationniste trouve ses limites dans l’impossibilité –au contraire- d’affirmer qu’une théorie est vraie, même après un très grand nombre d’expériences répétées confirmant le résultat attendu. Rien ne dit en effet que le Nième test ne vas donner un résultat en contradiction avec une autre prédiction issue de la théorie, qui se trouve donc alors réfutée. Il faut aussi combattre le syndrome de l' explication "ad-hoc" donnée après coup pour expliquer pourquoi lors de ce dernier test la théorie a échouée.  Il faut donc trouver un autre critère que celui des vérificationnistes pour qui il suffit d'avoir un grand nombre de tests, d'expériences confirmant une théorie pour la déclarer "vraie"... et cesser les tests, les expériences. Certains pourront aller jusqu'à délibérément ignorer, passer sous silence, les tests ayant démontré que la théorie est fausse : c'est ce que font graphologie, astrologie, ou les utopies (Nazisme, Marxisme...) etc... mais aussi régulièrement des scientifiques refusant une remise en cause par trop profonde de leur paradigme et du travail de toute une vie … En fait, pour K. Popper, une théorie est scientifique lorsqu’elle revendique un statut universel ET se donne les moyens d’être démontrée fausse si jamais il s’avère qu’elle l’est : 
 
une théorie scientifique doit donc être intrinsèquement réfutable. 
 
A l’inverse, on ne peut jamais démontrer qu’une théorie scientifique est vraie. Ainsi une théorie scientifique offrira d’emblée les moyens de la tester, de la soumettre à un certain nombre de tests expérimentaux, afin de démontrer qu’elle est fausse (si elle l’est) : c’est le concept traduit à tort en français de « falsification de la théorie », et qu’il est plus propre de traduire par « réfutabilité de la théorie ». Car il s'agit bien ici, non pas de produire un faux document (falsification), mais de réfuter une théorie. Karl Popper insiste sur le fait que ce n’est pas parce qu’une théorie a passé avec succès cent tests de réfutations qu’elle pourra être considérée comme vraie, ce que le grand public a souvent tendance à croire. Une théorie pourra aussi être considérée à tort comme vraie parce qu’elle a passé avec succès un certain nombre (voire un grand nombre) de tests expérimentaux effectués avec une certaine précision due aux outils de mesure de l’époque. Mais elle pourra être mise ensuite en défaut par le même test effectué ultérieurement avec des instruments plus précis, ou bien en tombant sur un cas de figure différent. Par exemple la théorie de la gravitation de Newton était considérée comme « vraie » avec la précision des instruments de mesure de la fin du XVIII° siècle. Elle s’est révélée fausse dans l’absolu, avec la précision plus élevée des instruments du XX° siècle, lorsque les effets relativistes de la théorie d’Einstein ont pu être mis en évidence. Il est maintenant admis -par seule commodité- de dire que la théorie de Newton est « vraie avec X % de marge d’erreur, ou d’approximation », mais cette approche doit être absolument rejetée.
Attention, cette notion de « vérité d’une théorie » a été approfondi par ailleurs, notamment par le Constructivisme épistémologique, et il n’est pas question ici de soutenir qu’Einstein est simplement plus exact que Newton, car on a bien assisté avec la Théorie de la Relativité à l’apparition d’un nouveau paradigme –au sens de Th. Kuhn- scientifique et épistémologique par rapport à la théorie de Newton. On rejoint ici le concept de théorie d’Einstein plus « forte » (au sens de Gödel) que la théorie de Newton. En effet la théorie de Newton peut être définie comme un sous-ensemble de la théorie d’Einstein, pour ne pas dire un sous-système. Une fois de plus, cela n’enlève rien au fait que la Théorie de la Relativité d’Einstein fait appel à des concepts et des outils mathématiques qui n’existent pas chez Newton, d'une part et que -surtout- la théorie de Newton a été réfutée définitivement entre autres avec la mesure de la trajectoire de la planète Mercure.
Dans une deuxième étape, Karl Popper est allé plus loin en contrant à nouveau les thèses du Cercle de Vienne munis de ses critères de démarcation, en montrant que la genèse (l’induction) des théories scientifique ne présentait aucun intérêt d’étude. Ce qui était important était ce régime de création/tests/réfutation/modification de la théorie (ou création d’une nouvelle théorie) /tests… à nouveau. Pour cela encore faut-il que l'environnement du chercheur, la société dans laquelle il vit, autorise l'apparition d'idée puis de théories nouvelles, remarque qui amènera K. Popper à « La Société Ouverte et ses Ennemis » T1 et 2 vu en (III-2-15)... Il a montré, que ces vagues successives de théorie plus ou moins en ruptures les unes avec les autres dans le temps, constituaient autant de paradigmes (mis en exergue par Th. Kuhn) qui se succédaient. Cette mise en lumière de la vraie genèse des théories scientifiques est due à cette boucle de rétroaction entre l’apparition aléatoire des idées à l’origine des théories -la fameuse pomme de Newton !- et cette possibilité de les tester et d’en démontrer ou non leur fausseté (les réfuter). On perçoit bien l’analogie complète entre cette sélection artificielle -parce que faite par les hommes- et la sélection naturelle des espèces vivantes chez Darwin. Cette sélection artificielle n'est autre que la « BVSR » : blind variation and selective retention, c'est à dire variations aveugles puis rétention sélective explicitée en (III-2-6), où l'induction joue le rôle des mutations, et les tests/expérimentations scientifiques pour tenter de réfuter la théorie, joue celui de la sélection naturelle. On voit immédiatement aussi l’esprit -involontairement- systémique de cette « théorie de l’évolution des espèces des théories scientifiques ». Ceci explique la capacité à survivre à très long terme des « théories » non-scientifiques : astrologie, graphologie, religions, idéologies, homéopathie, etc.… car elles ne sont pas soumises à cette véritable pression de sélection naturelle par l'environnement scientifique comme le sont les théories réellement scientifiques.
Enfin, K. Popper a apporté une dernière amélioration à ses théories en admettant qu’une théorie pouvait être plus ou moins corroborée. Ceci est une tentative de réponse aux critiques qui soulignaient le fait que certaines théories pourtant authentiquement scientifiques ne pourraient jamais être réfutées. En effet, toute théorie reposant sur une affirmation d’existence positive, comme par exemple : « il peut exister des cas de transmission de grippe aviaire à l’homme » ne pourra jamais être réfutée, car si ce cas ne s’est jamais produit, rien ne nous dit qu’il ne produira pas demain. Auquel cas la théorie serait bel et bien vérifiée bien que non réfutable. C’est en quelque sorte l’inverse des théories reposant sur une généralisation (par induction) comme l’exemple connu « Tous les corbeau sont noirs » où il suffit de trouver un cas et un seul de corbeau d’une autre couleur pour réfuter la théorie au sens de Popper. En résumé, Popper s’applique aux théories reposant sur une proposition de type « Tous … », ou « Quelque soit … ». Mais ne s’applique pas à « Il existe au moins un cas de… ». On est donc dans le cas inverse des théories de type « Tous...» : elles ne peuvent être réfutées.... bien que possiblement vérifiables !

Tableau synoptique corroborations/réfutations possibles :

Type de théorie
Réfutation
Corroboration
« Quelque soit le cas… »
ou « Tous les… »
Possible :
Trouver un seul cas contraire.
Mais encore faut-il que les tests soient possibles en pratique (sociologie…), même s’ils sont possibles en théorie (un protocole de test est imaginable mais non réalisable en pratique).
Possible (statistique) :
Vérifier N cas confirmant la proposition (position de départ du Cercle de Vienne : le vérificationnisme). Mais rien ne dit qu’elle ne sera pas réfutée demain par un cas unique contraire.
« Il existe un cas… »
ou
« Il peut exister un cas… »
Impossible :
Vérifier N cas où la non-existence est confirmée ne réfute pas la proposition car le cas contraire confirmant le « il existe …» peut arriver demain.
Possible (absolu) :
Il suffit de trouver un cas confirmant ce « il existe… ». Mais encore faut-il que les tests soient possibles en pratique (sociologie…), même s’ils sont possibles en théorie (un protocole de test est imaginable mais non réalisable en pratique).

K. Popper rejoint la Systémique par ses critères de démarcations basés sur la réfutabilité des théories (les modèles et les simulations qui en sont tirées pour la Systémique) et sa lutte contre le Positivisme « classique » d’A. Comte et le Positivisme Logique du Cercle de Vienne.
 
 
Remarque importante : Concernant la Systémique, il faut assimiler aux théories scientifiques les modèles et leurs simulations (lorsque on fait "tourner" le modèle) : un modèle construit par un chercheur est scientifique s'il est réfutable lors d'une simulation. Si l’une de ces simulations montre un comportement présentant un écart « trop » important par rapport au comportement de l’objet réel, ce modèle devra être abandonné ou au minimum modifié. Le « trop » est ici à définir en fonction des instruments de mesures disponibles, du projet du modèle (naturellement) et de la découpe/simplification (est-elle pertinente ?) de l’objet étudié dans le réel. Ainsi une théorie scientifique n’est pas autre chose qu’un modèle, et inversement un modèle - au sens de la Systémique (voir II-3-7) - est une théorie scientifique : «  …le modèle n’est pas tant une abstraction de la réalité qu’une réalité parallèle. Le monde du modèle n’est pas construit en partant du monde réel et par soustraction des facteurs qui le rendent complexe ; bien que le monde du modèle soit plus simple que le monde réel, il n’en est pas une simplification » (Sugden, 2000).
Dans cette approche l’astrologie reste effectivement classée comme non scientifique, par contre l’économie, la psychologie ou la sociologie rejetées par le positivisme pourraient être acceptée (?) comme scientifiques. 
 
Encore faut-il dans ces domaines « mous » ne pas tomber dans l’inversion du modèle popérien : devant l’hyper complexité du réel, il est en effet tentant de construire un modèle basé sur un seul et unique paramètre via une « découpe/simplification » violente sans se poser de question sur sa validité, et donc en oubliant la phronésis/prudence d’Aristote et J.B. Vico. Après avoir fait « tourner » ce modèle hyper simplifié de la réalité (et donc facile à programmer), on en tire de grandes conclusions sur… la réalité censée se mettre en conformité avec ce modèle. Or c’est l’inverse qui doit être fait : dans la comparaison des résultats des simulations tirées du modèle avec le monde réel, c’est le modèle qui doit alors se mettre en conformité avec le monde réel et non l’inverse ! 
Le Constructivisme épistémologique parle en effet aujourd’hui de la viabilité ou non des modèles, concept fort proche de celui de la vérification des théories du Positivisme avant K .Popper. Ce qu’il faudrait évoquer serait plutôt un concept de modèle réfutable « viable sous réserve jusqu’à preuve du contraire », en étant conscient que, de toutes façon, le modèle ne corresponds jamais à la réalité mais peut seulement la simuler plus ou moins fidèlement car « la carte n’est pas le territoire » (A. Korzybsky). L’intérêt de cette approche est de lever le problème des théories « il existe » décrit plus haut. En effet un modèle peut permettre un grand nombre de simulations –c’est d’ailleurs l’un des principaux intérêts de l’approche systémique notamment dans le but d’approfondir sa compréhension de l’objet étudié- il devient donc plus facile de « déclencher » le scénario où le cas du « il existe » se produit pour alors confirmer le modèle. En effet la plupart des modèles sont virtuels et réalisés sur ordinateurs, et non physiquement, sur maquette, ou autres moyens non virtuels, ce qui autorise un nombre de simulations très élevées en un délai très court. On opère alors en symétrique entre les deux types de modèles : le « quelque soit » qui travaille en réfutation possible du modèle dès que la simulation s’écarte « trop » de la réalité et contredit ce « quelque soit » ; et le « il existe » qui travaille en vérification possible du modèle dès que la simulation déclenche le comportement, c’est à dire trouve le cas prévu par le « il existe ».

Schéma de la boucle rétroactive Systémique dans la démarche scientifique :


SUITE du Blog : Théories alliées à la Systémique (Darwin vs Popper)

Benjamin de Mesnard

mardi 2 septembre 2008

II) Présentation détaillée de la Systémique (1/8)

II-1) Un nouveau paradigme :

La définition d’une révolution scientifique c’est, d’après H. Kuhn en 1962, l’apparition de nouveaux concepts fondateurs (paradigmes) qui se transforment progressivement. Pour cela, il est nécessaire de dégager, dans un premier temps, sur quoi repose le paradigme précédent (pré - supposés et non - dits, les tirets sont volontaires) et quelles en sont les limites. Pour la Systémique cette phase s’est terminée dans les années 1920. La seconde étape, fruit d’une longue maturation et prise de conscience, sera naturellement de dégager, si cela est possible, le nouveau paradigme qui permettra d’opérer la synthèse et dont pourront découler les déductions qui s’imposent. Tout ce processus se déroule au milieu de crises, rejets, et négations de l’existant. Pour la Systémique, cette phase explosive est loin d’être terminée. Dans le cas présent, la première phase a été celle de la constatation des limites de l’approche analytique cartésienne dans les sciences. Les présupposés de cette approche sont :
  • Évidence parfaitement absolue d’une chose pour accepter de la reconnaître
  • Réductionnisme, c’est-à-dire séparation en éléments disjoints de la chose étudiée. Il s’agit de diviser les difficultés et les isoler en parcelles plus simples et plus petites pour les appréhender chacune séparément.
  • Addition simple de ces éléments “ de base ” ainsi découpés, permettant, sans problème majeur, d’expliquer la chose étudiée. Une causalité linéaire est donc sous-entendue pour pouvoir reconstituer le tout. Cela signifie que toutes les relations observées peuvent s’exprimer sous la forme d’équations simples linéaires du type : Y = AnXn + .... + A1X1 par exemple.
  • Être exhaustif, surtout aucun élément “ de base ” ne doit et ne peut être laissé de côté dans cette analyse/sommation.
Malheureusement, il existe de très nombreux cas où ces conditions ne sont pas remplies. Ces cas, ces “ ratées ” où la nature refuse de se plier à ces schémas par trop simplificateurs, forment précisément ce que l’on peut appeler des systèmes. Pour résumer, on pourrait conclure en disant que la procédure analytique cartésienne est seulement adaptée aux objets d’études simples avec  :
  • un nombre moyen ou faible d’éléments.
  • des éléments simples.
  • avec peu d’interactions ou interdépendances.
  • des interactions linéaires (de type Y = AX + B).
  • plus le nombre d’éléments grandi, plus ceux-ci doivent être simples ou identiques entre eux et avoir peu d’interactions.
  • le temps n’intervient pas, vision instantanée voire statique de la nature.
  • en bref, il s’agit de problèmes que les mathématiques ont répertoriés sous le nom de problèmes polynomiaux (ou P-Problèmes).
Tandis que pour la Systémique, on pourra s’attaquer à un objet que l’on qualifiera de complexe en opposition à l’objet seulement simple.

II-2) Description d’un système au sens de la Systémique
:

Un système est un ensemble complexe, formé de sous-ensembles (éventuellement de sous-systèmes) en interactions non linéaires dynamiques par le jeu d’un ensemble de relations lui donnant un caractère de totalité. Les interactions non linéaires s’expriment par des équations de degré supérieur à 1 (Y = AX + BX2+ CX3+…), trigonométriques, exponentielles ou logarithmiques, ou encore par un jeu d’équations différentielles. On peut admettre en première approche -mais avec toute la prudence nécessaire au demeurant comme on le verra ensuite- que ce système est organisé en fonction d’un but dans le cas de systèmes artificiels ou d’une finalité (téléologie) dans le cas de systèmes naturels. On pourra voir plus loin le débat sur les concepts de finalité déjà fort bien analysés par Aristote.
Un système est plus ou moins ouvert sur le monde extérieur désigné sous le nom d’environnement.
Un système est donc qualifié d’ouvert (sur son environnement) ou fermé.
Un système évolue dans le temps, convergent vers un état d’équilibre dynamique, au contraire divergent pour finir par exploser, ou bien oscillant entre plusieurs états d’équilibres dynamiques ponctués. On observe des phénomènes de transitions de phases, de temps de transmissions, de percolations, de propagations des éléments, inputs/outputs, ou informations entre systèmes ou à l’intérieur d’un même système.


II-2-1) Aspects structurels :
La structure d’un système peut comprendre : 
  • une frontière “ filtre ” des entrées et sorties ou limite plus floue,
  • des éléments dits de base ou des sous-systèmes, d’où l’apparition des concepts de récursivité et d’études récursives.
  • des réseaux de transport pour l’énergie ou la matière, ces réseaux sont eux-mêmes des sous-systèmes du système.
  • de même des réseaux d’informations, de communications, sous différentes formes : influx nerveux, circuits papier (courrier), électroniques ou informatiques, prix, ainsi que des processeurs d’informations, locaux ou centraux, centralisés ou décentralisés.
  • des réservoirs ou stocks pour l’énergie, la matière ou l’information

II-2-2) Aspects fonctionnels :

Fonctionnellement, on peut également trouver dans un système :
  • des flux, là encore d’énergie, matière ou information, qui transitent, soit à l’intérieur du système soit sous forme d’entrées et sorties par rapport à l’environnement (extérieur) du système. Ces flux sont essentiels car ce sont eux qui créent l’aspect « du tout supérieur aux parties » par leurs jeux d’inter-relations. Il est à noter que ces flux peuvent être des flux d’énergie faisant appel à la Thermodynamique ou des flux d’informations faisant appel à la Théorie de l’Information de Shannon qui s’appuie elle-même sur la Thermodynamique.
  • des centres de décisions, les modules de pilotages de l’Analyse Modulaire de Systèmes de J. Mélèse, appliquant un “ programme ” permettant au système la survie, c’est-à-dire de trouver un état localement stable, de moindre énergie.
  • des boucles de rétroactions (voir plus loin).
  • des délais, expression des réservoirs ou non, dits encore “ temps de réponse ” du (sous-) système
II-2-3) Aspects historiques :

Ce sont les aspects que le structuralisme avait négligés. Il s’agit de l’influence d’un temps orienté sur le système, de son évolution, de ses transitions de phases, d’équilibres ponctués, etc.… C’est sur ces aspects que les concepts d’émergence, d’auto-organisation et d’auto-évolution vont apparaître. C’est sur ce sujet que vont s’affronter les idées de finalité versus ergodicité ou équifinalité. Enfin, c’est toujours à ce propos que revient l’idée de projet, explicité par P. Valéry dans ses Cahiers, idée au cœur du Constructivisme épistémologique. La réintroduction de l’histoire en Systémique, prend en compte en effet non seulement le passé mais aussi le présent et le futur du système, et par la même le projet qu’il poursuit : sa téléonomie.Cette prise en compte du temps est l’un des aspects les plus forts de la Systémique par rapport aux approches platonicienne et positivistes, et est toujours aujourd’hui un critère déterminant de fracture dans tous les domaines on y reviendra.

SUITE du Blog : Les Concepts de Base 


Benjamin de Mesnard