INTUITION ET RAISON deuxième édition révisée
MARIO BUNGE
Titre original en espagnol: Intuición y razón Ce livre trouv...
58 downloads
2354 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
INTUITION ET RAISON deuxième édition révisée
MARIO BUNGE
Titre original en espagnol: Intuición y razón Ce livre trouve son origine dans trois conférences prononcées par l’auteur à l’Université de Pennsylvanie à la fin de l’année 1960, dans le cadre des Départements de Mathématiques, de Physique et de Philosophie. La première édition est apparue en 1962, et fut publiée par Prentice Hall, sous le titre Intuition and Science. Elle a été rééditée en 1975 par Greenwood Press. En 1965, les Éditions Universitaires de Buenos Aires en ont publié la traduction espagnole sous le titre Intuición y Ciencia. La présente édition est la traduction de la version entièrement revue, augmentée et actualisée par l’auteur de l’édition argentine de 1965. Nous presentons ici la deuxième édition revisée. Traduction française et glossaires: Adam HERMAN Mise sur le réseau Internet novembre 2001 Copyright éditions VIGDOR, 2001 ISBN 2-910243-90-7 publication communiquée au dépôt légal et à la BNF novembre 2001 Toute reproduction interdite
TABLE DES MATIÈRES COUVERTURES PRÉFACE INTRODUCTION CHAPITRE I L’INTUITIONNISME PHILOSOPHIQUE 1. D’Aristote à Kant 1.1. Sources de l’intuitionnisme aristotélicien 1.2. L’intuition rationnelle chez Descartes 1.3. La science intuitive de Spinoza 1.4. L’intuition pure de Kant 2. L’intuitionnisme contemporain 2.1. Introduction 2.2. Le Verstehen de Dilthey 2.3. L’ “intuition métaphysique” de Bergson 2.4. La Wesensschau de Husserl 2.5. Intuitions de valeurs et de normes 3. Bilan CHAPITRE II L’INTUITIONNISME MATHÉMATIQUE 1. Sources 1.1. Sources mathématiques et philosophiques
1.2. Brouwer et Kant 2. Thèses principales 2.1. Statut de la logique et de la mathématique 2.2 La thèse intuitionniste de l’intuitionnisme mathématique 2.3. Le principe de constructivité 2.4. Le tiers-exclu 2.5. Intuitionnisme mathématique et intuitionnisme philosophique 3. Les Pour et les Contre CHAPITRE III L’INTUITION DES SCIENTIFIQUES 1. Types d’intuition 1.1 Un mythe concernant la méthode 1.2 L’intuition comme perception 1.3 L’intuition comme imagination 1.4 L’intuition comme raison 1.5 L’intuition comme capacité d’évaluation 2.Nouvel examen de certains types d’intuition intellectuelle 2.1. L’intuition intellectuelle comme une manière normale de penser 2.2 L’imagination créatrice 2.3 L’inférence catalytique 2.4 Phronesis 3.L’intuition, embryon incertain
3.1 Les intuitions et leur mise à l’épreuve 3.2 “Intuitif” versus “systématique” 3.3 Le rôle de l’intuition en science CONCLUSIONS NOTES DE L’AUTEUR NOTES DE L’ÉDITEUR GLOSSAIRE INDEX AUTEURS BIBLIOGRAPHIE LA PRÉSENTE ÉDITION
PRÉFACE Ce livre traite de la création intellectuelle et de ses deux pôles: l’intuition et la raison. Il s’occupe en particulier des rapports entre intuition et raison dans la recherche scientifique et technique. Il traite aussi des philosophies intuitionnistes et de ce que l’on appelle l’intuitionnisme mathématique. Ce livre trouve son origine dans trois conférences prononcées par l’auteur à l’Université de Pennsylvanie à la fin de l’année 1960, dans le cadre des Départements de Mathématiques, de Physique et de Philosophie. La première édition est apparue en 1962, et fut publiée par Prentice Hall, sous le titre Intuition and Science. Elle a été rééditée en 1975 par Greenwood Press. En 1965, les Éditions Universitaires de Buenos Aires en ont publié la traduction espagnole sous le titre Intuición y Ciencia.Deux années plus tard a paru la traduction russe, Intuitsia i Nauka, préfacée par le professeur V. G. Vinogradov et publiée par les éditions du Progrès. Ces quatre éditions sont épuisées depuis des années. La présente édition est une version entièrement revue, augmentée et actualisée de l’édition argentine de 1965. J’ai tout particulièrement tenu compte de l’étonnante expansion de l’intuitionnisme mathématique depuis 1967, et j’ai également actualisé la bibliographie. Je remercie les précieuses observations critiques que m’ont adressées Paul Bernays, Ludovic Geymonat, Émile Grosswald et ma femme Marta. M.B.
INTRODUCTION Peu de mots sont aussi ambigus que celui d’ “intuition”. Son utilisation sans discernement est trompeuse, au point que l’on a songé sérieusement à expulser ce mot du dictionnaire. Toutefois, ce ne serait pas chose pratique, parce qu’il est fermement enraciné dans le langage ordinaire aussi bien que dans le langage technique, et l’on devrait alors introduire à sa place un grand nombre de nouveaux termes. Dans certains cas, “intuition” désigne une faculté pré-rationnelle (l’intuition sensible); dans d’autres cas, elle désigne une aptitude suprarationnelle (intuition pure, intuition d’essences, intuition mystique); dans d’autres, enfin, une forme de la raison (intuition intellectuelle). Les philosophes et les hommes de science ne s’accordent guère sur la signification du mot “intuition”. Pour les philosophes, l’intuition, sans qualificatif, est presque toujours une faculté de l’esprit humain différant aussi bien de la sensibilité que de la raison, et constituant une forme de connaissance autonome, c’est-à-dire une appréhension immédiate, complète et exacte. Les scientifiques, au contraire, s’occupent fondamentalement de la connaissance par inférence, qui est médiate, partielle, inexacte et construite laborieusement. Ils n’admettent pas la croyance en une appréhension immédiate des idées préexistantes, ni la croyance dans l’évidence immédiate et certaine; ils croient, au contraire, à des constructions plus ou moins rapides et à des inférences accélérées et fragmentaires. Ceux qui ont adopté un point de vue scientifique peuvent croire à divers types d’intuition, mais pas à l’intuitionnisme. L’intuition peut être une source de progrès lorsque ses productions – en général des conjectures grossières – sont élaborées et mises à l’épreuve. L’intuitionnisme, par contre, est une tendance régressive de la philosophie, qui proclame dogmatiquement l’existence, et même la supériorité, de cette forme de connaissance inscrutable et incontrôlable. Les philosophes aussi bien que les hommes de science, emploient souvent le mot “intuition” à la légère. En ce qui nous concerne, nous allons tenter d’analyser le terme, et d’élucider les fonctions que remplit l’intuition dans les domaines de la pensée où elle intervient le plus fréquemment: mathématique, science factuelle et technique.
CHAPITRE I L’INTUITIONNISME PHILOSOPHIQUE 1. D’Aristote à Kant 1.1. Sources de l’intuitionnisme aristotélicien. Dans son Organon, 1 principale œuvre de logique de l’Antiquité, Aristote expose conjointement deux thèses souvent confondues, qu’il faut distinguer. Il s’agit de 1) la thèse fondamentaliste, d’après laquelle toute branche de la connaissance possède un fondement ou point de départ radical (ultime et définitif) et absolu, c’est-à-dire indépendant de la manière selon laquelle le sujet en question est abordé et exposé; et 2) la thèse infaillibiliste, d’après laquelle toute connaissance qui mérite d’être considérée comme scientifique doit être certaine et irrévocable, raison pour laquelle elle doit se fonder sur des prémisses indubitablement vraies et évidentes. Naturellement, le fondamentalisme et l’infaillibilisme ne sont pas des caractéristiques exclusives du système aristotélicien; au contraire, ils caractérisent le dogmatisme en général, que celui-ci soit idéaliste, empiriste ou matérialiste. On peut les trouver tous deux, par exemple, dans l’exigence de fonder la “connaissance certaine” sur ce qui est immédiatement donné à la sensation (sensisme), ou sur des principes prétendument éternels de la raison pure (rationalisme classique). Il est inutile de souligner que le progrès de la connaissance, visant notamment à réviser et à élargir tout ce que l’on considère comme certain et prouvé, a discrédité aussi bien le fondamentalisme que l’infallibilisme. Tout fondement est considéré actuellement comme étant perfectible, et tout énoncé portant sur des choses ou événements est considéré comme susceptible de correction. Or, une proposition qui est considérée comme prémisse dans un contexte déterminé est indémontrable dans ce même contexte, et si nous n’admettons pas que de telles prémisses (axiomes ou postulats) peuvent
être formulées provisoirement en tant qu’hypothèses (science factuelle) ou conventions (science formelle), comment pourraient- elles être établies si ce n’est au moyen de l’intuition ou de l’induction ? Mais l’induction, qu’Aristote considère comme la méthode par laquelle la perception sensible elle-même “produit en nous l’universel”2, n’aboutit pas à une connaissance certaine, comme le prouve l’échec de la plupart de nos généralisations empiriques; et la connaissance incertaine n’est pas scientifique selon l’infallibilisme. Par conséquent, il ne reste que l’intuition intellectuelle ou raison intuitive (nous) comme unique moyen d’appréhension des prémisses du discours scientifique. En dernière instance, “c’est l’intuition qui sera principe de la science”. 3 Le fondamentalisme et l’infaillibilisme conduisent donc à l’intuitionnisme. Ou plutôt – dans le cas d’Aristote et de beaucoup d’autres qui accordent une valeur à l’expérience sensible et à la déduction – tous deux conduisent à postuler l’existence de l’intuition comme un mode autonome de connaissance et comme la source suprême de la vérité. Malheureusement, l’existence même d’une telle capacité d’appréhension globale et subite de connaissances certaines n’est pas pour autant établie. L’intuition, qui occupait une place marginale dans la philosophie d’Aristote, devait acquérir un rôle important dans la philosophie moderne. 1.2. L’intuition rationnelle chez Descartes. Cette même exigence de fondement ultime et de certitude pousse Descartes – beaucoup plus péripatéticien qu’il ne le croyait, quoique fondateur de la philosophie moderne – à proposer de ne rien employer d’autre que l’intuition et la déduction, car ce n’est qu’à travers elles que nous parviendrons à obtenir la connaissance des choses sans risque de nous tromper 4. Pour Descartes, l’intuition consiste en “une représentation qui est le fait de l’intelligence pure et attentive, représentation si facile et si distincte qu’il ne subsiste aucun doute sur ce que l’on y comprend; ou bien, ce qui revient au même, une représentation inaccessible au doute, représentation qui est le fait de l’intelligence pure et attentive, qui naît de la seule lumière de la raison, et qui, parce qu’elle est plus simple, est plus certaine encore que la déduction” 5. L’intuition cartésienne est, en conséquence,
une opération rationnelle au moyen de laquelle certaines vérités s’imposent d’une manière totale et immédiate. Ces propositions évidentes doivent être choisies en tant qu’axiomes. Parmi les propositions “qu’il faut voir intuitivement”, Descartes mentionne “2+2=4”, “3+1=4”, et leur conséquence “2+2=3+1”. Nous devons comprendre intuitivement, c’est-à-dire sans analyse, que cette dernière proposition est une conséquence nécessaire des deux précédentes 6 et du principe général qui est impliqué ici: “deux grandeurs égales à une troisième sont égales entre elles” 7 (c’est-à-dire la transitivité de l’égalité). D’après Descartes, les hommes n’ont pas d’autre moyen d’atteindre la connaissance certaine de la vérité que ceux de l’intuition évidente et de la démonstration nécessaire 8. Ce type de connaissance est le seul que nous devons tenter d’atteindre; une connaissance qui n’est que probable ou incertaine doit être refusée. Comme s’il répétait Platon et sa dichotomie entre episteme (science) et doxa (opinion), il écrit que “ceux qui cherchent le droit chemin de la vérité ne doivent s’occuper d’aucun objet à propos duquel ils ne puissent obtenir une certitude égale aux démonstrations de l’arithmétique et de la géométrie” 9. Ànouveau ici, à l’aube de la philosophie moderne, le fondamentalisme et l’infaillibilisme, la recherche d’une episteme considérée comme une connaissance certaine fondée sur des principes et des données immuables, conduisent à l’intuitionnisme, tout comme dans d’autres cas ils avaient mené à l’empirisme sensiste. Toutefois, l’intuitionnisme cartésien, tout comme celui d’Aristote, est un intuitionnisme modéré, car il conçoit l’intuition comme une opération rationnelle et insiste sur le fait que “seule l’intelligence est capable de concevoir la vérité” 10. En outre, pour Descartes, le fondamentalisme et l’infaillibilisme vont de pair dans la lutte contre la scolastique, dont le but n’était pas précisément de s’occuper des objets “à l’égard desquels notre esprit est capable d’atteindre une connaissance à la fois certaine et indubitable”. La défense des idées “claires et distinctes” fut un cri de guerre contre l’obscurantisme et son verbalisme inintelligible et vide. La révélation, l’autorité, la raison pure et l’expérience ordinaire avaient été discréditées par les scolastiques. L’expérience scientifique, d’un côté, et l’intuition de l’autre, allaient acquérir une valeur de connaissance chez les nouveaux penseurs. Nous sommes encore loin de l’intuitionnisme anti-intellectuel d’un Bergson, d’un Scheler ou d’un Heidegger. Et pourtant c’était ce même
intuitionnisme modéré, propre au rationalisme classique (Descartes, Spinoza, Leibniz), que Kant développa et qui parvint chez la plupart des irrationalistes romantiques contemporains – de Schelling à Heidegger – à dévorer complètement la raison. N’importe quel étudiant en mathématiques peut réfuter de nos jours l’intuitionnisme naïf de Descartes; il lui suffit de mettre en question le caractère intuitif des propositions que celui-ci utilise comme exemples. Descartes ne pouvait pas savoir que l’arithmétique ordinaire ne représente qu’un système parmi une infinité de systèmes arithmétiques concevables, au nombre desquels on peut citer les règles du calcul des heures et celles qu’on utilise pour les angles, où l’on trouve des égalités étranges telles que: “12+1=1” et “360+1=1”. Dans d’autres systèmes numériques – par exemple ceux qui acceptent uniquement les nombres négatifs – une proposition telle que “2+2=4” n’a même pas de sens, puisque ces nombres n’existent simplement pas dans un tel contexte. Ces arithmétiques non canoniques peuvent ne pas sembler “intuitives” à ceux qui n’y sont pas familiarisés. La transitivité de l’égalité était une autre intuition cartésienne. Mais Piaget a montré que la notion de transitivité est acquise en même temps que l’organisation logique de la pensée et est absente de la schématisation prélogique ou intuitive qui caractérise les premières années de la vie. Selon Piaget, “aux niveaux intuitifs, le sujet se refuse à tirer, des deux inégalités constatées perceptivement AB et BC, la prévision AC” 11. Mais, naturellement, Descartes vécut à une époque dans laquelle ne régnait pas la pensée génétique et évolutionniste. Descartes ne pouvait pas savoir non plus que la transitivité qu’il invoquait est une propriété de l’égalité formelle et n’appartient pas nécessairement à d’autres types d’équivalence comme l’égalité sensible. En réalité, il arrive souvent que nous nous trouvions dans la situation de comparer deux objets sensibles A et B, et aussi B avec un troisième objet C, et que nous disions: “évidemment A est égal à B et B est égal à C”. Toutefois, il peut arriver que nous distinguions ces mêmes objets A et C comme résultat de l’accumulation de différences imperceptibles entre A et B et entre B et C, lorsque l’ensemble de ces différences atteint le seuil de la perception. Un être doué d’une perception infinie pourrait ne jamais rencontrer d’objets matériels identiques, et ainsi le fameux principe considéré par Descartes comme intuitivement légitime ( “Deux objets égaux à un troisième sont égaux entre eux”) ne serait pas utilisé par cet être en dehors du domaine
des concepts. Mais il n’est même pas nécessaire de faire appel à une telle fiction. Le microscope, qui commençait à être utilisé couramment peu après que Descartes ait rédigé ses œuvres, montra que beaucoup d’égalités n’étaient qu’apparentes. Une fois reconnus la faiblesse de l’intuition sensible (source de nos énoncés de perception), les dangers des raisonnements abrégés et le caractère relatif de la vérité mathématique, comment pourrions-nous continuer de croire à l’existence de l’intuition cartésienne comme source de certitude? 1.3. La science intuitive de Spinoza. Spinoza distingue davantage de niveaux de l’activité gnoséologique que Descartes. Il signale un premier genre de connaissance (que ce soit d’objets physiques individuels ou de signes), ensuite, la raison ou deuxième genre, et un troisième, la scientia intuitiva: “et ce genre de connaissance progresse, de l’idée adéquate de l’essence formelle de certains attributs de Dieu, jusqu’à la connaissance adéquate de l’essence des choses” 12. La vertu suprême de l’esprit, “c’est-à-dire la puissance ou la nature de l’esprit, autrement dit son effort suprême, c’est de comprendre les choses par le troisième genre de la connaissance” 13. L’exemple de connaissance intuitive fourni par Spinoza est, à nouveau, de nature logico-mathématique. Il pourrait apparaître dans la solution de ce problème: étant donnés trois entiers, trouver un quatrième qui soit au troisième ce que le deuxième est au premier. Généralement nous faisons appel à une règle élémentaire, à savoir: a:b=c:x x=bc/a. “Mais -d’après Spinoza – pour les nombres les plus simples, aucun ce ces moyens n’est nécessaire. Étant donné, par exemple, les nombres 1, 2, 3, il n’est personne qui ne voie que le quatrième proportionnel est 6, et, cela beaucoup plus clairement parce que de la relation même, que nous voyons d’un regard qu’a le premier avec le second, nous concluons le quatrième” 14 . Comment parvenons-nous à cette conclusion? En multipliant par 2, ou en nous rappelant que deux fois 3 font 6 (puisque la relation que nous appréhendons est “le double de”). Et cette opération est si immédiate que, pour n’importe quelle personne cultivée, elle se présente comme un éclair de l’intuition.
Nous voyons donc que l’intuition de Spinoza n’est rien d’autre que l’inférence rapide, généralement assistée par la vue de signes (de marques physiques) représentant les concepts qui entrent en jeu. Leibniz, le troisième géant du trio rationaliste, ne conçoit pas autrement l’intuition. Néanmoins, ni Spinoza ni Leibniz n’ont été confrontés au paradoxe d’après lequel l’intuition, qu’ils considéraient comme la forme la plus élevée de la connaissance, est insuffisante pour établir de nouveaux principes de base de la mathématique ou de la science factuelle. (Leibniz aurait répliqué que les principes de la mathématique sont innés. Mais la psychologie génétique a réfuté cette thèse innéiste). 1.4. L’intuition pure de Kant. Kant modifia le triptyque de Spinoza relatif à l’activité de l’esprit. À l’intuition sensible (empirique) et à l’entendement, Kant ajoute la raison pure (reine Anschauung). La discipline qui s’occupe des principes de cette sensibilité, a priori supra empirique, est l’esthétique transcendantale. Pour cette discipline, “il y a deux formes pures de l’intuition sensible, comme principes de la connaissance a priori: l’espace et le temps” 15. “L’espace est une représentation nécessaire a priori, qui sert de fondement à toutes les intuitions externes” 16. En particulier, pour percevoir une chose, nous devons être en possession de la notion a priori d’espace. Le temps n’est pas non plus un concept empirique: il est quant à lui la forme du sens interne, et il est “une représentation nécessaire qui sert de fondement à toutes les intuitions” 17 . Pour Kant, l’intuition pure, qui constitue en outre la possibilité même de l’expérience sensible, est, sans le secours des sens, la source de tous les énoncés synthétiques a priori. Ceux-ci comprennent les énoncés synthétiques de la géométrie, qui est pour Kant la science a priori de l’espace physique, et ceux de l’arithmétique, qui se fonde d’après lui sur le dénombrement, et implique en conséquence le temps. Si, pour Aristote, Descartes et Spinoza, l’intuition est un mode de connaissance des vérités ultimes, pour Kant elle constitue la possibilité de l’expérience externe. Or, cette intuition intellectuelle (ou raison intuitive) n’est point celle de ses prédécesseurs, mais un obscur composant inné de l’esprit humain.
Nous savons aujourd’hui ce qui reste du caractère a priori, nécessaire, absolu et évident que Kant attribuait aux axiomes des mathématiques. Nous reconnaissons que ceux-ci sont a priori (comme les idéalistes l’ont fait remarquer et comme certains empiristes l’ont admis), mais nous ne reconnaissons pas qu’ils soient absolument nécessaires, et encore moins évidents. Il y a de nombreuses géométries, dont aucune n’est logiquement nécessaire, puisque chacune est compatible avec le même système logique. L’histoire de la science nous a montré à quel point le processus de construction des concepts et des théories inventés par l’homme au cours des derniers millénaires est laborieux et résiste à toute appréhension intuitive facile. Les géométries contemporaines peuvent être classées en quatre catégories: a) géométries mathématiques, que l’on peut diviser à leur tour en “abstraites” (c’est-à-dire, non interprétées) et “concrètes” (c’est-à-dire interprétées en termes de points, lignes, surfaces, etc.); b) géométries physiques, vraies avec divers degrés d’approximation (comme les théories relativistes de l’espace-temps); c) géométries perceptives, c’està-dire théories psychologique de l’espace visuel, de l’espace auditif, de l’espace tactile et de l’espace musculaire; et d) géométries philosophiques, c’est-à-dire des théories générales de l’espace physique en tant que réseaux de relations entre choses ou événements. Les psychologues nous ont appris que la géométrie euclidienne – seule théorie géométrique connue de Kant, quoique la géométrie projective était née cent ans auparavant- n’est pas la plus naturelle dans la perspective psychologiste adoptée par Kant. À vrai dire, l’espace visuel – l’espace constitué des relations entre les objets de la vision normale – n’est ni homogène, ni isotrope, et semble posséder une courbure variable, tantôt positive (géométrie elliptique), tantôt négative (géométrie hyperbolique), et occasionnellement nulle (géométrie euclidienne) 18. Nous savons aujourd’hui également que les énoncés mathématiques, bien qu’étant a priori, sont analytiques (quoique non tautologiques), au sens où ils sont justifiables par des moyens purement logiques. De plus, nous avons appris à distinguer les innombrables géométries mathématiques possibles de la géométrie physique que nous adoptons à chaque étape de la recherche. En ce qui concerne les axiomes de la plus grande partie de ces géométries, ils sont devenus si complexes que personne ne pourrait les considérer comme évidents ou supra rationnels. Seul leur manque
d’évidence est évident. C’est le cas, par exemple, de la forme du théorème de Pythagore généralisé dans la géométrie de Riemann: ds2 = Σ g i k dqi dq k I lequel, signalons-le en passant, possède dans cette théorie le statut logique d’un axiome. La “faculté” au moyen de laquelle l’homme crée (ou construit ou produit) des géométries et d’autres théories est la raison, accompagnée sans doute dans certains cas par l’intuition sensible, mais pas par quelque mystérieuse raison pure. Toutefois, les productions de la raison ne sont pas toutes évidentes et définitives. Le temps kantien a eu un destin semblable. Actuellement, nous considérons que la caractérisation du temps comme la forme a priori de la sensation interne, est un point de vue psychologiste, et nous refusons la séparation radicale entre le temps et l’espace physiques. Les théories de la relativité nous ont appris que les concepts d’espace et de temps physiques ne sont ni des concepts a priori ni des concepts indépendants entre eux, tout comme ils ne sont pas indépendants des concepts de matière et de champ. L’infaillibilisme est, naturellement, une des sources de l’intuitionnisme kantien. Parmi les autres figurent le psychologisme, et la reconnaissance, tout à fait juste, du fait que l’expérience sensible est insuffisante pour construire des catégories (par exemple la catégorie d’espace). Plutôt que de supposer que l’homme, sans de tels entia rationis, construit des concepts lui permettant de comprendre son expérience brute (qu’il possède tout comme d’autres animaux), Kant affirme dogmatiquement (et, comme nous le savons aujourd’hui, à l’opposé des thèses actuelles de la psychologie animale et de la psychologie de l’enfance) que “l’expérience externe et possible seulement par la représentation qui a été pensée” 19. Parmi toutes les contributions de Kant, son idée de l’intuition pure s’est avérée la moins juste, mais malheureusement pas la moins lourde de conséquences.
2. L’Intuitionnisme contemporain 2.1. Introduction Si l’intuition chez Descartes et chez Spinoza est une forme ou une espèce de la raison, l’intuition kantienne transcende la raison, et c’est pourquoi celle-ci constitue le germe de l’intuitionnisme contemporain, qui est, à son tour, la porte d’entrée de l’irrationalisme. Sans doute y a-t-il des différences importantes. Alors que Kant admettait la valeur de l’expérience sensible et celle de la raison, qu’il considérait comme insuffisante mais pas comme impuissante, les intuitionnistes contemporains tendent à les dénigrer toutes les deux. Alors que Kant est tombé dans l’intuitionnisme en prenant conscience du caractère limité des sens comme des exagérations du rationalisme traditionnel, et aussi parce qu’il avait une conception erronée de la nature de la mathématique, de nos jours les intuitionnistes eux-mêmes ne songent pas à résoudre un seul problème sérieux à l’aide de l’intuition ou de ses concepts. Au contraire, ils ont pour objectif d’éliminer les problèmes intellectuels, d’éradiquer la raison et l’expérimentation, et de combattre le rationalisme, l’empirisme et le matérialisme. Ce courant anti-intellectualiste de l’intuitionnisme est apparu à l’époque romantique (vers la première moitié du XIXe siècle), directement de la source kantienne, mais il n’a exercé d’influence substantielle qu’à la fin de ce siècle, lorsqu’il a cessé d’être une maladie de professeurs isolés pour devenir un mal de la culture. 2.2. Le Verstehen de Dilthey. Wilhelm Dilthey est un représentant typique de la réaction intuitionniste contre la science, la logique, le rationalisme, l’empirisme et le matérialisme. Dans son Introduction aux sciences de l’esprit (1833), cet érudit affirme que le but des sciences de l’esprit (Geisterwissenschaften) doit être l’appréhension du singulier et du global, et que l’on parvient à une telle appréhension seulement au moyen de l’expérience vitale (Erlebnis) et en aucun cas par la théorie.
L’histoire, dont le but est avant tout la présentation littéraire des faits singuliers du passé, exige une “sensibilité sympathique” (Mitempfindung) 20, tout comme la généralisation – qui n’est pas propre aux sciences de l’esprit – exige un effort rationnel. Dilthey décrète que la psychologie doit être conçue comme une science de l’esprit et non comme une science naturelle, ainsi que le voulaient les psychophysiciens. De plus, la psychologie doit demeurer à l’intérieur des limites d’une discipline descriptive qui affirme et “comprend” les faits, par opposition à la psychologie explicative (Erklärende), qui “essaye de déduire toute la vie spirituelle de certaines hypothèses” 21. Seule cette psychologie de la “compréhension” (Verstehen), fondée sur la ressemblance entre les expériences d’autrui et les nôtres, peut fournir un fondement sûr pour les sciences de l’esprit. La psychologie ordinaire ne fait qu’accumuler des hypothèses sur des hypothèses 22. Remarquons qu’ici aussi le but est d’atteindre une “certitude scientifique”, c’est-à-dire “l’évidence dans la pensée” 23. À cette fin, nous devons nous limiter à formuler des énoncés individuels dans le domaine des sciences de l’homme, où ce n’est pas “la seule forme de l’intelligence qui donne les meilleurs fruits”24, mais “le pouvoir de la vie personnelle”. (Malheureusement, Dilthey n’explique pas la signification de ce qu’il entend par “pouvoir de la vie personnelle”). En d’autres termes, nous ne devons chercher aucune généralisation, par exemple, l’énoncé d’une loi relative au comportement individuel ou social des hommes. Tel est le fruit stérile – pour reprendre l’analogie botanique – de l’infallibilisme. Il est clair que l’exigence de “compréhension” n’est pas une exigence scientifique. La science, malgré les efforts de certains méta scientifiques, ne tente pas de réduire ce qui est nouveau et inconnu à ce qui est ancien et familier; elle ne se donne pas pour but de “comprendre” ce qui est difficile aux yeux du bon sens. Au contraire, la science construit des concepts et des systèmes théoriques qui, parce qu’ils transcendent l’expérience ordinaire et le bon sens, nous permettent d’unifier et de prédire – en résumé, de rendre compte – de tout ce qui, au regard du bon sens, apparaît comme radicalement divers, mystérieux – quoique parfois évident -, et imprédictible. Loin de comprendre la réalité en termes de connaissance ordinaire, la science, spécialement la psychologie, l’explique en termes de lois qui décrivent les rapports existant entre des concepts de plus en plus abstraits et affinés. La plupart de ces concepts ne se trouvent pas dans la pensée présystématique ou intuitive; il suffit de se
rappeler de l’explication de la couleur bleu du ciel par la physique moléculaire, ou de l’explication des névroses par la théorie de l’apprentissage. II Pour la science, le bon sens est un point de départ et un problème. Les données sensibles et les jugements ordinaires constituent la matière première que la science élabore, transcende et explique (ce qui aboutit souvent à leur élimination). La compréhension offerte par l’école “humaniste” dans les sciences de l’homme, tout comme les explications religieuses et celles du bon sens, consistent en des exemples, métaphores, cas individuels et paraboles. Leur objectif est de rendre familier l’inconnu – lointain, non familier et complexe – en termes de ce qui est connu, immédiat, familier et simple. La science, loin de prétendre à une pareille banalisation des problèmes et des explications, tente d’expliquer ce qui est familier mais non encore expliqué, en termes de concepts et de propositions non familières mais compréhensibles 25. Malgré la stérilité de la “méthode” du Verstehen, les opinions de Dilthey eurent un certain écho, probablement en raison de la montée en Europe à cette époque de la vague de haine de la raison. Ses théories ne furent pas fécondes dans les sciences de l’homme mais elles trouvèrent preneur dans d’autres domaines. En premier lieu, le mouvement des Geisteswissenschaften, particulièrement la campagne en faveur d’une mystérieuse empathie ou compréhension sympathique (Einfühlung, Mitempfindung), furent utilisés par la pseudoscience et la semi-science. Freud, Adler et Jung affirmaient par exemple que l’empathie est le degré le plus élevé de la connaissance. Et l’Allemagne nazie – qui, tout comme la Californie, fut incroyablement fertile en pseudosciences – accueillit avec bienveillance l’opposition de Dilthey à la science, à l’ “école anglofrançaise” (positiviste et analytique) et aux “dogmes libéraux”, tout comme son exaltation de la totalité, de la vie et de l’État. 2.3. L’intuition métaphysique de Bergson. Bergson, Husserl et William James sont des représentants bien plus subtils et intéressants de l’intuitionnisme philosophique. Mais l’intuitionnisme activiste et utilitariste de W. James, si différent par son dynamisme de l’intuitionnisme contemplatif de Husserl, découle en grande partie de l’intuitionnisme bergsonien, de sorte que nous pouvons
l’omettre dans ce rapide parcours 26. (Le plus intéressant chez W. James réside probablement dans ses critiques de la psychologie de son temps, dans son ontologie radicalement empiriste, ainsi que dans son style diaphane). Pour Bergson, l’intuition est “cette sorte de sympathie intellectuelle au moyen de laquelle on est transporté vers l’intérieur d’un objet, pour coïncider avec ce que celui-ci possède d’unique et, en conséquence, d’ineffable” 27. L’intuition nous permet d’appréhender tout ce qui demeure extérieur à l’intelligence: le mouvement, le changement en général, la vie, l’esprit, l’histoire et surtout “l’absolu” qui, bien entendu, est ce qui n’est pas relatif. L’intuition n’est rien d’autre qu’une forme hautement développée de l’instinct. Elle est supérieure à la raison, dans la mesure où cette dernière s’exprime sous une forme hypothétique 28. Comment pourrait-on douter de la supériorité de l’instinct sur la raison, puisque celui-ci peut affirmer franchement (et même crier) “q”, alors que la raison ose seulement énoncer “q si p”, c’est-à-dire “si p, alors q”? L’intelligence, d’après Bergson, rend compte à proprement parler du seul “solide inorganique” et, en général, elle a vocation à traiter de la matière inanimée. Seul l’instinct nous amène à l’intérieur de la vie, pour saisir l’élan (écho du pneuma grec) unique et universel qui anime toute chose. L’intelligence, qui s’accorde seulement avec ce qui est discontinu, statique et ancien, est incapable d’appréhender la réalité et de saisir la continuité, le mouvement et la nouveauté, que seul l’instinct peut reconnaître. La fonction de l’intellect est plus pratique que théorique et, étant un instrument pour l’action, elle demeure à la surface des choses sans dévoiler leur nature. L’intuition, par contre, est “l’instinct devenu désintéressé, conscient de lui-même, capable de réfléchir sur son objet et de l’élargir indéfiniment” 29. Ce qui nous est intuitivement donné peut, selon Bergson, être exprimé de deux manières différentes: par l’image ou par le concept. Le développement de l’intuition est conceptuel, mais le noyau de tout système d’idées, un système philosophique par exemple, est une intuition originale qui doit être appréhendée 30. En conséquence, la philosophie est, pour Bergson, l’opposé de l’analyse; elle ne cherche pas à décomposer, à séparer et à discriminer (il s’agit là de la tâche servile de l’intelligence, essentiellement superficielle). La tâche propre de la philosophie est de
remonter à la simplicité originelle engendrée par l’intuition. Cette mission est accomplie par la métaphysique d’une manière directe, sans les symboles qui caractérisent la pensée conceptuelle 31. L’intuition de Bergson n’est pas une connaissance proprement dite, et luimême reconnaît qu’elle est nébuleuse. Elle ne serait rien sans les incitations de l’intelligence; sans l’intelligence, l’intuition demeurerait un pur instinct, concentré sur le singulier en mouvement 32. Mais l’intuition prend les choses depuis l’intérieur – comme Hegel voulait que le fasse la raison – et elle produit une certitude que la raison est complètement incapable d’atteindre. La recherche de la certitude et des fondements premiers est, à nouveau, la source principale de l’intuitionnisme. Bergson détaille avec soin ce qu’il considère comme les limitations de la raison, mais il ne se soucie pas de prouver sa thèse selon laquelle l’intuition est un mode de connaissance supérieur à la raison. Parmi les rares illustrations qu’il fournit de la fécondité de l’intuition, figure la deuxième loi de la thermodynamique, dont il connaît une formulation vulgarisée (la loi de l’entropie croissante était très populaire à son époque). L’exemple n’était pas bien choisi. La loi en question avait exigé une grande quantité de travail rationnel et empirique; ses diverses formulations sont difficilement compréhensibles sans le secours d’expériences et de formules; de plus, elle est susceptible de nombreuses interprétations très différentes les unes des autres. En un mot, elle est loin d’être conforme à l’intuition et à l’évidence. Le deuxième postulat de la thermodynamique a été formulé de différentes manières, plus ou moins anthropomorphiques, comme par exemple “l’énergie se dégrade progressivement”, “tout se dégrade avec le temps”, “l’univers est en train de se consommer” et “le destin final de l’univers est la mort thermique”. Mais on ne peut naturellement pas reprocher à la science le fait que certaines vulgarisations servent d’aliment à des philosophies antiscientifiques. Par ailleurs, Bergson ne se contredit-il pas lorsqu’il affirme que la fonction de l’intellect n’est pas théorique mais pratique? Les théories ne sont-elles pas des systèmes conceptuels? Les théories, comme celle de la thermodynamique et de la génétique, ne sont-elles pas des œuvres de la raison et de l’expérience, guidées par des hypothèses? Les théories scientifiques ne se caractérisent-elles pas, contrairement aux représentations, par leur caractère vague? Il ne fait aucun doute que la raison, à elle seule, est insuffisante pour construire des théories
scientifiques; l’information empirique et les diverses formes de l’intuition authentique – à l’exclusion des intuitions métaphysique, phénoménologique et mystique – sont des composantes essentielles du processus de construction des théories. Mais l’intuition est, dans ce cas, soit une forme de la raison, soit son outil (voir chapitre III ). Elle n’a pas même de place dans la formulation définitive de la théorie. Il est étrange que Bergson ait affirmé que l’intellect est incapable d’appréhender même les formes les plus simples du changement, c’est-àdire le mouvement mécanique. Les sciences de la nature, et plus particulièrement la physique, ne s’occupent-elles pas du changement? La source de cette curieuse croyance, partagée par W. James, semble être l’idée selon laquelle la pensée conceptuelle ne peut pas appréhender le mouvement, parce que les concepts sont statiques et isolés entre eux. Cet argument, employé par Hegel contre la logique formelle, ignore le fait que la science crée des concepts invariables mais aussi variables (comme “la vitesse de réaction”, “le rythme de croissance”, “l’accélération”), capables de décrire des aspects changeants de l’expérience. L’argument ignore aussi le fait que toute proposition met en rapport des concepts, de sorte que ceux-ci ne s’empilent pas comme un entassement de briques éparses. Le calcul différentiel et intégral fut inventé en partie en vue de cerner avec une exactitude scientifique les concepts grossiers (pré analytiques, intuitifs) de vitesse instantanée et d’accélération; de sorte que l’on a pu obtenir des concepts (les fonctions numériques) qui étaient en mesure de représenter correctement l’état instantané et l’évolution de systèmes matériels de toute sorte. (Ceci ne signifie pas, bien entendu, qu’un tel calcul représente la “mathématique du changement” comme il a souvent été dit. Toute théorie du changement matériel est une théorie factuelle et non pas formelle et, si elle contient des formules mathématiques, celles-ci s’accompagnent de certaines règles de désignation et de postulats d’interprétation spécifiant la signification des symboles. Ainsi, la formule v =ds/dt n’entre pas dans la physique tant qu’on n’a pas spécifié les significations des variables s et t, ce qui peut être fait d’un nombre illimité de volume, la concentration, la charge, etc., et t peut représenter le temps, la position angulaire, etc.). La plus grande partie des variables de la physique, de la chimie, de la physiologie et de la psychologie sont continues, malgré la croyance de Bergson dans le fait que les sciences de la matière n’appréhendent pas la
continuité. Nous sommes tant habitués à la continuité que, lorsque la mécanique quantique fut proposée pour la première fois, certains scientifiques conservateurs la refusèrent, parce qu’elle admettait certaines discontinuités: ils affirmèrent que de tels sauts n’étaient pas “intuitifs”. (Schroedinger lui-même, l’un des initiateurs de la théorie quantique préférait parler de changements de fréquences, sans spécifier de quelles fréquences il s’agissait; Planck, quant à lui, consacra la moitié de sa vie à tenter d’expliquer la quantification en termes de mouvements mécaniques continus). Hilbert, le formaliste, croit que la continuité est intuitive; Brouwer, l’intuitionniste mathématique, pense que ce qui est intuitif, c’est la succession d’unités discrètes. Y a-t-il un tribunal suprême pour décider quel concept est, de par sa nature, le plus intuitif? Ou bien, la question elle-même n’a-t-elle pas de sens et le caractère intuitif n’est-il relatif qu’au sujet et à son expérience? Quant à la nouveauté qualitative, dont Bergson et les partisans de l’émergence affirmaient le caractère rationnellement inexplicable, ne peut-on dire que la physique nucléaire, la chimie, la théorie de l’évolution, la psychologie, la sociologie et d’autres sciences encore, en rendent compte? Il est vrai que l’on peut trouver des scientifiques et des méta scientifiques qui, au nom de l’unité de la science, refuseraient l’émergence de nouveautés radicales, mais la démonstration du fait que le nouveau est réductible à l’ancien est toujours un piège: elle consiste à montrer que le nouveau peut être expliqué comme produit de l’ancien. Aucun chimiste ne croit sérieusement que l’eau est contenue, d’une manière ou d’une autre, dans l’oxygène et dans l’hydrogène séparément, ou que les propriétés de l’eau sont banalement apparentes et que seules sont réelles celles de ses constituants – sauf dans le cas où il se réclame d’une cosmologie mécaniste anachronique, ou d’une théorie douteuse de l’explication scientifique, comme celle de la réduction du non familier au familier. Le biologiste ne nie pas l’émergence de nouveaux traits au cours de l’évolution; au contraire, son problème consiste à donner une explication, en termes de lois, d’une multiplicité de variations et de changements. Les scientifiques tentent d’élaborer des explications rationnelles et prouvables de l’émergence de la nouveauté; le fait que des telles explications paraissent mystérieuses pour ceux qui ne se préoccupent pas de les étudier n’est pas un signe de l’impuissance de la raison.
La critique de l’intelligence par Bergson aurait été opportune si elle avait porté sur la science médiévale; mais de la façon dont elle fut formulée, elle arriva quatre siècles trop tard. Le plus grave, c’est que le remède proposé ne fut pas meilleur que le mal. Bergson ne nous conseille pas de développer notre intelligence mais, au contraire, de l’assujettir à une “faculté” dépourvue des pouvoirs de systématisation logique et de critique fondée qui caractérisent la culture moderne. 2.4. La Wesenschau de Husserl. Dans ses Idées (1913), œuvre qui influença les pays germanophones, l’Amérique latine et la France d’après guerre, Husserl revitalisa l’essentialisme platonicien et aristotélicien qui tente de déterminer l’essence immuable des choses au delà de leurs propriétés et de leurs lois. Husserl affirme aussi que cette essence, ou eidos, relève d’une faculté spéciale, à savoir l’intuition intellectuelle (mais non rationnelle) qu’il nomme “vision d’essences” (Wesenschau). L’intuition empirique ou individuelle, et l’intuition essentielle ou universelle (puisqu’elle est censée appréhender l’universalité), sont les éléments de justification ultime de tout énoncé 33, même dans le cas où l’intuition originelle ne serait pas complètement appropriée, cas dans lequel elle nécessitera certaines modifications. Ces opérations, la réduction phénoménologique ou epochè, la “variation eidétique”, etc., sont autant de rites de purification qui nous rappellent les actes préliminaires au moyen desquels Bacon voulait nous libérer des idola avant de nous marier avec cette chaste et vieille dame, l’Observation. De la même manière, les rites phénoménologiques prétendent éliminer de nos esprits la charge des préjugés. La connaissance des essences, ou connaissance eidétique, est indépendante de la connaissance factuelle même lorsqu’il est question de l’essence d’objets matériels. De plus, cette connaissance ne présuppose pas l’existence réelle de l’objet: celle-ci doit rester en attente, ou “mise entre parenthèses”. Une telle opération est indispensable pour protéger la phénoménologie de toute réfutation empirique. Puisque les vérités eidétiques n’affirment rien sur les faits, aucune vérité factuelle ne peut en être déduite et, par conséquent, de telles “vérités” ne peuvent être ni
confirmées ni infirmées au moyen de la recherche empirique 34. La phénoménologie, tout en se référant à la réalité, est au-dessus de la réalité. En conséquence, les énoncés eidétiques, résultant de la vision d’essences ou intuition eidétique, sont des énoncés synthétiques a priori qui possèdent, par rapport aux énoncés kantiens, le clair avantage d’être complètement sans pertinence du point de vue de l’expérience et presque complètement inintelligibles. Ils sont considérés comme vrais, indépendamment de l’expérience ordinaire. Scheler explique ceci en disant que “les essences et leurs connexions sont données avant toute expérience de ce type (l’expérience ordinaire), c’est-à-dire sont données a priori”; et que “les propositions qui s’accomplissent en elles sont “vraies” a priori” 35. «Ce que nous saisissons intuitivement comme étant les essences, ou comme connexion entre de telles essences, ne peut, par conséquent, être annulé ni par l’observation ni par l’induction, et ne peut être amélioré ou perfectionné” 36. Les vérités de la phénoménologie sont, par opposition aux vérités de la science, définitives. La phénoménologie fournit donc les moyens pour satisfaire les exigences du fondamentalisme et de l’infaillibilisme. La réduction à la conscience pure agit comme un moyen pour accéder à la racine des choses, en rendant possible aussi bien un “retour aux choses elles-mêmes” qu’un “point de départ absolu”. D’autre part, la Wesenschau engendre les reine Wesenswissenschaften (sciences pures de l’essence) ou sciences eidétiques, qui sont censées rendre compte des lois de l’essence (Wesengesetze) et servent de fondement inamovible aux sciences positives ou empiriques, ce dont les scientifiques ne semblent toutefois pas s’être aperçu. Il est clair que l’infaillibilisme, la recherche de tout ce que Husserl appelle l’ “évidence apodictique” ainsi que le fondamentalisme, comptent parmi les sources de l’intuitionnisme phénoménologique. “La science authentique et le manque authentique de préjugés qui la caractérise, exigent, comme base (Unterlage) de toutes les démonstrations, des énoncés dont la validité est immédiate ou qui découlent directement d’intuitions premières (originär Gebenden)” 37. Les intuitions adéquates sont parfaitement indubitables; elles ont, d’après Husserl, le même caractère apodictique que les énoncés de la science 38. La certitude, que l’empiriste radical attribue aux énoncés protocolaires ou d’observation et
que le rationaliste traditionnel trouve dans les idées innées ou dans les principes immuables de la raison, est attribuée par Husserl à une intuition qui voit “les choses elles-mêmes”, qui appréhende les essences immuables, sans s’arrêter à des détails fastidieux tels que l’existence ou la corroboration empirique. La phénoménologie n’exclut pas le doute en général, mais elle le considère comme relevant des données de l’expérience et des sciences empiriques, qui peuvent se permettre le luxe d’être incertaines, puisque elles ne sont que des savoirs secondaires. Par ailleurs, on ne peut douter de l’existence de l’intuition des essences, quoique Husserl ne fournisse pas d’exemple montrant la réelle existence de cette faculté a priori, extraempirique et supra-rationnelle, d’appréhension des essences; il ne prouve pas non plus qu’il y ait des essences au delà des propriétés et des relations étudiées par la science, c’est-à-dire dans un quelconque royaume platonicien d’Idées éternelles. Une autre affirmation tout aussi fausse de Husserl est l’affirmation selon laquelle les “sciences eidétiques” – dont il mentionne la possibilité, mais qu’il ne se donne pas la peine de construire – aient été réellement le fondement d’une quelconque science des faits 39. On ne saurait prétendre que tel est le cas de la logique et de la mathématique (qui sont, d’après Husserl, des sciences eidétiques). En premier lieu, ces disciplines existent indépendamment de la phénoménologie et se sont développées dans un sens opposé à celui souhaité par Husserl. (Rappelons-nous que Husserl ridiculisa la tentative de Frege de fonder la mathématique sur la logique 40, et qu’il se tint complètement en dehors du mouvement de renouveau de la logique auquel participèrent Frege, Peano, Whitehead et Russell). En second lieu, la logique et la mathématique sont des instruments et non pas des “bases” de la science factuelle. Il est sans doute possible qu’une donnée empirique fasse partie (tant qu’elle n’a pas été corrigée) de la “base” de la science; mais dire que la science formelle, source de formes idéales, constitue la base des sciences factuelles, reviendrait à dire que la grammaire est la base de la poésie, ou que l’industrie des pinceaux est la base de l’art de la peinture. En troisième lieu, la science formelle ne s’occupe pas des essences au sens de Husserl. Aucun mathématicien ne se demande quelle est l’essence du cercle ou de l’intégrale de Riemann, et certaines branches de la mathématique – les théories abstraites – ne précisent même pas la nature de leurs objets.
Précisons ce dernier point, qui est important pour une évaluation de l’essentialisme. Dans l’algèbre abstraite, par exemple, on ne demande pas nécessairement ce que sont les entités A et B qui satisfont la formule “AB + BA =0”. Personne ne cherchera l’ “essence” de A et de B en dehors de la relation – ou loi – “AB + BA=0” qui les spécifie de manière ambiguë. L’essentiel, aussi bien en algèbre qu’en physique, est la loi elle-même, qui peut être vérifiée (si elle est universelle) par une infinité d’entités. Cette loi ne surgit pas de quelque appréhension des essences: au contraire, le mathématicien la construit dans une démarche qui n’est pas nécessaire – ceci devrait être le cas s’il était vrai qu’une fois appréhendée l’essence d’une expression, il devenait évident que cette proposition était nécessaire (ainsi que le prétend la phénoménologie). Seules les preuves logiques et mathématiques sont nécessaires, en ce sens que, si elles ne se conforment pas à certaines normes, elles ne sont pas valides; mais les axiomes de la science formelle ne sont pas logiquement nécessaires. La science moderne a abandonné l’essentialisme de Platon et d’Aristote. Elle ne recherche pas des essences en tant qu’entités et encore moins en tant qu’entités transcendant les objets. Par contre, la science est capable d’inventer et de découvrir des lois essentielles à un titre ou dans un contexte donnés, bien que ailleurs elles doivent être considérées comme dérivées. Il serait intéressant que les phénoménologues parviennent à démontrer, outre les lois essentielles, l’existence d’essences pures et isolées, ou d’essences appréhendées par une vision intérieure. Malheureusement, leurs écrits sont remarquablement dogmatiques et stériles, et de plus assez divergents chez ses disciples qui, de Scheler et Heidegger à Sartre et Merleau-Ponty, ne partagent que l’obscurité 41. Husserl a construit, comme l’a signalé le mathématicien Von Mises, une méthode pour voir la réalité, avec laquelle il n’a rien vu 42. 2.5. Intuitions de valeurs et de normes Abordons finalement l’intuitionnisme axiologique et éthique défendu par Sir David Ross, par des semi-phénoménologues comme Max Scheler et Nicolai Hartmann, et par des empiristes comme George Edward Moore. D’après ces philosophes, le bien et le mal, ainsi que nos devoirs, sont connus directement de nous et, de plus, ne sont pas susceptibles d’être
analysés. Les propositions de base de l’éthique et de la théorie des valeurs sont accessibles par l’intuition (par tout un chacun ou par quelques privilégiés), mais indémontrables et irréfutables par l’expérience. Ainsi Scheler affirmait l’existence d’une intuition émotionnelle qui appréhende les essences irrationnelles (valeurs) 43; pour Moore, le “bon”, considéré par lui comme le concept central de l’éthique, est indéfinissable, et rien, sinon l’intuition, ne peut nous apprendre quelles choses ou qualités sont bonnes 44. L’intuitionnisme éthique et axiologique, fondamentalement absolutiste, anti naturaliste et anti analytique, refuse d’expliquer et d’élucider (par exemple, en termes psychologiques, sociologiques ou historiques) les mots, normes et énoncés éthiques, ou les jugements de valeur, et refuse la possibilité de les justifier ou de leur attribuer un fondement empirique ou rationnel. En conséquence, il érige une dualité irréductible entre les faits et les valeurs, entre la nature et la société, entre les besoins, les désirs et les idéaux, d’un côté, les normes du comportement moral de l’autre. Une pareille dualité empêche toute tentative d’expliquer, de fonder et de corriger, sur la base de l’expérience et de la raison, l’attitude normative en matière de valeurs et de règles morales 45. Il abandonne le comportement humain à l’impulsion irrationnelle de l’individu ou à la volonté de l’ “illuminé” qui revendique la possession d’une “intuition de valeurs” ou “intuition de normes” particulière. De cette manière, l’intuitionnisme éthique et l’intuitionnisme axiologique favorisent l’autoritarisme, revers notoire de l’intuitionnisme 46. Les naturalistes et les rationalistes, par contre, ont tendance à soutenir que les êtres humains ont le droit de savoir pourquoi le travail est bon et la guerre mauvaise, et ce qui justifie une règle telle que “éclaire ton prochain”. Un tel objectif peut être atteint au moyen d’une analyse des énoncés de valeur et des normes, et il est susceptible d’être poursuivi, en dépit des accusations de Moore qui voit dans ce type d’analyse un “sophisme naturaliste”. Une réflexion sur la valeur montrera que loin d’être quelque chose d’absolu elle est quelque chose de relatif. Toute chose a de la valeur (ou n’en a pas) sous un aspect déterminé (par exemple, culturellement), pour une unité sociale donnée (par exemple, une personne), dans des circonstances particulières (par exemple, dans la vie ordinaire) et en rapport avec un certain nombre de desiderata. À leur tour, les desiderata, et les normes ou lois désirables du comportement, peuvent être justifiés pragmatiquement, d’après leurs résultats, et
théoriquement, par l’évaluation de leur compatibilité avec les lois de la nature et de la société, et celle de leur cohérence avec des desiderata et normes ultérieurs, dont certains doivent naturellement être choisis comme principes 47. Toute tentative qui, comme celle-ci, essaye de construire l’axiologie et l’éthique à l’aide de l’analyse et de la science, de leur associer la nature, l’expérience et la raison, et de bannir le mystère du dogme, est bien entendu refusée par l’intuitionnisme. 3. Bilan Nous avons brièvement discuté certains exemples typiques de l’intuitionnisme philosophique. Établissons à présent le bilan correspondant. 1) L’existence des intuitions n’a pas été démontrée par les intuitionnistes. L’intuition intellectuelle de Descartes, Leibniz et Spinoza n’est pas autre chose qu’une inférence rapide dont on ne perçoit pas, en général, le caractère médiat et réfléchi. Quant à l’intuition pure de Kant, elle s’est avérée être un faux mélange de raison et de conscience de l’expérience intérieure: les productions que son inventeur lui attribuait sont incompatibles avec les sciences, aussi bien formelles que factuelles, telles qu’elles se sont développées après lui. Les intuitions de Dilthey, Bergson, Husserl, Scheler et autres néoromantiques – très étroitement liées à l’ “imitation” pythagoricienne et à la “sympathie” hermétique – n’ont même pas conduit à des erreurs fécondes. Elles ne nous ont fourni que la vieille et vaine prétention à limiter la portée de l’expérience et de la raison; elles ne nous ont pas permis d’atteindre une compréhension plus profonde de l’histoire ou de la vie, ou d’une autre propriété ou loi essentielles d’une quelconque classe d’objets. Comment pourraient-elles le faire puisque la connaissance proprement dite est conceptuelle et systématique ? Comme Schlick l’a signalé, l’intuition, si elle est sensible, donne l’objet mais ne l’appréhende pas conceptuellement, de sorte que l’expression “connaissance intuitive” est une contradiction dans les termes 48. La vie et l’observation peuvent procurer une certaine familiarité avec les choses, mais en aucun cas une compréhension de celles-ci. Quant à l’intuition philosophique, il va de soi qu’elle est stérile, puisqu’elle n’existe pas.
En résumé: les nombreuses affirmations concernant le pouvoir de l’intuition et la misère de la raison n’ont pas été prouvées; il s’agit de cas typiques de dogmatisme. 2) Du point de vue logique, l’intuitionnisme est un produit du fondamentalisme et de l’infallibilisme, tous deux insoutenables. La recherche de fondements inamovibles, de vérités certaines et évidentes, ne pouvait pas manquer de suggérer l’existence d’un mode extraordinaire de connaître: un certain type de révélation naturelle, indépendant aussi bien de l’expérience externe que de la raison, puisque celles-ci sont faillibles et n’établiront jamais des “fondements” absolus et définitifs. Malheureusement pour l’intuitionnisme, l’explicandum qu’il tente de caractériser n’existe pas. Il n’y a pas de prémisses de base dans un sens absolu, il y a seulement des hypothèses et des conventions qui fonctionnent en tant qu’axiomes ou postulats dans certains systèmes théoriques, c’est-à-dire qui sont relatifs à d’autres propositions. En général, ces axiomes ne sont pas évidents: ils sont le résultat de la poursuite laborieuse d’une structuration claire et économique d’un corpus de connaissance. En outre, la “vraie science” ne peut plus être définie comme une connaissance certaine et indubitable (episteme), en opposition à l’opinion incertaine et changeante (doxa). Une connaissance scientifique est une opinion justifiable, une opinion fondée – mais toujours une opinion. S’il s’agit d’une connaissance certaine, alors elle ne se réfère pas aux faits mais à la forme; et si elle se réfère à la réalité, elle est incertaine, corrigible, perfectible 49. Autrement dit, quoiqu’il y ait de la certitude dans une grande partie de la science formelle, il n’y en a pratiquement pas dans la science factuelle. Sur des questions de fait, nous devons nous contenter de la certitude pratique, cette certitude que nous adoptons lorsque nous ne pouvons pas atteindre une précision supérieure à un ordre de grandeur déterminé, ou que nous n’en avons pas besoin. La recherche d’une certitude définitive et rassurante – si fortement voulue par les esprits faibles – a été remplacée par celle d’une minimisation de l’erreur, plus facile à découvrir que la vérité 50. Une des techniques utilisées par cette volonté de minimiser l’erreur est l’élimination progressive ou l’élucidation des termes intuitifs, non pas comme une opération de purification préalable, mais comme un processus sans fin d’explicitation (voir chap. III, “Intuitif” vs.
“Systématique”). Les esprits scientifiques se rassurent par une confiance fondée dans le progrès de la connaissance; en cas d’urgence, ils peuvent trouver cet apaisement au moyen de certains tranquillisants. Personne, si ce n’est les gens philosophiquement immatures ou naïfs, ne croit aujourd’hui à la possibilité d’une appréhension totale et immédiate de la vérité. Nous savons tous que l’aventure de la connaissance est risquée et qu’elle n’a pas de fin, qu’elle avance d’échec en échec, bien que l’échelle de l’échec décroît souvent d’une fois à l’autre. Autrement dit, les étapes successives d’une recherche constituent une suite convergente, ou tout au moins une succession d’erreurs décroissantes. Nous savons aussi qu’il n’y a pas de fondement ultime ni de certitude définitive; qu’aucune intuition ou expérience n’est assez certaine pour résister à la critique rationnelle, que les sciences, dépourvues de fondement ultime, se complètent et se modifient entre elles, changeant continuellement de point de départ; que, dans le champ de la connaissance, il n’y a pas de fondation absolue, mais des points de départ logiques relatifs. Nous sommes révisionnistes et non pas fondamentalistes, faillibilistes et non pas infaillibilistes. Même les intuitionnistes se mettent à douter de l’infaillibilité de l’intuition 51. 3) Du point de vue psychologique, l’intuitionnisme est le produit d’une confusion. En exagérant quelque peu, nous pourrions dire que l’intuitionnisme est le produit d’une confusion sémantique: il résulte de la confusion entre: certitude psychologique ou évidence (qui sont censées caractériser les intuitions) et preuve rigoureuse. Celle-ci, une fois comprise et synthétisée, produit en nous un sentiment d’évidence, si bien que souvent nous ne comprenons pas pourquoi nous n’avons pas “vu” avant. Mais l’inverse n’est pas vrai: la certitude psychologique ne garantit pas la validité logique ou la validation empirique. Dans la vie quotidienne nous confondons souvent l’évidence, définie comme une compréhension et une crédibilité maximales, et la vérité. Une mère se trompe rarement lorsqu’en montrant son fils, elle affirme: “c’est mon fils”. La vérité et l’évidence semblent être une seule et même chose dans le cas de la connaissance “directe” – pour autant qu’une telle connaissance puisse exister. Mais en matière de science, il arrive généralement que les vérités les plus profondes ne soient “évidentes”, si jamais elles le sont, que pour ceux qui les ont durement apprises ou pour ceux qui les ont souvent manipulées ou même, mieux, seulement pour ceux qui en sont les auteurs ou qui les ont reconstruites par eux-mêmes.
L’évidence est en général une caractéristique de l’habitude et, en conséquence, un signal de danger, car nous avons fâcheusement tendance à ne pas questionner ni analyser ce à quoi nous nous sommes habitués. 4) L’intuitionnisme philosophique est une variété du dogmatisme et conduit à l’autoritarisme. Puisqu’il n’est pas donné à tout un chacun d’appréhender les vérités ultimes et les essences, le porteur supposé de la faculté d’intuition supra rationnelle est nécessairement quelqu’un dont la parole devrait être révérée. Ses intuitions sont infaillibles et, en conséquence, indiscutables. Une autre conséquence tout aussi possible semble ne pas avoir encore été signalée: l’anarchisme intuitionniste. Cette conséquence relève de l’argument suivant: si une intuition est aussi bonne qu’une autre, alors elle n’est corrigible par aucune autre intuition; en conséquence, toute connaissance est personnelle ou privée, d’où il en résulte une pluralité de théories et même de conceptions du monde. Il n’y a aucune possibilité de les départager parce qu’elles ont toutes la même valeur, quoiqu’elles soient mutuellement incompatibles 52. Dans le cadre de l’autoritarisme, collectif ou individuel, le dogmatisme s’affirme au détriment de la vérité objective; dans un cas comme dans l’autre est négligée la possibilité d’une démarche collective visant à atteindre et à perfectionner la connaissance. On peut affirmer à juste titre que l’empirisme radical, par exemple le sensisme, et le rationalisme classique et aprioriste, sont également dogmatiques et autoritaires, puisqu’ils établissent l’existence de “sources ultimes” de la connaissance totalement dignes de confiance et irrévocables. Du moins l’expérience sensible et la raison existent-elles, sans être isolées l’une de l’autre chez les animaux supérieurs. En revanche, que pourrions-nous dire d’une faculté inexistante, d’une intuition qui ne serait ni sensible ni rationnelle et que l’on estimerait capable d’atteindre l’inatteignable, c’est-à-dire des fondements certains? L’intuitionnisme conduit à l’irrationalisme. Postuler l’existence et l’excellence d’une activité indépendante de la raison et supérieure à elle, aboutit à dénigrer la raison. Cette dégénérescence de l’intuitionnisme en irrationalisme, anti-intellectualisme et même charlatanisme pur a atteint son apogée durant le Troisième Reich, après une longue période de préparation à laquelle participèrent nolens volens les intuitionnistes de toutes les nuances et de toutes les nations de l’Europe et même de ses
colonies culturelles. L’Allemagne nazie a exalté le sang, l’instinct, la “compréhension sympathique” ou empathie, la perception des essences et l’intuition des valeurs et des normes. Symétriquement, elle a dénigré la logique, la critique, le traitement rationnel de l’expérience, l’importance de la technique, l’explication de l’expérience et la recherche lente, sinueuse et auto-corrective de la vérité. Ce n’est pas faire appel à un argument ad hominem que de mentionner le rôle politique de l’intuitionnisme. L’intuitionnisme, avec d’autres formes de l’occultisme et de l’obscurantisme, a non seulement été institutionnalisé par le nazisme, mais a intégré son idéologie et a été cohérent avec ses objectifs de barbarisation et de déculturation. Le nazisme lui-même fut préparé, dans la sphère idéologique, par de nombreux philosophes et “scientifiques de l’esprit” (Geisteswissenschaftler), qui exaltaient l’instinct et l’intuition au détriment de la raison, la perception de la totalité au détriment de l’analyse, la connaissance directe au détriment de la connaissance inférée (propre à la science), l’évidence au détriment des preuves 53. Il n’y avait rien d’accidentel dans ces démarches: un peuple abruti par le dogme de l’anti raison pouvait plus facilement être encouragé à perpétrer des actes irrationnels qu’un peuple averti par la critique. L’intuitionnisme philosophique finit donc par devenir une philosophie faite par des pervers pour des irrationnels.
CHAPITRE II L’INTUITIONNISME MATHÉMATIQUE 1.
Sources
1.1. Sources mathématiques et philosophiques L’intuition sensible et l’intuition géométrique (capacité de se représenter l’espace ou imagination visuelle) comptent aujourd’hui peu de défenseurs en mathématiques, puisqu’il a pu être démontré une fois pour toutes qu’elles sont aussi trompeuses logiquement que fertiles du point de vue heuristique et didactique. En conséquence, ce qui communément s’appelle l’intuitionnisme mathématique ne se fonde pas sur l’intuition sensible. Un des premiers exemples des limitations de l’intuition géométrique fut fourni par l’invention des géométries non-euclidiennes. Un exemple ultérieur réside dans la démonstration de l’existence d’une infinité de fractions entre deux fractions données, quelle que soit la proximité entre elles III (comme entre 999. 999. 999. 999/1. 000. 000. 000. 000 et 1). Parmi d’autres exemples, on peut citer les courbes continues n’admettant de tangente en aucun point, et les courbes qui remplissent toute une région du plan IV; une surface n’admettant qu’une seule face V; les nombres transfinis et la correspondance biunivoque entre les points d’un segment et ceux d’un carré, qui va à l’encontre de la notion “intuitive” de dimension 54 VI6. Nous savons aujourd’hui que les entités, les relations et les opérations mathématiques ne naissent pas toutes de l’intuition sensible; nous nous rendons compte qu’il s’agit de constructions conceptuelles qui peuvent manquer complètement de correspondance empirique, quoique certaines d’entre elles peuvent servir d’auxiliaires à des théories portant sur la réalité, par exemple la physique. Nous reconnaissons également que l’évidence ne fonctionne pas comme critère de vérité, et que les preuves ne peuvent pas être fournies au moyen de seules figures, puisque les
raisonnements sont invisibles. Nous n’exigeons plus, en particulier, que les axiomes soient “évidents”; au contraire, puisqu’ils sont presque toujours plus riches que les théorèmes pour l’explication desquels ils ont été inventés, les axiomes sont fréquemment moins “évidents” que les théorèmes qu’ils produisent et, en conséquence, ils tendent à apparaître plus tard que les théorèmes dans le développement historique des théories. Il est plus facile, par exemple, d’obtenir des théorèmes sur des triangles équilatéraux que d’établir des propositions générales sur les triangles. Après l’échec des intuitions sensible et spatiale (ou géométrique) comme guides certains pour la construction mathématique, on devait essayer ce que l’on appelle l’intuition pure; et puisque l’intuition pure de l’espace de Kant fut l’objet de méfiance de la part même de certains kantiens, comme Natorp et Cassirer, il devint nécessaire d’essayer l’intuition pure du temps ou du devenir. Cette tentative fut menée à bien par l’intuitionnisme mathématique ou néo-intuitionnisme (comme il préfère se faire appeler). Le néo-intuitionnisme est loin d’être un enfantillage ou une simple tirade anti-intellectualiste. Au contraire, il constitue une réponse légitime à des problèmes difficiles qui ont préoccupé des penseurs sérieux et profonds comme Henri Poincaré, Hermann Weyl, Brouwer et Heyting, réponse qui est sans doute susceptible de controverse et même, par certains aspects, dangereuse pour l’avenir de la science. L’intuitionnisme mathématique se comprend mieux si on le considère comme un courant de pensée créé par des mathématiciens: a) comme réaction contre les exagérations du logicisme et du formalisme;b) comme une tentative de sauver la mathématique du naufrage qui la menaçait au début du siècle comme résultat de la découverte de l’existence de paradoxes au sein de la théorie des ensembles; c) comme produit mineur de la philosophie kantienne (voir chapitre I, L’intuition pure de Kant ). Les logicistes, comme les réalistes platoniciens médiévaux 55, parlaient d’objets mathématiques existant indépendamment des esprits capables de les construire de manière effective, et de propositions existant même en absence d’esprits capables de les prouver. Contre eux, les intuitionnistes mathématiques affirment l’existence – dans l’esprit humain et non pas dans un royaume d’Idées platonicien (logicisme) ou seulement sur le papier (formalisme) – d’entités qui ont été construites, mais seulement de celles-là, et la véracité des énoncés que nous avons démontré d’une manière directe ou constructive, et seulement de ceux-ci.
Contre les formalistes (Kempe, Hilbert et notre contemporain le mythique Bourbaki) affirmant, tout comme les nominalistes médiévaux, que les objets dits mathématiques ne sont pas autre chose que des marques que nous traçons sur le papier, les intuitionnistes affirment que les objets proprement mathématiques sont des objets de pensée, les objets élémentaires étant des intuitions pures et les objets qui en dérivent des concepts. Comme on peut l’observer, l’intuitionnisme mathématique est plus près du conceptualisme – pour qui “3” est un signe représentant le nombre trois, et ne doit pas être pris pour ce dernier – que ne l’est l’intuitionnisme philosophique. Jusqu’à un certain point, l’intuitionnisme mathématique est défendu par certains mathématiciens, indignés par la caractérisation frivole de la mathématique comme un jeu formel (formalisme) ou comme une banale application de la logique (logicisme). En ce sens, l’intuitionnisme mathématique est une défense de la profession de mathématicien. Malheureusement, les armes des défenseurs ne sont pas toujours meilleures que celles des agresseurs. 1.2. Brouwer et Kant Que doit l’intuitionnisme mathématique, même dans sa formulation orthodoxe de Brouwer et de Heyting, à l’intuitionnisme philosophique? Pas grand chose: il s’est inspiré du seul Kant, et celui-ci était autant rationaliste et empiriste qu’intuitionniste. On pourrait même faire abstraction de ce que l’intuitionnisme mathématique doit à Kant sans risque sérieux d’erreur concernant la compréhension de la théorie, comme l’a reconnu Heyting 56, bien que Brouwer aurait pu ne pas être d’accord. En effet, dans l’exercice de la mathématique, l’intuitionniste en appelle rarement à l’intuition, car il est conscient du fait que l’intuition amène aux paradoxes mêmes qu’il veut éviter. La dette de l’intuitionnisme mathématique à l’égard de Kant se résume en deux idées: a) le temps -mais pas l’espace, si l’on suit les néointuitionnistes – est une forme a priori de l’intuition et il est inhérent au concept de nombre, qui naît de l’opération de dénombrer; b) les concepts mathématiques sont, par nature, constructibles; ils ne sont pas de simples marques (formalisme) et ils ne sont pas non plus saisissables du fait d’avoir une existence antérieure (réalisme platonicien des idées), mais ils
sont des produits de l’esprit humain. La première formulation est, sans équivoque, kantienne, mais la deuxième sera acceptée par de nombreux penseurs non kantiens. Les mathématiciens qui adhèrent à l’intuitionnisme mathématique ont tendance à accepter la deuxième thèse, tout en ignorant la première. En outre, d’après Brouwer, l’intuition du temps intervient dans la construction des mathématiques sous une forme qui est tout sauf clairement intuitive, c’est-à-dire immédiate et évidente. En réalité, selon cet éminent représentant de l’intuitionnisme mathématique, l’intuition originelle (Urintuition) de la mathématique, qui est “le phénomène fondamental de la pensée mathématique”, est “l’intuition de la pure biunité” (en hollandais twee-eenigheid, en anglais two-ity ou two-oneness) qui, parce qu’elle constitue une intuition de base, ne peut pas être élucidée 57 Cette intuition – qui pourrait être le concept de succession ou d’itération ou peut-être l’ordre linéaire dans un ensemble dénombrable – crée non seulement les nombres 1 et 2, mais tous les autres cardinaux finis, “dans la mesure où l’un des éléments de la bi-unité peut être conçu comme une nouvelle bi-unité, processus qui peut se reproduire infiniment”. Une fois les entiers naturels construits (opération intuitive et pré-mathématique), la mathématique proprement dite peut débuter. Puisqu’une grande partie de la mathématique peut s’édifier sur l’arithmétique des entiers naturels, lesquels seraient nés de l’intuition du temps, on peut en déduire que “le caractère a priori du temps n’établit pas seulement les propriétés de l’arithmétique en tant qu’énoncés synthétiques a priori, mais (qu’) il en est de même pour les énoncés synthétiques de la géométrie”, à travers, certes, une longue chaîne conceptuelle. L’ “intuition de base” suffirait donc pour engendrer pas à pas, d’une manière constructive ou récursive, et non pas simplement au moyen de “définitions créatrices” ou de la preuve indirecte, toute la mathématique, ou plutôt toute la mathématique rendue possible par l’intuitionnisme mathématique, qui est seulement une partie de la mathématique “classique” (pré-intuitionniste). Le mathématicien courant, préoccupé d’enrichir sa science, ne s’est jamais complu à l’amputation de la mathématique voulue par l’intuitionnisme, ni à l’idée que le travail mathématique se développe sur la base d’une obscure Urintuition de la pure bi-unité. Par contre, il peut
être attiré par le programme constructiviste (voir plus loin, Le principe de constructivité ). Les idées et le programme de l’intuitionnisme mathématique ont été développés à plusieurs reprises 58; et de ce fait, l’attitude intuitionniste s’est rapprochée des idées de ses opposants. Aujourd’hui, la plupart des mathématiciens intéressés par les questions portant sur les “fondements” et la psychologie du travail mathématique, semblent admettre une combinaison de thèses empruntées au formalisme, au logicisme et à l’intuitionnisme. Par ailleurs, dans la mesure où l’intuitionnisme s’intéresse à l’aspect psychologique du travail mathématique, il est compatible aussi bien avec le formalisme qu’avec le logicisme, tout comme l’analyse pragmatique est compatible avec l’analyse syntaxique correspondante. L’intuitionnisme mathématique n’est décidément incompatible qu’avec ce que nous pourrions appeler une conception ludique – tout aussi ridicule – de la mathématique, d’après laquelle la démarche mathématique est “un jeu combinatoire avec des symboles élémentaires”, pour citer les mots de Van Neumann 59. 2. Thèses principales Il est utile d’examiner et d’évaluer les thèses principales de l’intuitionnisme mathématique contemporain. On verra que certaines sont conceptualistes, d’autres pragmatistes et d’autres, finalement, dynamistes; l’élément intuitionniste, philosophiquement parlant, y est rare. À mon sens, ces thèses sont les suivantes. 2.1. Statut de la logique et de la mathématique 1) les lois de la logique ne sont ni a priori, ni éternelles, contrairement à ce que soutient le logicisme. Elles sont des hypothèses formulées par l’homme analysant le langage au moyen duquel il exprime sa connaissance des ensembles finis de phénomènes. En conséquence, les lois de la logique ne doivent pas être considérées comme des principes régulateurs immuables, mais comme des hypothèses perfectibles
susceptibles d’être invalidées par de nouveaux objets – des ensembles finis par exemple. Cette conception de la nature et du statut de la logique, loin d’être philosophiquement intuitionniste, pourrait être partagée par des empiristes, des pragmatistes, des matérialistes et des historicistes. L’histoire des paradoxes logiques et mathématiques devrait nous avertir de l’intérêt de cette thèse. Rien ne nous assure que dans l’avenir, nous n’aurons pas à apporter de nouvelles modifications radicales à la logique formelle pour mieux l’adapter à tout mécanisme déductif et à des entités et opérations nouvelles et imprévisibles. De plus, plusieurs mathématiciens et logiciens – il suffit d’évoquer Lewis, Gentzen, Carnap, Reichenbach et Tarski – ont proposé de nouvelles formalisations des relations d’implication et de déductibilité. Nombreux sont ceux qui commencent à douter du fait que la logique ordinaire soit une reconstruction adéquate de la syntaxe du langage ordinaire, et même du langage scientifique. Les intuitionnistes mathématiques semblent avoir raison lorsqu’ils considèrent la logique comme susceptible de révisions ultérieures. Ils semblent par contre se tromper lorsqu’ils affirment que certaines propositions mathématiques – celles qu’ils déclarent intuitives – sont évidentes, et en conséquence plus certaines que les propositions logiques. La logique courante s’ajuste à la science, contrairement aux logiques “bizarres” ou non standard inventées à d’autres fins que celle de la reconstruction des normes d’inférence ordinaires. La science fait dépendre des lois logiques le degré de certitude de ses inférences (mais pas celui de leurs propositions qui sont toujours sujettes à doute). Il faudrait dire plutôt que les bonnes normes d’inférence sont celles qui donnent de bons résultats à la science tout en étant consacrées par la logique. Le rapport entre la logique et les autres sciences n’est pas un rapport de dépendance unilatérale mais d’ajustement mutuel et progressif 60. Ici comme ailleurs, le perfectionnement des outils conduit à un progrès dans la réalisation de l’objectif; les échecs dans cette réalisation se répercutent sur la manipulation de l’outil pour corriger et augmenter son efficacité. Pouvons-nous oublier que la logique aristotélicienne est née en contact étroit avec la cosmologie et la biologie, et que la logique moderne est fondamentalement l’œuvre de mathématiciens et de philosophes de la mathématique? VII
On ne saurait reprocher aux intuitionnistes mathématiques de défendre une philosophie faillibiliste de la logique; il faut par contre leur reprocher d’insister sur une philosophie infaillibiliste de la mathématique. 2)La mathématique est un produit de l’esprit humain. En tant que telle, elle est une discipline pure, c’est-à-dire indépendante de l’expérience, bien qu’elle puisse être appliquée; en outre, la mathématique est autonome, c’est-à-dire indépendante des autres sciences et en particulier de la logique. Cette thèse n’est pas typiquement intuitionniste au sens philosophique. Elle peut être défendue en partie par n’importe quel mathématicien persuadé de la possibilité de construire toute la mathématique sur la base de la théorie des ensembles. Mais peu de philosophes seraient prêts à admettre la thèse kantienne d’après laquelle la mathématique précède entièrement la logique et en est indépendante, spécialement si on tient compte du fait que les concepts logiques (comme tous, quelques-uns, et, non, si... alors, etc.) font partie de la texture intime des mathématiques. N’importe quel mathématicien confirmerait le fait qu’il emploie explicitement des lois logiques comme celles d’identité, de contradiction et de séparation. Mais bien entendu, sa tâche ne consiste pas en un calcul purement logique; après tout, il faut bien que quelqu’un “voie” le problème, invente les prémisses adéquates, entrevoie les relations pertinentes et établisse des liens entre différents domaines de la mathématique. Qui plus est, on a montré que la mathématique intuitionniste, loin de précéder la logique, s’édifie sur la logique intuitionniste 61. David Hilbert, la principale figure du formalisme, ne se serait pas opposé à cette thèse intuitionniste, puisqu’il affirmait que la mathématique, comme toute autre science, ne peut pas se fonder uniquement sur la logique, et qu’elle a besoin de présupposer des objets prélogiques 62; toutefois, pour le formalisme, de tels objets prélogiques sont des marques, c’est-à-dire des objets physiques et non pas des concepts. Hilbert, lui aussi, considéra la logique comme une application de la mathématique. L’intuitionnisme et le formalisme coïncident donc quant à l’antériorité psychologique (et même logique!) de la mathématique par rapport à la logique. Dans ce sens, tous deux constituent un logicisme inversé et, en tant que tels, ils sont hautement discutables. Affirmer avec Kant, Brouwer et Hilbert que la recherche mathématique est totalement
indépendante de la logique revient à formuler une affirmation relative à la psychologie de la mathématique. Une telle affirmation serait vraie si elle venait à être interprétée de la manière suivante: les mathématiciens ne sont pas souvent conscients du fait qu’ils emploient la logique. De la même manière, Monsieur Jourdain ne savait pas qu’il avait parlé en prose toute sa vie. Un bon mathématicien peut ignorer complètement la logique, tout comme un bon romancier peut ignorer la grammaire. Ceci ne prouve pas que leurs discours soient dépourvus d’un squelette formel, mais qu’ils ne se préoccupent pas du type de radiographie conceptuelle qui rendrait visible la structure occulte. Quant à la nature pure ou a priori de la mathématique, cette thèse est admise aujourd’hui par la plupart des métascientifiques, à l’exception de presque tous les matérialistes, empiristes et pragmatistes. Ceci a été le cas en particulier depuis que l’on s’est rendu compte que cet a priori n’est pas incompatible avec la conception de la mathématique comme partie de la culture et comme instrument pour l’action, et depuis que l’on s’est aperçu que ce même a priori est compatible avec la conception naturaliste de l’esprit en tant que fonction du système nerveux central. Mais la cohérence semblait exiger l’abandon du point de vue kantien partagé par Brouwer, quoique refusé par Heyting 63 – selon lequel la mathématique est applicable à l’expérience. On devrait admettre, au contraire, que la mathématique ne s’applique pas à la réalité ni à l’expérience, mais à certaines théories (physiques, biologiques, sociales, etc.) qui se réfèrent à la réalité. Autrement dit, la mathématique peut apparaître comme un outil formel dans des théories qui fournissent un modèle schématique et provisoire d’objets supposés réels. L’observation précédente au sujet du chemin indirect qui mène de la mathématique au réel, en passant par la théorie factuelle et l’expérience, peut mettre fin à une ancienne objection, formulée et répétée ad nauseam aussi bien à l’encontre du formalisme que du logicisme, à savoir que ceux-ci ne rendent pas compte de “l’application de la mathématique à l’expérience”. Comment pourraient-ils le faire si la mathématique ne s’applique jamais à la réalité, malgré le terme inapproprié de “mathématique appliquée” que l’on peut encore trouver dans des livres et dans des programmes d’études universitaires? La mathématique est seulement applicable à certaines idées sur des faits, et de telles idées sont matérielles ou factuelles (par exemple physiques) et non formelles, au sens où elles possèdent un référent objectif ou empirique. Autrement dit,
les théories exactes (et non nécessairement vraies) contiennent un formalisme mathématique qui, de par sa nature, n’est pas responsable de la signification factuelle de ces théories. 3) Les signes mathématiques ne sont pas vides: ils désignent des objets mathématiques et ceux-ci sont, à leur tour des objets intellectuels (concepts et propositions) qui, d’une certaine manière, reflètent les phénomènes. Autrement dit, les objets mathématiques, loin d’exister par eux-mêmes (comme l’affirme le logicisme), constituent des “champs de possibilités constructives”, et les lois mathématiques sont des lois a priori de la nature. Cette thèse n’est pas non plus typiquement intuitionniste, au sens philosophique du mot “intuitionnisme”. La première partie est conceptualiste; quant à l’affirmation selon laquelle il y a des énoncés synthétiques a priori, elle est gnoséologiquement idéaliste et, plus précisément, kantienne. Le fait que l’activité mathématique est une activité intellectuelle sera refusé seulement par les béhavioristes et les phénoménistes les plus extrêmes qui, pour compenser, s’intéressent rarement à la mathématique. Les non-intuitionnistes affirment que les activités intellectuelles – ou si l’on préfère, certains processus cérébraux – ne doivent pas être considérées exclusivement d’un point de vue psychologique, c’est-à-dire en tant que processus, mais également sous d’autres angles. La structure des productions de cette activité est particulièrement digne d’examen. Pourquoi doit-on priver le logicien du plaisir d’analyser ces productions alors qu’on ne refuse pas au chimiste le droit d’analyser les cendres que laisse le feu? Quant à l’affirmation selon laquelle les lois mathématiques sont en même temps des lois naturelles, il s’avère curieusement qu’elle est partagée par des empiristes traditionnels, des matérialistes et des idéalistes objectifs. Cette affirmation ne résiste pas à la moindre analyse sémantique ou même historique. Si une telle affirmation était vraie, l’expérience serait-elle nécessaire pour révéler les normes de la réalité? Pourquoi la plus grande partie des hypothèses scientifiques habillées sous une forme mathématique correcte s’avèrent-elles fausses? On peut attribuer à un même schéma mathématique une diversité de significations, mais alors il cesse d’être proprement mathématique; et certaines des structures
mathématiques interprétées seront vraies, alors que d’autres s’avéreront être fausses 64. 2.2. La thèse intuitionniste de l’intuitionnisme mathématique 4) Puisque la mathématique ne dérive ni de la logique ni de l’expérience, elle doit avoir sa source dans une intuition spéciale qui nous présente les concepts et les inférences élémentaires de la mathématique comme immédiatement clairs et certains. “Une construction mathématique doit s’imposer si immédiatement et ses résultats être si clairs qu’aucun fondement ne soit nécessaire” 65. En conséquence, nous devons choisir comme notions élémentaires les notions les plus immédiates, comme celle d’entier naturel. Ceci est à notre avis la thèse, sans équivoque intuitionniste, de l’intuitionnisme mathématique. Il s’agit d’une affirmation très vulnérable. En réalité, bien que les chiffres soient psychologiquement accessibles à l’intuition, tel n’est pas le cas de la succession infinie des entiers naturels, invention relativement tardive que beaucoup ont encore du mal à saisir. Comme le signale un éminent bourbakiste: “l’attribution d’une fonction privilégiée aux entiers naturels est basée sur une confusion psychologique entre l’intuition particulièrement claire et immédiate que nous avons des propriétés des petits nombres, et l’extension de ces propriétés à tous les entiers, extension qui dérive, à mon sens, d’axiomes purement arbitraires. Nous n’avons pas, et il va sans dire que nous ne pouvons pas avoir, la moindre intuition (au sens classique de ce mot) de grands nombres, par exemple; dire que la définition de n+1 pour tel nombre n est intuitivement claire, et que la propriété n+1 n est une vérité évidente, m’a toujours paru une absurdité. Si ceci est admis, on voit difficilement ce qui nous empêcherait de retomber dans la conception classique des axiomes de la géométrie euclidienne, considérés comme évidents par une extrapolation de même nature; ce qui, comme on le sait, est une attitude insoutenable” 66. Les intuitionnistes ne sont pas isolés lorsqu’ils affirment que la mathématique se fonde sur une intuition pré-mathématique. Cette même thèse a déjà été exposée par Hilbert vers 1921. Hilbert reconnaissait non seulement l’existence d’objets extra-logiques, qui sont donnés dans le
vécu avant d’être pensés, mais aussi l’existence de procédés intuitifs et dignes de foi, comme la reconnaissance de la première apparition d’un signe dans une suite, et même le modèle fondamental de l’inférence classique (le modus ponens). C’est pourquoi on a signalé que, dans l’œuvre de Hilbert, si le premier pas conduit à l’élimination de l’intuition, le second a conduit à sa réhabilitation 67. Cependant, il est nécessaire de signaler que l’intuition de Hilbert n’est pas une pure intuition mystique, indépendante de l’expérience ordinaire. Il s’agit de l’ancienne intuition sensible, ou perception sensorielle, appliquée spécifiquement à l’appréhension et à la reconnaissance de signes sur un papier ou sur un tableau noir, et à la détermination de corrélations géométriques entre des entités analytiques. Hilbert n’a-t-il pas affirmé que les objets mathématiques sont les signes concrets euxmêmes, et qu’il est possible d’atteindre la vérité mathématique “d’une manière purement intuitive et finie?” 68. N’a-t-il pas été le coauteur d’un livre de textes sur la Géométrie intuitive qui foisonne de belles figures suggestives, conçues pour produire la compréhension à l’aide de la visualisation? 69. Si ces faits avaient été mieux connus, on n’aurait pas confondu le formalisme mathématique avec l’abstractionnisme ou avec le culte des formes idéales. Le “formalisme” de Hilbert et de Bourbaki est, comme le nominalisme médiéval, le premier Quine et Lorenzen, une variété du matérialisme vulgaire. Toutefois, lorsque Hilbert proclame Am Anfang ist das Zeichen (au commencement il y eut le signe) et lorsqu’il proclame sa confiance dans les opérations sensibles (voir et écrire) portant sur les signes physiques (symboles) qui nous permettent d’asseoir une proposition, il fait preuve de la même tendance fondamentaliste et infaillibiliste qui est à l’origine de l’intuitionnisme philosophique et mathématique. Plus encore, Hilbert affirme à maintes reprises que son objectif est d’atteindre “la sécurité (Sicherheit) définitive des méthodes mathématiques” 70. Un épistémologue en même temps critique et tolérant (dont l’existence reste à prouver) nierait l’existence d’entités mathématiques qui seraient fondamentales au sens absolu du terme. Mais il admettrait, en revanche, de multiples tentatives de rechercher de tels fondements, avec une seule restriction: qu’elles soient cohérentes et n’infligent pas de mutilations aux mathématiques. Ce qu’il récuserait sans appel est l’existence de concepts intrinsèquement évidents ou clairs. Il serait conscient du fait que l’évidence est une relation psychologique et non pas une propriété
logique; il signalerait, en outre, que le degré d’évidence dépend, dans une large mesure, de l’expérience et du bagage culturel de chacun 71. Quelles raisons y a-t-il de croire que certains concepts et propositions sont dans tous les sens (logiquement, psychologiquement, historiquement, etc.) plus fondamentaux que d’autres? Quels motifs existe-t-il pour penser qu’il y a des fondements ultimes dans n’importe quelle science, ou qu’il est possible de construire des systèmes définitifs? Qu’est-ce qui nous garantit que le concept d’ensemble, considéré actuellement comme le concept fondamental de la mathématique, ne sera pas remplacé par une autre notion quelconque? En fait, un tel remplacement s’est déjà produit: l’idée de morphisme, ou flèche, s’avère précéder logiquement celle d’ensemble. La théorie des catégories, qui s’occupe essentiellement de tels morphismes, constitue un fondement plus profond et plus adéquat pour la mathématique que la théorie des ensembles. Toutefois, il n’y a aucune raison de croire qu’elle sera définitive. Il n’y a pas de règne millénaire en mathématique, pas plus qu’en politique. 2.3. Le principe de constructivité 5) La seule technique admissible pour la démonstration de théorèmes d’existence est la construction effective, parce que celle-ci permet de “voir” de quoi il s’agit. Par contre, la démonstration du fait que l’affirmation contraire de celle que l’on veut prouver conduit à contradiction, c’est-à-dire la technique de la démonstration indirecte, ne fait que signaler une possibilité d’existence ou de vérité, sans la garantir. Or la construction explicite ou effective n’est possible, par définition, que par des procédés finitistes, c’est-à-dire au moyen d’un nombre fini de signes et d’opérations comme le calcul du carré d’un nombre, ou l’application du principe d’induction mathématique ou d’induction complète par conséquent, toutes les propositions qui impliquent des classes infinies considérées comme des totalités. De la même manière, on doit éliminer ou repenser les expressions “pour toute classe”, “la classe de tous les premiers” et “la classe de toutes les classes”, ou encore les théorèmes qui se démontrent d’une manière essentiellement indirecte (c’est le cas de la plus grande partie des théorèmes de la théorie des ensembles de Cantor).
Telle est la règle “constructiviste” de la mathématique intuitionniste. Elle fut avancée par Kronecker (figure mineure) et par Poincaré (figure importante), et c’est celle qui intéresse le plus les mathématiciens parce qu’elle a des conséquences pratiques de grande portée, ou plutôt parce qu’elle a un énorme pouvoir de réduction. Avant de la critiquer, examinons son fonctionnement. L’intuitionniste n’acceptera pas l’existence d’un nombre du seul fait que l’on a énoncé la succession des opérations nécessaires pour le construire; il veut une réalité et pas une simple possibilité. Par exemple, il n’admettra pas qu’existe le nombre (le concept) correspondant au signe 1000 1000 et il n’admettra pas a priori la vérité de l’alternative: “le nombre 1000 1000 peut ou ne peut pas être décomposé en la somme de deux nombres premiers”“. L’intuitionniste attendra jusqu’à ce que l’on ait parachevé la décomposition, ou jusqu’à ce que l’on ait prouvé son impossibilité. En général, pour tout intuitionniste mathématique, l’énoncé “il existe au moins un x tel que x possède la propriété P” signifie que l’on a construit un objet mathématique a qui satisfait la condition P (a)” 72. De tous les énoncés de la mathématique “classique”, le célèbre axiome du choix, formulé par Zermelo, a été la cible préférée des intuitionnistes. Cet axiome affirme que, dans une famille donnée d’ensembles disjoints deux à deux, existe un ensemble composé par un représentant de chacun des ensembles de la famille. Cet ensemble s’appelle “ensemble de sélection”. L’axiome est évident pour une famille finie d’ensembles mais pas pour une famille infinie, puisqu’il ne s’accompagne pas d’une règle permettant de construire l’ensemble de sélection. En d’autres termes, l’axiome du choix est essentiellement non constructif, parce qu’il ne précise pas la fonction de choix qui va de la famille donnée à l’ensemble de sélection. En conséquence, il est irrecevable pour l’intuitionnisme. Il n’est pas facile d’éliminer l’axiome du choix, parce qu’il possède une multiplicité d’équivalents, énumérés en détail par Gregorio Klimovsky VIII. Voilà pourquoi, comme l’avait déjà signalé Beppo Levi au début du siècle, on l’utilise en cachette dans de nombreuses démonstrations. Il s’agit donc d’un postulat très élémentaire de la mathématique “classique”. À tel point qu’il appartient à la théorie standard des ensembles, considérée de nos jours comme faisant partie de la logique au sens large. En laissant de côté l’axiome du choix, l’intuitionnisme se prive d’un outil adaptable, ce qui l’oblige à compliquer énormément les choses. Mais telle est la voie que choisit le puriste: passer seulement par la porte étroite.
De la même manière que pour le réaliste naïf il faut “voir pour croire”, et que pour l’opérationnaliste “être c’est être mesuré”, l’intuitionniste semble affirmer: “il faut calculer effectivement pour croire” et “exister c’est être construit”. Une fois calculé le nombre (ou la fonction), on peut affirmer obstinément – comme l’ont fait quelques empiristes extrémistes – que ce signe manque encore de signification, ou bien qu’il n’est pas un signe intuitivement saisissable, ou bien encore qu’il ne correspond à aucune expérience réelle, bien que les physiciens ne voient pas d’inconvénient à employer des nombres aussi grands que 1080, ou aussi petits que 10-40. La preuve indirecte, dûe à Euclide, de l’existence d’une quantité infinie de nombres premiers, provoquera chez l’intuitionniste une réaction semblable. Puisque cette preuve ne fournit pas une fonction pour le calcul effectif du énième nombre premier, une telle infinité n’existe pas pour lui. Et si nous voulions prouver la conjecture de Goldbach d’après laquelle tout nombre pair est égal à la somme de deux nombres premiers, en disant que la supposition de l’existence d’un nombre pair ne la satisfaisant pas amène à contredire des propositions admises, l’intuitionniste nous demanderait d’effectuer une preuve directe, ou de fournir un contreexemple, en calculant effectivement un nombre pair qui ne satisfasse pas la conjecture de Goldbach. Il en sera de même de la preuve de Cantor, d’après laquelle le continu n’est pas dénombrable. Puisque cette preuve est indirecte, elle ne susciterait pas la sympathie de l’intuitionniste, qui pourra la refuser pour les mêmes raisons que l’opérationnaliste 73. S’agissant des énoncés d’existence de la mathématique, l’intuitionnisme opère d’une manière semblable à celle du physicien. Supposons qu’un physicien veut prouver la proposition suivante: “Il y a des éléments dont le nombre atomique est supérieur à 102 (le nobelium)”. Notre physicien tentera de produire un échantillon d’un transnobélien. Il ne se contentera pas de dire que s’il existait des transnobéliens, alors la théorie nucléaire mènerait à une proposition absurde, puisqu’on sait que cette théorie contient des propositions absurdes. Mais le physicien ne dédaignera pas, dès lors, toute recherche préliminaire explorant la possibilité d’existence d’un tel élément; une telle possibilité consistera en la compatibilité de l’hypothèse avec les lois connues de la nature. En revanche, il pourra tenter d’évaluer la relation entre la force de répulsion des protons et les forces spécifiques d’attraction qui assurent la cohésion de l’hypothétique noyau 103. Ceci permettra de prédire que, si un tel élément existe, alors il
sera probablement très instable, en raison de la prédominance des forces de répulsion sur les forces d’attraction; de cette instabilité, il conclura que l’hypothétique élément aura une existence brève; de ceci, il déduira la nécessité de méthodes de détection très délicates. Sa conclusion, “il existe probablement des transnobéliens”, aura en conséquence une certaine valeur (une valeur heuristique), bien que son contenu informatif sera indubitablement moindre que celui de l’exclamation: “Eurêka! Je viens d’obtenir un échantillon d’un transnobélien !”. L’intuitionniste mathématique a raison d’insister sur l’idée que la preuve d’existence affirme moins, dans la mesure où elle nous fournit moins d’information que la construction effective dans laquelle est réellement exhibé l’objet dont l’existence a été déterminée. Considérons la distance qui existe entre le théorème fondamental de l’algèbre, garantissant l’existence de n racines pour toute équation algébrique de degré n, et les pauvres algorithmes permettant de calculer effectivement ces racines pour n pgrand 4 IX. Un énoncé d’existence ne nous permettant pas d’identifier avec précision ce dont il affirme l’existence est, pour reprendre les termes de Weyl, comme un document décrivant minutieusement un trésor caché sans nous dire où il se trouve 74. Pour sa part, le non-intuitionniste est dans son droit lorsqu’il accorde de la valeur à un pareil document. Il n’est pas nécessaire que toutes les propositions aient un contenu maximum. Les théorèmes d’exis tence, bien qu’ils ne permettent pas d’individualiser les objets dont ils assurent l’existence, permettent en revanche d’effectuer des inférences pouvant conduire éventuellement à des calculs effectifs, fussent-ils approximatifs. Nous savons par exemple qu’une équation algébrique de degré 10 possède 10 racines, bien que nous ne possédions pas d’algorithme général pour les construire. L’énoncé d’existence est nécessaire si nous avons l’intention de réaliser le calcul approximatif de ces solutions, tout comme la description du trésor est nécessaire si nous nous embarquons dans une exploration pour le rechercher. En général, l’inférence de propositions particulières nécessite non seulement des prémisses universelles, mais aussi des propositions existentielles ou particulières. Or, l’intuitionnisme mathématique n’a pas le monopole du constructivisme. Les écoles russe et polonaise de mathématique constructiviste, par exemple, admettent toutes les méthodes de preuve, et leur constructivisme consiste à considérer seulement les objets pour lesquels il y a des méthodes effectives de calcul exact ou approximatif 75.
C’est la raison pour laquelle Heyting distingue, au sein de la mathématique constructiviste, des théories du constructible (par exemple celles des constructivistes polonais) et des théories constructives. Ces dernières ne se contentent pas de la possibilité d’une construction; elles exigent la construction effective des objets mathématiques dont il est question 76. On ne peut pas ne pas se demander si, dans les deux cas, il y a une perspective historique claire sur le caractère relatif de la constructivité. Pour les Grecs, il allait de soi que toute solution acceptable d’un problème géométrique devait être atteinte à l’aide exclusive de la règle et du compas X. L’invention de la géométrie analytique, due à Descartes, rendit démodée cette exigence. La notion même de constructivité a changé: quelles raisons y a-t-il pour supposer qu’elle ne changera pas à nouveau et qu’elle continuera à être un desideratum? En tout état de cause, la prescription constructiviste ne doit pas être caractérisée comme intuitionniste d’un point de vue philosophique. Heyting l’appelle “principe de la positivité” et la formule de la manière suivante: “tout énoncé mathématique ou logique (admis par l’intuitionnisme!) exprime le résultat d’une construction”77. Il s’agit, en réalité, d’une prescription pragmatiste, bien qu’on lui attribue en général une origine kantienne 78. Il est vrai que Kant affirmait que la mathématique est la connaissance rationnelle issue de la “construction de concepts”. Mais ce que Kant entendait par “construction” n’était pas, par exemple, la formation d’un algorithme pour le calcul ou la construction effective d’une expression comme , mais la détermination de l’intuition pure correspondant au concept en question 79. Pour Kant, “construire un concept signifie déterminer l’intuition a priori correspondante”; une telle opération, si elle était possible, relèverait de la psychologie, alors que dans l’optique de l’intuitionnisme mathématique, la construction peut être entièrement logique, à tel point qu’elle peut consister à déduire une contradiction. La recherche des fondements ultimes de tous les concepts mathématiques qui, elle, pour Kant comme pour Brouwer, doit être intuitive, est une question complètement différente. À la différence de Kant, l’intuitionnisme mathématique exigera seulement que les idées élémentaires soient intuitives.
La thèse du constructivisme, sous sa forme intuitionniste stricte, est, au fond, une thèse sémantique de nature opérationniste. Tout compte fait, voici ce qu’elle dit: a) l’énoncé “il y a au moins un x qui a la propriété P” signifie que l’on a montré qu’au moins un x possède la propriété P; b) “tous les x sont P” signifie que, quel que soit l’élément particulier x, nous pouvons prouver (ou plutôt nous avons prouvé), par des méthodes directes, que le dit x est un P. Il s’ensuit que la règle constructiviste est clairement pragmatiste (opérationnaliste) plutôt qu’intuitionniste, puisqu’elle se réduit à la thèse sémantique suivante: «la signification d’une expression est l’ensemble des opérations qui nous permettent de la construire ou de la vérifier” – thèse défendue par Wittgenstein, par le Cercle de Vienne (entre 1925 et 1936) et par Bridgman, autant que par Weyl. En 1926 déjà, en effet, sous une forme complètement indépendante de l’empirisme logique et de l’opérationnalisme, Weyl écrivit: “Lorsque nous affirmons seulement la possibilité d’une construction, il ne s’agit pas d’une proposition significative; ce n’est qu’en vertu d’une construction effective, d’une preuve réalisée, qu’un énoncé existentiel acquiert un sens – comme par exemple Il existe un nombre pair” 80. (Rappelons-nous que, strictement parlant, un énoncé existentiel est, dans un univers de discours infini, une somme logique infinie, donc une opération irréalisable). Lorsque Brouwer affirmait qu’un théorème n’exprime pas une vérité (puisque la vérité n’existe pas en dehors de notre connaissance) mais la réussite d’une construction systématique, ne prenait-il pas une position clairement pragmatiste, même si cette filiation n’a pas été signalée? Et lorsque Heyting affirme qu’ “une proposition mathématique exprime une espérance donnée” 81, n’adopte-t-il pas avant la lettre la sémiotique béhavioriste de Morris ? Les intuitionnistes, les formalistes, les nominalistes et les opérationnistes, en combattant le platonicisme, excluent de la mathématique des entités non constructibles chères à la majorité des mathématiciens. En agissant ainsi, ils peuvent chasser quelques fantasmes, mais en même temps ils démolissent beaucoup de structures belles et utiles. Dans la science, tout comme dans la vie, le progrès implique des risques. Le slogan “la sécurité avant tout”, adopté par l’infaillibilisme, est incompatible avec le desideratum de la fertilité. Rien n’est plus sûr qu’un tombeau.
6)Seul existe l’infini constructif ou potentiel. L’infini actuel ou complet, la collection infinie, considérée comme donnée ou établie, que l’on étudie dans la théorie des ensembles de Cantor, est une illusion: celui-ci n’existe pas puisqu’il n’est pas constructible. Une autre différence technique capitale entre la mathématique intuitionniste et l’optique courante réside dans la conception de l’infini. Il ne faut pas oublier (voir Sources mathématiques et philosophiques ) que l’intuitionnisme mathématique est né en partie comme un effort pour libérer la logique et la mathématique des paradoxes qui avaient été découverts dans la théorie de l’infini au début de notre siècle. Toutefois, l’intuitionnisme mathématique n’a pas le monopole de la contestation de l’infini actuel. Elle a été partagée par des dynamistes comme Hegel et par tous les empiristes, y compris Aristote – dont la gnoséologie était essentiellement empiriste – et Locke; pour ce dernier, l’infini actuel, par opposition à l’infini potentiel, était “inconcevable” et était donc un flatus vocis, et non pas un concept. Hilbert considérait lui aussi l’infini actuel comme “quelque chose de simplement apparent”, que ce soit dans le domaine de l’expérience ou dans celui des mathématiques. Les ingénieurs, qui se contentent toujours d’approximations, devraient saluer l’arrivée gouvernants d’un État américain qui firent inscrire dans la loi que la valeur de π est 3,1 XI. L’historien de la science sait que l’évolution de la connaissance a été, jusqu’à un certain point, une succession de créations initialement considérées comme “inconcevables”, “absurdes” ou même “insensées”. Toute théorie nouvelle et profonde, qu’elle soit vraie ou fausse, peut paraître malsaine. Le théoricien de la connaissance dira que “concevable”, “sain” et autres termes semblables sont des catégories psychologiques et non pas des preuves d’existence ou de vérité, que ce soit en mathématiques ou n’importe où ailleurs. Le mathématicien refusera de mutiler, au nom de l’intuition et de l’esprit constructif, ce monument de la raison et de l’audace humaine nommé théorie des ensembles, devenu la base – peut être pas définitive ni certes la seule possible – de la plus grande partie de la mathématique contemporaine. Le mathématicien préférera plutôt adopter une attitude plus constructive que celle des chefs de file du constructivisme, et il tentera de purifier la théorie de l’infini actuel au lieu de l’éliminer.
2.4. Le tiers-exclu 7) La loi du tiers-exclu doit être mise entre parenthèses (mais pas éliminée). Elle n’est ni une proposition évidente ni une proposition démontrée et, en tant qu’auxiliaire méthodologique, elle est incompatible avec le principe de constructivité ou de positivité (voir Le principe de constructivité ), puisqu’une proposition n’est vraie que si elle a été démontrée constructivement; autrement dit, elle peut être fausse, mais aussi non décidée (momentanément), ou même indécidable. Pour l’intuitionniste, la logique n’est pas un calcul formel mais une méthodologie, une “logique du savoir” (Heyting), qui s’occupe de l’organisation et de la transformation de nos inférences. Dans un système de logique ainsi conçu XII, il ne peut pas y avoir de propositions vraies ou fausses per se, indépendamment de leur processus de validation. Il n’existe dès lors aucune différence entre la vérité et la connaissance de la vérité, de sorte que seules peuvent être traitées comme vraies les propositions intuitives ou démontrées. Pourquoi se préoccuper de propositions qui n’ont pas été objets d’intuition et dont on n’a démontré ni la vérité, ni la fausseté, puisqu’elles n’existent pas? Dans cette logique, les propositions non vérifiées ne sont que des bruits sans signification. Ainsi, pour l’intuitionnisme, il n’y a pas de sens à énoncer quoi que ce soit au sujet de la milliardième décimale de π. Puisqu ’elle n’existe pas au sens intuitionniste (nous ne l’avons pas calculée effectivement), nous ne pouvons pas dire qu’elle est soit paire, soit impaire, première ou composée. De la même manière, l’athée s’abstient de dire que Dieu est ou n’est pas omniscient; un telle alternative est totalement au delà de ce qui l’intéresse. On voit donc que la mise entre parenthèses du “principe” du tiers-exclu est cohérente avec la règle de la constructivité. De cette identification de la vérité soit avec l’intuition, soit avec la démonstration, il s’ensuit qu’en l’absence d’une démonstration effective de “p et non-p”, nous ne pouvons affirmer qu’il y a seulement deux possibilités p et non-p (principe du tiers-exclu); nous ne pouvons même pas déclarer que cette disjonction est fausse. Notons que, contrairement à un malentendu répandu, la loi du tiers-exclu n’est pas refusée dans la logique intuitionniste; au contraire, on montre, avec toute la rigueur voulue, qu’il “est absurde que le principe du tiers-exclu soit absurde”.
La logique intuitionniste n’admet pas, comme l’on croit souvent, une troisième valeur de vérité, mais une troisième catégorie de propositions en plus des propositions vraies et des propositions fausses, celles dont il n’y a pas de sens à dire qu’elles sont vraies ou qu’elles sont fausses. On peut éventuellement démontrer, pour ces énoncés indéterminés, leur vérité, leur fausseté ou leur nature indécidable, à l’aide d’un ensemble prescrit de techniques. L’énoncé “la milliardième décimale de π est paire” n’est pas, pour l’intuitionniste, aussi dépourvu de signification que sa négation. Par contre, pour le non intutionniste, une définition de π au moyen d’une série infinie, comme π=4 (1/1 – 1/3 + 1/5... crée la totalité de ses décimales, même si nous n’avons pas poussé la somme jusqu’au dernier élément nécessaire pour savoir si la milliardième décimale est paire ou impaire. Le mathématicien courant distingue donc la vérité et la connaissance de la vérité, lorsqu’il admet comme allant de soi que la proposition “la milliardième décimale de π est paire” est soit vraie, soit fausse. Prenons un autre exemple. Considérons la constante C de EulerMascheroni 82, dont nous ne savons pas si elle est algébrique (solution d’une quelconque équation algébrique avec des coefficients entiers) ou transcendante (non algébrique). Le mathématicien, qui accepte la logique ordinaire, dira par exemple que “C est algébrique ou transcendante”, admettant ainsi le principe du tiers-exclu. L’intuitionniste, au contraire, affirmera que “C sera algébrique ou sera transcendante, une fois qu’on aura démontré l’un ou l’autre énoncé, et à condition que la preuve soit réalisée avec des méthodes constructives. En attendant, C n’est ni algébrique ni transcendante”. Observons qu’il ne s’agit pas d’un problème byzantin, mais d’un problème authentique et profond qui embrasse la question de la nature des entités idéales (par exemple mathématiques), la théorie de la vérité et le rôle que le temps y joue, ainsi que le statut de la logique. Si on conçoit la logique dans un sens purement méthodologique ou gnoséologique – comme le font les intuitionnistes aussi bien que les matérialistes et les pragmatistes – et si on adopte la redéfinition de “proposition vraie” comme “proposition intuitive ou démontrée”, les intuitionnistes ont raison de suspendre la loi du tiers-exclu à l’égard des théorèmes (mais pas à
l’égard des axiomes, puisque ceux-ci ne sont pas démontrables et peuvent être “intuitifs” au regard du système dans lequel ils figurent). Mais pourquoi écarter la logique formelle au nom de la méthodologie? Quelle justification y a-t-il à identifier les propositions de la forme “A est B” avec les propositions de la forme “nous savons (ou nous pouvons prouver) que “A est B”? Un platonicien dirait qu’il faut distinguer la vérité de sa connaissance; qu’une proposition est vraie ou fausse indépendamment de notre manière de la mettre à l’épreuve et de l’évaluer, tout comme les étoiles existent en elles-mêmes, même si nous ne les voyons pas. L’intuitionniste refuse à juste titre cette thèse platonicienne, puisque les propositions, à la différence des étoiles, sont des productions humaines. Toutefois, l’intuitionniste exagère lorsqu’il exige que nous identifiions la proposition p avec la métaproposition “p est intuitif ou bien démontrable constructivement”. Il y a une solution bien moins radicale, qui n’entraîne pas la nécessité de changer la logique: reconnaître que les propositions non vérifiées ont le droit à l’existence formelle, et nous abstenir de leur assigner une valeur de vérité aussi longtemps que nous ne connaissons pas le résultat du test correspondant 83. Supposons qu’un mathématicien se donne pour but d’évaluer la somme d’une série infinie (voir note XVIII ). Il s’assurera en premier lieu que la somme en question existe; avant même de connaître une vérité particulière, il prouve que celle-ci existe. Dans ce but, il applique certains procédés de décision, les critères de convergence. (Le fait que souvent ces critères ne permettent pas d’aboutir à une conclusion déterminée, est un autre problème). En procédant ainsi, le mathématicien attribue une valeur de vérité à la proposition “la série donnée a une somme finie”. Par la suite, il entreprend le calcul de la somme S encore inconnue. Supposons qu’il ne parvienne pas à le faire exactement; dans un tel cas, il tentera d’obtenir une valeur approximative, par exemple en additionnant n termes. Il formule alors une vérité partielle. La marge de son erreur sera la différence entre S et Sn, c’est-à-dire S – Sn nombre indéterminé qui mesure la “distance” entre une vérité partielle mais perfectible, “la somme de la série est Sn”, et la vérité totale mais inconnue, c’est-à-dire l’énoncé qui exprime la valeur exacte de S. Pour lui, il est légitime d’affirmer qu’en prenant un nombre plus grand de termes, il obtiendra une meilleure approximation de la vérité totale, tout en admettant que celle-ci est hors de portée. Dans toute la mathématique “appliquée” se présentent des situations similaires. Dans tous les cas, le mathématicien
croit qu’il y a une proposition vraie, c’est-à-dire une proposition se référant à une valeur exacte qu’il ne peut pas obtenir. Tout au moins admettra-t-il que cet énoncé vrai est possible, quoiqu’il ne soit pas en mesure de le formuler. De cette manière il reconnaît, pour ainsi dire, une vérité potentielle, celle-ci n’étant connaissable qu’approximativement. Même si nous ne savons pas que A est B, même si nous sommes incapables de démontrer que A est B (ou que A n’est pas B), nous sommes en droit d’essayer l’hypothèse “A est B” en la traitant comme si elle était vraie (ou fausse). Il s’agit d’un présupposé de la méthode hypothético-déductive propre à la science. La fertilité et le charme de la recherche scientifique résident précisément dans la démarche incessante consistant à conjecturer des hypothèses et à rechercher leurs conséquences logiques (voir Imagination créatrice, chap. III). Que resterait-il à la science si on lui interdisait mille fois par jour de formuler des hypothèses de la forme “supposons que A est B”? Toute tentative d’exclure de pareilles démarches est incompatible avec l’esprit de recherche scientifique et avec la définition même de la théorie en tant que système hypothético-déductif. La logique formelle permet l’exploration des conséquences d’hypothèses bien formées, aussi étranges que celles-ci puissent paraître. En dernière analyse, c’est une telle exploration qui nous permet de connaître, même si la connaissance ainsi atteinte peut ne pas être définitive. Il est dangereux d’amputer une discipline, en l’occurrence la logique strictement bivalente, au nom du credo infaillibiliste. C’est ce credo, et rien d’autre, qui pousse les intuitionnistes à vouloir remplacer la logique formelle par une logique de la connaissance fondée sur la théorie de la connaissance (comme si cette dernière pouvait être conçue en dehors de la logique). En réalité, comme le dit Heyting, “dans les applications de la logique, il s’agit toujours de ce que nous savons et des conclusions que nous pouvons extraire de ce que nous savons”84. Mais ce que nous affirmons hypothétiquement ou ce dont nous supposons la connaissance certaine n’est-t-il pas plus important aussi bien qualitativement que quantitativement? Pour mener n’importe quelle recherche scientifique, il est indispensable de considérer toutes les propositions qui ont un sens dans un contexte donné comme si elles étaient capables de recevoir sans équivoque les valeurs V ou F. Toutefois, strictement parlant, nous présumons – au moins dans la science factuelle
– que nous pouvons atteindre seulement des vérités approximatives, de sorte qu’en fin de compte, tout ce que nous “savons” peut s’avérer faux. Reconnaissons franchement que les chercheurs adoptent de manière tacite une théorie dualiste de la vérité, d’après laquelle on assigne à une proposition factuelle un degré d’adéquation (vérité factuelle) se situant entre la vérité et la fausseté extrêmes, et une valeur de vérité logique (V ou F) selon que l’on considère la proposition comme décrivant exactement la réalité ou comme étant une prémisse ou une conclusion d’une inférence logique. Une telle théorie dualiste de la vérité devrait rester fidèle à la logique ordinaire – comme le font les chercheurs – mais serait tenue d’élucider la notion de vérité partielle 85. La recherche scientifique est exploratoire, et la logique ordinaire attribue à l’exploration une liberté plus grande que la logique intuitionniste. Après tout, la liberté d’explorer est aussi vitale pour les mathématiciens que pour les géographes. Néanmoins, la proposition kantienne et brouwerienne considérant la vérité des propositions mathématiques comme le résultat d’opérations intellectuelles, et non comme une propriété que celles-ci possèdent ou ne possèdent pas même en l’absence de tout procédé de vérification, doit être admise comme plus sensée que l’attitude platonicienne adoptée par le logicisme et par la majeure partie des mathématiciens. Mais nous ne sommes pas contraints de choisir entre la solution kantienne, au fond quelque peu empiriste, et la proposition logiciste, qui est idéaliste; elles n’épuisent pas à elles deux toutes les possibilités. En réalité, toute proposition peut être considérée de différents points de vue complémentaires, parmi lesquels les points de vue logique, gnoséologique et psychologique sont particulièrement intéressants. Si nous écrivons “p”, nous nous limitons au premier d’entre eux; si nous écrivons “p étant affirmée” ou “p étant démontrée” ou “p étant refusée”, nous pénétrons dans le champ méthodologique. L’énoncé d’une proposition dit quelque chose sur la valeur de vérité que nous lui assignons, soit “pour de bon” soit à titre d’essai (dans le but d’explorer ses conséquences). Si nous écrivons finalement “je ne crois pas que p” ou “j’estime que p est vraisemblable” ou “x affirme que p”, nous nous transférons vers le champ de la psychologie de la connaissance. Pourquoi réduirions-nous l’étude des propositions à leurs aspects méthodologiques ou psychologiques? Si nous affirmons sérieusement que les objets mathématiques doivent être considérés seulement comme des objets de
pensée, alors nous devons conclure que la mathématique est une branche de la psychologie, et nous devons admettre des théories mathématiques anormales tout comme nous admettons qu’il y a des pensées pathologiques. Àla décharge de l’intuitionnisme mathématique, on doit dire que la démonstration par Gödel, en 1931, du fait qu’il y a dans tout système formel des propositions dont on peut démontrer qu’elles sont indécidables, ne constitue pas une catastrophe pour l’intuitionnisme comme elle l’a été pour le formalisme. Cette découverte a amené à conclure que l’alternative “p est vraie ou fausse” n’est soutenable àl’intérieur d’aucun système formel, puisqu’il y a des propositions vraies mais indécidables. Autrement dit, ces propositions sont reconnues d’une certaine manière comme vraies, mais elles ne peuvent être démontrées que par des moyens d’une puissance supérieure à ceux admis par le système considéré. Quoi qu’il en soit, il ne faut pas oublier que l’indécidabilité, c’est-à-dire l’impossibilité d’inférence formelle, n’est pas une propriété intrinsèque mais contextuelle. La question de la décidabilité est toujours relative à la possibilité de décider de la valeur de vérité d’une proposition sur la base d’axiomes donnés et de règles d’inférence finies données. Si l’on élargit le système d’axiomes ou les règles d’inférence, on peut obtenir éventuellement la disjonction exclusive et exhaustive “p est vraie ou fausse”. On n’a pas démontré en conséquence la fausseté de la thèse optimiste de Hilbert: “tout problème est soluble”. Nous ne pouvons pas affirmer avec certitude qu’il y a des problèmes dont la solution est essentiellement ou intrinsèquement impossible, c’est-à-dire qui ne se laissent aborder par aucune méthode existante ou concevable. Il est toutefois plus prudent et fructueux de dire qu’il y a des problèmes non résolus, ou des théorèmes non inférés formellement, mais ceci est trivial. Interprétés sous cette forme, les résultats de Gödel ne renforcent ni l’intuitionnisme ni l’irrationalisme. La découverte de l’existence de propositions formellement indécidables restreint, en ce qui concerne la vérité reconnue par des moyens rigoureux (formels), le champ de la dichotomie vrai-faux. Mais certaines propositions, celles de l’arithmétique élémentaire par exemple, peuvent être considérées comme vraies d’une manière informelle ou semi-
rigoureuse, même si on ne peut pas trancher formellement. Nous pourrions dire qu’elles sont reconnues “intuitivement”comme vraies. Mais cette intuition n’a rien à voir avec l’Urintuition de la bi-unité; elle n’a pas non plus un quelconque rapport avec les intuitions des philosophes. Dans ce contexte, “intuitif” signifie “informel” ou semiaxiomatique, ou peut-être pre-axiomatique; il est synonyme de “naïf”, au sens où on utilise ce terme dans des expressions telles que “théorie naïve (intuitive) des ensembles”, par opposition à “théorie axiomatique des ensembles”. En conséquence, on peut interpréter de la manière triviale suivante le travail de Gödel sur les énoncés arithmétiques formellement indécidables: “plus les techniques de preuve sont restrictives, plus maigres sont les possibilités de preuve”. Comme le signalent Nagel et Newman, “la preuve de Gödel ne doit pas être interprétée comme une invitation au désespoir ou comme une excuse pour des marchands de mystères. La découverte de l’existence de vérités arithmétiques ne pouvant pas être formellement démontrées ne signifie pas qu’il y ait des vérités éternelles inaccessibles, ou qu’une intuition “mystique” (radicalement différente par sa nature et son impact de ce qui agit généralement dans le progrès intellectuel) doive remplacer la preuve convaincante” 86. Tout compte fait, les philosophes intuitionnistes n’avaient aucune raison de se réjouir du premier théorème d’incomplétude de Gödel. En premier lieu parce que ce théorème, qui n’est pas du tout intuitif, est un triomphe de la raison. En second lieu parce qu’il ne limite pas la portée de la raison, mais seulement celle des systèmes axiomatiques, y compris de l’arithmétique; en effet, le théorème de Gödel prouve seulement qu’il existe des vérités mathématiques non intégrables dans ces systèmes. Le mathématicien intuitionniste ne peut pas non plus tirer parti de l’échec partiel du programme formaliste consistant à doter la mathématique d’une certitude définitive, au moyen de la méthode axiomatique et des procédés finitistes. L’existence de propositions vraies, formellement indécidables, ne prouve ni l’existence de l’intuition pure ni la nécessité d’adopter une logique basée dans la théorie de la connaissance. Ce que l’intuitionniste est en droit d’exiger, par contre, c’est que, outre la logique formelle, soit développée une “logique” méthodologique éclairant et formalisant les expressions pragmatistes “p est démontrable”, “p est indécidable”, “p est réfutable”, “p est vraisemblable”, “p est corroborée” et autres, qui
apparaissent lorsqu’il est question d’hypothèses scientifiques. On peut affirmer que les intuitionnistes, en vertu de leur attitude aposterioriste en logique – qui contraste avec leur apriorisme en mathématique – sont mieux préparés pour affronter cette tâche que les formalistes et les logicistes. Ces derniers s’intéressent d’avantage à la reconstitution et à l’extension du matériel existant qu’à de nouveaux points de départ ou aux procédés eux-mêmes. 2.5. Intuitionnisme mathématique et intuitionnisme philosophique Il est indubitable qu’il existe d’autres principes de l’intuitionnisme mathématique. Mais ils sont soit subsidiaires par rapport à ceux que nous avons déjà examinés, soit très clairement inadéquats. Parmi les sept principes que nous avons analysés, un seul – le quatrième, relatif à l’origine intuitive supposée des notions les plus sûres – est strictement intuitionniste au sens philosophique du terme. Les autres principes sont partagés par de nombreux mathématiciens, logiciens et philosophes qui appartiennent à d’autres écoles ou à aucune. Ceci est particulièrement vrai en ce qui concerne la conception intuitionniste de la recherche mathématique. Ceux qui ont pratiqué quelque peu la mathématique admettront que sa dynamique est constructive, que le mathématicien n’appréhende pas des idées platoniciennes préexistantes et que l’axiomatique est presque toujours une reconstruction a posteriori 87. Hilbert, le champion de l’axiomatique, admet volontiers “la grande valeur pédagogique et heuristique de la méthode génétique”“ 88. Mais il souligne que la méthode axiomatique est préférable parce qu’elle fournit une “présentation définitive de notre connaissance et une complète sécurité logique”. (S’il avait vécu quelques années de plus il aurait supprimé l’épithète “définitive”, et il aurait remplacé “complète” par “maximale”). Le bourbakiste Dieudonné concède que le raisonnement axiomatique suit en général le raisonnement intuitif, caractéristique des périodes d’expansion, “jusqu’à la révolution suivante, provoquée par une nouvelle idée”89. L’adoption de la méthode axiomatique a cessé d’être une caractéristique particulière du formalisme et du logicisme; elle s’est tellement répandue que les mathématiciens intuitonnistes l’emploient eux-mêmes. Les
différences qui existent entre ces derniers et les non intuitionnistes, en ce qui concerne l’utilisation de la méthode axiomatique, semblent se réduire de nos jours aux points suivants: a) les intuitionnistes affirment, à juste titre, qu’aucun système formalisé n’épuise une théorie, parce qu’il reste toujours un résidu d’ambiguïté dans l’interprétation des signes 90; et aussi – ajouterons-nous – parce que toute thèse possède un certain nombre de présupposés qui ne peuvent pas tous être mis en lumière, car il arrive souvent que nous ne les percevions pas; b) les intuitionnistes, à juste titre encore, ne croient pas que l’axiomatisation soit une garantie logique définitive. Et même la formalisation, qui ajoute, à l’énoncé explicite des postulats et à l’énumération de concepts primitifs, les règles de formation, de transformation et de désignation, est loin de produire une cristallisation finale. L’évaluation intuitionniste de la méthode axiomatique semble être plus réaliste que l’appréciation formaliste, puisque la formalisation complète, comme l’a prouvé Gödel, ne fournit pas une validation définitive. Par contre, les intuitionnistes font fausse route en recherchant la sécurité dans “l’intuition pure”, puisque il n’y a pas d’intuition pure, ni de sécurité complète. S’agissant du constructivisme, on doit prendre en compte que les formalistes et les logicistes sont constructivistes, certes chacun à leur manière. Les formalistes sont constructivistes dans la mesure où ils tentent de restreindre les fondements des systèmes formels à un nombre fini de termes et de procédés de démonstration finitistes (la célèbre finite Einstellung de Hilbert). Les logicistes sont constructivistes dans la mesure où ils refusent d’admettre l’introduction, à travers des postulats, de nouvelles entités mathématiques. Ils refusent d’admettre la définition contextuelle de termes mathématiques primitifs, et tentent de les reconstruire par des moyens purement logiques (par exemple à l’aide des seuls prédicats de la théorie des ensembles, comme “appartient à” ou “est inclus dans”). La différence principale entre le constructivisme intuitionniste et le constructivisme non intuitionniste consiste en ceci que le premier n’essaye pas de reconstruire la mathématique avec des unités logiques (ou de “réduire” la mathématique à la logique comme on le dit incorrectement). Une autre différence réside en ceci que les intuitionnistes n’admettent pas des expressions comme “pour toute propriété”- qui apparaît, par exemple, dans l’énoncé du principe d’induction mathématique 91. En ce sens, le constructivisme intuitionniste est moins
audacieux que le constructivisme formaliste et celui-ci moins audacieux que le logicisme. Il est aussi plus naïf que ce dernier, parce qu’il admet l’existence de “notions immédiates” ou de concepts intuitifs qui n’exigent pas de précision. Néanmoins, les mathématiciens et les métamathématiciens ne se sont pas retranchés dans les limites du constructivisme finitiste de Hilbert et de Brouwer. Ainsi, le procédé d’insertion d’intervalles, si souvent utilisé dans la théorie des ensembles et dans l’analyse, implique une quantité infinie d’étapes. Le théorème de Bolzano-Weierstrass ( “tout ensemble infini borné possède au moins un point d’accumulation”), que l’on a appelé “le pilier qui soutient toute l’analyse”92, est prouvé au moyen de ce procédé. En outre, on a conçu des moyens d’inférence transfinie permettant de démontrer de nouveaux théorèmes, et de prouver de nouvelles propositions qui étaient indécidables par des méthodes plus faibles, finitistes (voir Le tiers-exclu ). À l’aide d’instruments plus puissants, on peut valider de nos jours des énoncés élémentaires de l’arithmétique qui n’étaient justifiables, autrefois, que d’une manière semi-rigoureuse; ceci constitue une inversion complète de l’idéal des intuitionnistes et des formalistes d’atteindre le complexe et le non intuitif à travers le simple et l’intuitif. Comme cela arrive souvent, la vie déborde les barrages érigés par les écoles. 3.
Les pour et les contre
Que reste-il de l’hérésie intuitionniste? Notre évaluation de ce mouvement, conservateur par certains aspects, révolutionnaire par d’autres, mène aux conclusion suivantes: 1) La métaphysique intuitionniste, issue de la philosophie de Kant, est obscure et sans pertinence à l’égard de la mathématique. En particulier, “l’intuition élémentaire de la bi-unité, ou de la succession des entiers naturels, n’est pas une intuition; si elle l’était, l’homme aurait construit l’arithmétique des milliers d’années plus tôt. Même s’il s’agissait d’une intuition et pas d’une construction logique laborieuse, éventuellement inachevée, ce serait là un thème relevant de la psychologie de la mathématique et non de la mathématique pure.
2) La logique et la mathématique intuitionnistes sont souvent contreintuitives. Elles sont si subtiles et compliquées, et elles exigent des artifices tellement ingénieux, que ceux qui les dominent sont très peu nombreux; et c’est là l’une des raisons pour lesquelles elles ne trouvent pas d’application. “Elles sont si compliquées, a t-on affirmé, qu’elles manquent complètement d’utilité” 93. Ainsi, par exemple, le calcul propositionnel intuitionniste possède quatre opérations élémentaires, au lieu de deux, et onze postulats au lieu des quatre postulats usuels; de plus, il interdit la simplification de la double négation, puisque l’énoncé “il est absurde que p soit absurde” n’est pas équivalent à “p est vrai”. (Par contre, “il est faux que p soit faux” est équivalent à “p est vrai”). La théorie intuitionniste des ensembles remplace le prédicat “est dénombrable” par six prédicats différents, dont chacun porte un nom hollandais pratiquement intraduisible. Il est peut-être vrai que cette théorie est plus analytique que la théorie conventionnelle des ensembles; mais alors, pourquoi l’appeler “intuitive”? Dans l’arithmétique ordinaire, si a et b sont des nombres réels et ab =0, il s’ensuit que a =0 ou b =0; dans l’arithmétique intuitionniste, cette proposition ne peut pas être prouvée avant que ne soit démontré que a =0 ou b =0 XIII. Dans la logique et la mathématique ordinaires, chaque fois que nous nous trouvons devant un problème sans disposer d’un ensemble suffisant de prémisses, nous pouvons tenter d’appliquer la méthode de la preuve indirecte, parce que nous pouvons introduire la négation de la conclusion comme une prémisse supplémentaire 94; mais le constructivisme intuitionniste nous interdit de le faire. Quel physicien ou quel physiologiste serait disposé à accepter une logique et une mathématique si faibles et non intuitives? Il existe en outre, parmi les intuitionnistes eux-mêmes, des divergences concernant la clarté de notions importantes comme celles de négation et de contradiction, qui ne sont pas acceptées sans contestation. Le modus tollens (si p, alors q; or non-q; d’où non-p) ne peut pas apparaître dans une pareille logique, de sorte qu’il ne peut pas être utilisé pour réfuter des hypothèses au moyen de contre-exemples. 3) La logique et la mathématique intuitionnistes dépendent de la logique et de la mathématique “classiques”. Elles ne sont pas en effet des contributions totalement neuves mais plutôt des reconstructions du matériel disponible. Si “pour pouvoir construire une branche déterminée de la mathématique intuitionniste, il faut, en premier lieu, posséder une connaissance adéquate de la branche correspondante de la mathématique
classique”95, comme l’admet en toute honnêteté Heyting alors l’ “intuition élémentaire” ne peut pas être aussi féconde qu’on le proclame. 4) Les exigences intuitionnistes mutilent une partie importante de la mathématique moderne, en particulier la théorie de l’infini et la théorie des fonctions réelles. La plus grande partie des résultats de la mathématique intuitionniste est contenue dans la mathématique ordinaire. La méthodologie intuitionniste restreint de manière drastique la liberté de la création mathématique (la différence est notable par rapport à l’affirmation célèbre de Cantor: “l’essence de la mathématique réside dans sa liberté”). De la même manière, sa contrepartie dans la philosophie de la physique – l’opérationnalisme – nous obligerait à nous passer des théories physiques les plus profondes, les plus fertiles et les plus intéressantes, puisque aucune d’entre elles ne peut être réduite à un ensemble de concepts “définis” opérationnellement. Paradoxalement, l’intuitionnisme condamne – car il les juge dépourvus de signification ou indémontrables, ou même faux – un grand nombre d’énoncés considérés comme “intuitifs” par le mathématicien ordinaire, par exemple “tout ensemble est fini ou infini”, “tout nombre réel est positif, négatif ou nul” et “toute fonction continue sur un intervalle fermé possède au moins un maximum”. Parce qu’il exclut une grande quantité de théorèmes qui sont en général considérés comme “intuitifs”, l’intuitionnisme mathématique se détruit lui-même. 5) La logique intuitionniste n’est applicable qu’à la mathématique intuitionniste. La logique intuitionniste ne peut pas s’appliquer à la science factuelle, puisqu’elle refuse la possibilité d’affirmer des propositions strictement universelles sauf si elles sont démontrées de façon concluante, ce qui est impossible. En réalité, en logique intuitionniste, l’énoncé: “nous affirmons que pour tout x, x possède la propriété P” signifie que P(x) est vrai pour toute entité x de l’univers considéré. En conséquence, en vertu du principe de constructivité, nous disposons d’une méthode pour prouver que, si on choisit une entité arbitraire a de cet univers ( “espèce”), a possède la propriété P 96. Mais ceci est impossible dans les cas intéressants où il s’agit de classes ouvertes. En outre, les énoncés prédictifs devraient être exclus de la science si nous nous soumettions aux principes de l’intuitionnisme, puisque seuls les événements futurs peuvent rendre vraie ou fausse une prédiction. On ne
pourrait cependant pas considérer les sciences naturelles et sociales comme des sciences, si elles ne donnaient pas lieu à des prédictions, dont l’obtention nous obligeait à assigner une valeur de vérité potentielle aux énoncés prédictifs. Si nous voulons formuler des prédictions, nous sommes contraints de les traiter comme si elles étaient susceptibles de s’avérer vraies ou fausses, mais l’intuitionnisme interdit cette attitude et nous contraint à nous abstenir de formuler des affirmations non prouvées. En conséquence, les chercheurs emploient dans ces domaines la logique non intuitionniste; ce qui ne veut pas dire qu’ils en soient complètement satisfaits. 6) Les restrictions intuitionnistes ont été fertiles dans une autre direction: elles ont stimulé la recherche de démonstrations nouvelles et directes de théorèmes mathématiques déjà connus, ainsi que la reconstruction de concepts inventés antérieurement (par exemple, les nombres réels). À cet égard, la contribution la plus spectaculaire de ces derniers temps a été celle de Bishop 97, qui parvient à “constructiviser” à lui seul une bonne partie de l’analyse “classique”. Malgré cela, certains théorèmes standards de cette dernière restent en dehors de l’analyse constructive. Parmi eux, notamment, un théorème sans doute intuitif et d’application quotidienne en physique: “Toute fonction continue qui possède une valeur négative et une autre positive sur un intervalle donné s’annule au moins en un point de celui-ci”. Ce théorème n’est pas admis par les intuitionnistes parce qu’il ne s’accompagne pas d’un algorithme permettant de calculer le point précis où s’annule cette fonction. (Un tel algorithme existe mais relève du calcul numérique). En définitive, bien que la mathématique intuitionniste ait beaucoup progressé depuis Brouwer et Heyting, elle n’est pas encore parvenue à “constructiviser” la totalité de la mathématique “classique”. Les nouvelles démonstrations sont toujours les bienvenues, spécialement si elles mettent en relief de nouvelles connexions; et les nouveaux procédés pour la formation de concepts sont aussi les bienvenus, spécialement s’ils contribuent à les éclairer. Mais les contributions intuitionnistes ne compensent pas le corps théorique imposant que l’intuitionnisme nous demande de sacrifier. 7) La logique et la philosophie de la logique intuitionnistes contiennent des nouveautés positives. Les intuitionnistes, Heyting en particulier, ont
surtout réalisé un effort réel pour construire une “logique” gnoséologique capable de reproduire la démarche réelle de la recherche scientifique. Les faiblesses des résultats obtenus ne doivent pas être retournées contre la tentative elle-même. En deuxième lieu, cette logique possède une interprétation intéressante en tant que calcul de problèmes 98. Dans ce modèle, dû à Kolmogoroff (1932), la conditionnelle “si p alors q” s’interprète ainsi: une solution du problème p étant donnée, il est demandé une solution du problème q. On doit souligner l’importance de la logique de problèmes puisque, après tout, toute tâche scientifique commence par un problème et conclut souvent en en posant d’autres. Tarski a proposé une autre interprétation de la logique intutitionniste et a établi un isomorphisme entre le calcul propositionnel intuitionniste et la topologie 99. Tout ceci prouve que la logique intuitionniste est un système cohérent et riche, mais qui ne constitue pas la syntaxe correcte du discours. En troisième lieu, les logiques intuitionnistes ont eu le courage de poser à nouveau le problème épineux du fondement de notre choix entre des normes d’inférence, problème qui pourrait très bien ne pas avoir de solution définitive, puisqu’il n’est pas strictement logique mais aussi empirique. L’expérience seule, y compris l’expérience du travail mathématique, peut dicter des raisons d’adopter telle ou telle norme d’inférence, tel ou tel procédé de preuve et, de manière générale, tel ou tel système de logique. Les théories logiques sont formelles, mais le choix entre elles dépend non seulement de considérations logiques, mais aussi de l’expérience et de notre conception du monde. 8) La psychologie de l’invention mathématique, que défend l’intuitionnisme, est plus réaliste que la théorie ludique ou conventionnaliste parce qu’elle reconnaît que l’invention mathématique est un processus intellectuel, parce qu’elle est une conception dynamique et non statique 100; et parce qu’elle insiste sur l’importance des éléments non déductifs et non formels dans le travail mathématique. Mais ces idées ne sont pas le monopole de l’intuitionnisme: elles ont été défendues par les évolutionnistes et les matérialistes 101, par les pragmatistes 102 et par de nombreux mathématiciens isolés, avant et après Brouwer 103. En outre, l’intuitionnisme n’est pas suffisamment historiciste. Il considère comme allant de soi que l’intuition est invariable et universelle, à tel point que “les concepts d’entité abstraite et de succession de telles entités sont
clairs pour tout être humain normal, même pour les enfants en bas âge”, 104 affirmation que contesteront sans doute les psychologues (Piaget en particulier) et les anthropologues. Freudenthal demande à juste titre “qui doit décider de ce qui est intuitif: un sauvage ou un bébé, qui n’ont pas encore subi l’influence de notre civilisation géométrique, ou bien l’individu moyen, dont l’espace intuitif a été modelé par nos rues rectilignes, entourées de murs parallèles, et par l’expérience de toutes ces productions de la technique, qui lui suggèrent la validité des axiomes euclidiens?” 105 Nous voyons donc que l’intuitionnisme mathématique comporte des éléments positifs et négatifs. Les éléments positifs ou réalistes se réfèrent à la logique et à la psychologie de la mathématique; les éléments négatifs, aprioristes et limitatifs se réfèrent aux “fondements” et méthodes de la mathématique. L’intuitionnisme mathématique doit peu à l’intuitionnisme philosophique et ce peu, en tout état de cause, ne relève que de l’intuitionnisme de Kant et non de l’intuitionnisme anti-intellectualiste de nombreux romantiques et postromantiques, même si Weyl et Heyting s’appuyèrent occasionnellement sur des citations de Husserl. En outre, les points de contact de l’intuitionnisme mathématique avec l’intuitionnisme philosophique sont précisément ceux que la plupart des mathématiciens n’admettent pas. Le mathématicien courant qui s’occuperait de philosophie de la mathématique n’en viendrait pas à adhérer à l’intuitionnisme par ce que celui-ci cherche un fondement ou une justification a priori, ou parce qu’il défend une obscure “intuition élémentaire” comme la source de la création mathématique, ou parce qu’il affirme qu’un tel fondement intuitif est seul garantie de certitude. L’intuitionnisme logique et l’intuitionnisme mathématique sont appréciables dans une certaine mesure, malgré leurs aspects dogmatiques, parce qu’ils ont contribué, certes dans une moindre mesure que les travaux de Gödel, à désintégrer d’autres dogmes, notamment le formalisme et le logicisme. Àl’heure actuelle, aucun de ceux qui traitent de ce que l’on appelle les fondements de la mathématique et de la logique n’a le droit d’adopter le ton assuré, triomphal et définitif des formalistes et des logicistes du début du siècle, qui croyaient avoir édifié des “fondements” infaillibles et donc définitifs. Les théories mathématiques sont des systèmes hypothético-
déductifs. Elles ne partent pas de certitudes mais de suppositions, c’est-àdire d’énoncés susceptibles d’être corrigés ou tout au moins reformulés ou réorganisés dans un but de cohérence, de profondeur et de fécondité. Les propositions que l’on tient pour élémentaires dans une systématisation donnée ne constituent pas des hypothèses irrévocables mais des hypothèses provisoires, presque au même titre que dans la science factuelle. Le temps des fondements immuables, parfaits et sûrs est révolu. La mathématique ne manque pas de fondements, mais ceux-ci sont changeants; d’ailleurs, la plupart des théories mathématiques sont tellement éloignées de leurs fondements qu’elles changent peu, ou pas du tout, lorsque ceux-ci sont modifiés. (Par exemple, la dérivée du sinus reste le cosinus, que l ‘on adopte le point de vue des ensembles, celui des catégories, ou celui de la mathématique intuitionniste). Les théories, qu’elles soient formelles ou factuelles, ne sont pas comme des bâtiments qui s’effondrent lorsqu’on touche à leurs fondations, mais comme des organismes en évolution, dont les parties sont périssables et se contrôlent mutuellement. L’intuitionnisme mathématique a donc eu le mérite de toute nouvelle orthodoxie, celui d’éveiller la méfiance à l’égard des orthodoxies anciennes. Un autre motif pour lequel les intuitionnistes sont appréciés est leur attitude expérimentatrice ou investigatrice à l’égard des règles de la logique et du problème de la vérité. Et cette attitude expérimentatrice, aussi bien que l’opposition à des dogmes qui pourraient paraître inamovibles, ne sont pas précisément caractéristiques de l’intuitionnisme philosophique, mais rapprochent au contraire l’intuitionnisme logique de l’intuitionnisme mathématique, du matérialisme, de l’empirisme et du pragmatisme. En conséquence, le nom adopté par l’école de Brouwer s’avère en grande partie inapproprié 106.
CHAPITRE III L’INTUITION DES SCIENTIFIQUES 1. Types d’intuition 1.1. Un mythe concernant la méthode De nombreux philosophes entretiennent le mythe tenace selon lequel les scientifiques utilisent deux méthodes identifiables et standardisées leur permettant d’aborder tout problème de connaissance. Ces méthodes seraient les procédés déductif et inductif, sensés permettre aux scientifiques de se passer du tâtonnement, du pressentiment et probablement aussi du talent (du moins est-ce ce que croyait Bacon en proposant ses règles). D’après ce mythe, le mathématicien n’aurait besoin que de “déduire des conclusions nécessaires à partir de prémisses claires”; il n’existe toutefois pas de méthode permettant d’obtenir de telles prémisses 107. Et le physicien – si nous devons croire à la religion de la méthode – devrait seulement résumer en des généralisations inductives les résultats de ses observations; toutefois, on ne nous dit pas pourquoi il effectue de telles observations, ni comment il s’y prend pour les planifier et en interpréter les résultats 108. Il y a peu de choses aussi ridicules et ineptes que cette caricature du travail scientifique. Quiconque a jamais travaillé en science sait que le chercheur, qu’il soit mathématicien, physicien, naturaliste ou sociologue, utilise tous les mécanismes psychiques et n’est capable ni de les contrôler ni de déterminer, dans chaque cas, lequel est intervenu. Dans tout travail scientifique depuis la recherche et la formulation du problème jusqu’au contrôle de la solution, et depuis l’invention des idées directrices jusqu’à son élaboration déductive, interviennent: la perception (de choses, d’événements et de signes); l’imagination ou représentation visuelle; la formation de concepts de divers degrés d’abstraction; la comparaison, qui pousse à établir des analogies; la généralisation inductive, ou encore la
conjecture insensée; la déduction, aussi bien formelle qu’informelle; l’analyse grossière et élaborée, ainsi que probablement beaucoup d’autres manières de former, de combiner et de refuser des idées car, disons-le en passant, la science est faite d’idées et non pas de faits. Quand nous ne savons pas exactement quels sont, parmi ces mécanismes, ceux qui sont intervenus, quand nous ne nous rappelons pas des prémisses et que nous n’avons pas claire conscience des processus d’inférence, ou bien lorsque nous n’avons pas été assez rigoureux et systématiques, alors nous avons l’habitude de dire que tout a été l’œuvre de l’intuition. L’intuition est le fourre-tout où nous mettons l’ensemble des mécanismes intellectuels que nous ne savons pas analyser ou nommer avec précision (ou simplement qui ne nous intéressent pas). Voici une énumération des sens du terme “intuition” que l’on rencontre plus fréquemment dans la littérature scientifique contemporaine: perception rapide, imagination, raisonnement abrégé et bon sens 109. Analysons-les. 1.2. L’intuition comme perception 1)
Identification rapide d’une chose, d’un événement ou d’un signe.
Il est clair que l’appréhension d’un objet physique, c’est-à-dire l’intuition sensible, dépend de l’acuité sensorielle du sujet, de sa mémoire, de son intelligence, de son expérimentation (au microscope, le chercheur voit des choses qui échappent au profane) et de son information. De manière générale, nous ne percevons que ce à quoi nous sommes préparés. Il n’y a rien de mieux que de croire pour voir. Les personnes obtuses ou inexpérimentées, ou simplement bêtes, ne sont pas de bons observateurs; leurs intuitions sensibles sont inexactes; leur pouvoir de discrimination ou, ce qui est la même chose, d’identification, est mince. Remarquons la limitation de l’intuition sensible: elle nous apporte ce qu’en allemand on appelle Kennen 110, et ce que Russell appelle connaissance par familiarité (knowledge by acquaintance) 111, c’est-àdire des appréhensions directes et inarticulées d’objets particuliers et concrets. L’intuition sensible n’est qu’une matière première pour l’Erkennen ou connaissance par description ou connaissance explicite (par opposition à tacite). L’intuition sensible est donc pré-scientifique;
elle se manifeste dans le travail scientifique, mais pas dans la science comme produit de ce travail. La connaissance scientifique ne consiste pas dans la perception mais dans l’élaboration et le dépassement de la perception. 2) Compréhension claire de la signification ou des rapports mutuels d’un ensemble de signes (par exemple un texte ou un diagramme). C’est en ce sens que nous disons d’un auteur que ses descriptions et ses explications sont intuitives ou intuitivement claires: ses idées sont exposées avec des termes simples et familiers pour nous, ou bien il fait appel à des exemples et métaphores qui sollicitent notre mémoire et stimulent notre imagination. De la même manière, nous disons que nous comprenons intuitivement une chaîne déductive dans son ensemble, même lorsqu’un maillon nous échappe. Qui plus est, un raisonnement nous semble manquer de “force démonstrative” du point de vue psychologique s’il est trop long ou complexe; c’est le cas, par exemple, lorsque le raisonnement s’interrompt ici et là pour démontrer de nombreuses propositions auxiliaires (lemmes), ou quand l’analyse logique a été poussée trop loin par rapport à nos besoins du moment. Bien entendu, la compréhension claire d’un ensemble de symboles dépendra non seulement de ces symboles eux-mêmes – qui peuvent nous paraître déplaisants ou inconfortables comme les caractères gothiques, ou limpides et suggestifs comme les lettres latines – mais aussi et surtout de notre capacité et de notre entraînement préalables. Le débutant peut “avoir l’intuition” de certains objets, mais l’initié saisira en plus des rapports et des complexités qui échappent au néophyte. Puisque la caractéristique du point de vue formel de la mathématique et de la logique est l’insistance sur les relations ou les structures, et non sur les termes ou les entités interconnectés, on peut dire que le spécialiste des structures abstraites, par exemple des groupes, développe une intuition pour leur maniement, ce qui revient à dire, en termes moins savants, qu’il se familiarise avec ces structures. Observons que ce qui est psychologiquement évident peut ne pas être logiquement immédiat. Il y a des théorèmes très “évidents” dont la formulation peut être comprise par un lycéen, mais qui sont très difficiles à démontrer; par exemple, beaucoup de théorèmes de la théorie des nombres et, dans divers systèmes logiques, la formule très intuitive “si P alors P”. De même, certaines relations sont “évidentes” (c’est-à-dire
psychologiquement simples) et, malgré cela, difficiles à analyser, comme par exemple, la relation de simultanéité. Pour cette raison, il n’y pas de plus mauvais piège que les expressions innocentes du type: “naturellement”, “évidemment”, “on voit aisément que” et “il s’ensuit immédiatement” car, souvent, elles camouflent des difficultés et celles-ci, dans certains cas, ne peuvent pas être résolues par ceux qui les énoncent. 3) Capacité d’interprétation, c’est-à-dire facilité pour interpréter correctement des signes artificiels. Nous parlons ainsi de personnes qui possèdent “une intuition physique” et d’autres qui en manquent. Les premières “voient” dans les formules, si elles ne sont pas trop complexes, autre chose que des signes mathématiques: elles comprennent leur signification physique et savent lire les équations en termes de propriétés, d’événements ou de processus. Par exemple, le physicien théorique tendra à interpréter le carré d’une grandeur comme élément possible dans une formule d’énergie, une matrice comme un tableau de transitions possibles entre différents états, une intégrale de Fourier comme un paquet d’ondes, un développement en fonctions orthogonales comme une superposition d’états, un commutateur du type HA-AH comme une vitesse de changement, etc. Une habileté à symboliser, une certaine expérience d’interprétation et une capacité à mettre rapidement en rapport des éléments apparemment sans lien, c’est tout ce qui dans ce cas se cache sous le mot “intuition”. Comme les physiciens, les mathématiciens développent une certaine capacité pour interpréter des signes artificiels. Il est plus facile de construire d’abord une théorie concrète, dont les termes élémentaires (primitifs) ont une signification précise, d’éliminer ensuite, éventuellement, de telles références précises et d’obtenir ainsi une carcasse vide, c’est-à-dire une théorie abstraite, que de faire l’inverse. On peut assigner alors à la théorie abstraite diverses interprétations et, parmi elles, celle dont elle est issue. Cette absence de références spécifiques a l’avantage de mettre en évidence la structure essentielle du système (cf. La Wesensschau de Husserl, chapitre I) et d’obtenir la plus grande généralité possible. Une carcasse vide peut se remplir d’une variété de contenus ou de significations. Le calcul des probabilités, par exemple, s’est développé d’abord comme une théorie d’espérances, c’est-à-dire comme une théorie psychologique, et comme une théorie des faits contingents, c’est-à-dire comme une
théorie physique. De nos jours encore, la majeure partie des manuels élémentaires sur la probabilité parle des probabilités seulement en termes de croyances ou d’événements. Mais le spécialiste s’aperçoit que celles-ci ne sont que deux interprétations possibles d’une théorie devant être formulée comme un système abstrait ou non interprété. L’expression “P(x, y)”, qui apparaît dans la théorie des probabilités, peut s’interpréter par exemple comme “la probabilité de l’hypothèse x sur la base de la preuve y” ou comme “la probabilité du fait causal x dans la série y de faits semblables”, ou de diverses autres manières, ou d’aucune. Considérer la théorie des probabilités comme un système sémantique (interprété) possède une clair avantage heuristique: il est plus facile de penser au moyen de concepts spécifiques, par exemple visualisables, comme celui d’ “événement”. D’un autre côté, ces spécialisations ont obscurci la nature même de la théorie des probabilités. Elles ont nourri en particulier les fameuses interprétations erronées de la probabilité comme “rien d’autre” qu’une relation logique et, en conséquence, de la théorie des probabilités comme une branche de la logique, ainsi que l’interprétation de la probabilité comme (rien d’autre qu’) une fréquence limite d’événements, et donc du calcul de probabilités comme une science naturelle. Une adhésion similaire de la part des géomètres aux figures et aux corps a favorisé la conception de la géométrie comme la science de l’espace physique (rappelons-nous l’expression “géométrie solide”), et bloqué le développement des géométries non représentatives. La capacité d’interprétation est une béquille merveilleuse; mais qui préférera se déplacer à l’aide d’une béquille s’il a la possibilité de courir? Contrairement à l’opinion répandue parmi les sémanticiens, je pense que la capacité interprétative ne peut ni se mécaniser, ni se banaliser, par la formulation explicite de toutes les règles de désignation et des postulats d’interprétation qui donnent une signification aux symboles en jeu. De telles règles et de tels postulats n’en épuisent pas, en effet, la signification; l’ensemble des présuppositions de la théorie contribuent à sa signification tout autant que son développement ultérieur. De plus, tout symbole est entouré d’un halo de flou, malgré les efforts que nous faisons pour en spécifier la signification. Pris dans leur ensemble, un corpus de connaissances et même quelques secteurs adjacents peuvent spécifier sans ambiguïté la signification de
leurs signes descriptifs ou constantes thématiques. Cependant, l’interprétation ne peut pas devenir mécanique, comme le prouve la difficulté fréquente à interpréter des résultats découlant clairement des présupposés d’une théorie bien connue par ailleurs. Si l’interprétation d’un formalisme était aussi automatique que le croient la plupart de sémanticiens, il n’y aurait aucune difficulté pour interpréter, par exemple, les formules de la théorie quantique. Les règles de désignation et les postulats d’interprétation fixent l’emploi des termes dans un système, décrivent brièvement leur signification et le déterminent en partie. Mais le contenu total d’un système de signes est donné par les présupposés de la théorie, par les formules générales qu’il contient (par exemple les énoncés des lois) et par l’information empirique et spécifique (par exemple les valeurs numériques) que la théorie peut intégrer. Le processus d’interprétation, qui est interminable, peut donc être caractérisé comme logique, mais pas comme complètement déductif, du fait qu’il utilise continuellement les rapports logiques existant entre les termes d’une partie donnée d’un même discours. Les rapports entre certaines constructions (symboles, concepts, propositions) et les expériences sensorielles correspondantes ne sont pas logiques mais “intuitifs”, comme le signalait Einstein. Bien entendu, ces relations n’appartiennent pas aux théories scientifiques; elles interviennent seulement dans la vérification et dans l’application de celles-ci. On doit noter que l’emploi légitime de la capacité d’interprétation a été limité aux signes artificiels, excluant ainsi du domaine de la science la “signification” intuitive des signes naturels. Il est vrai que nous établissons souvent la “signification” d’ensembles de signes naturels, par exemple l’aspect d’une personne, ses manières et ses gestes, d’une façon rapide et synoptique. C’est ainsi que nous procédons lorsque nous évaluons la personnalité d’un sujet sur la base d’un seul entretien. Mais le fait est qu’un diagnostic de ce type, fondé sur l’ “impression” ou l’intuition, s’avère en général inexact. Aucun psychologue sérieux n’osera établir le profil de la personnalité d’un individu sous la base d’un seul entretien. L’interprétation intuitive des signes naturels, sans l’aide de tests et de théories, est aussi trompeuse en psychologie qu’en physique; en conséquence, elle n’appartient pas à la science ou, si l’on préfère, constitue une activité protoscientifique.
1.3. L’intuition comme imagination 4) Capacité de représentation ou intuition géométrique: il s’agit de l’habileté pour représenter ou imaginer visuellement des objets absents, et aussi pour construire des images, des reproduction visuelles ou dynamiques, ou des modèles d’entités abstraites. La capacité de représentation peut être considérée comme une spécialisation de la capacité d’interpréter, dont nous avons traité précédemment (paragraphe 1. 2). Ce que l’on appelle intuition géométrique, ou intuition spatiale, est précisément une habileté pour a) former des concepts géométriques (par exemple une courbe) par abstraction d’intuitions sensibles (par exemple, à partir d’une corde réelle), et b) associer des concepts arithmétiques, algébriques ou analytiques à des figures géométriques. Les origines de la mathématique et son enseignement élémentaire sont intimement liés à la représentation géométrique. Mais il en est de même pour la plus grande partie des tentatives d’organisation de matériels abstraits. Ainsi, par exemple, les diagrammes abondent dans la théorie des catégories, qui est l’une des plus abstraites de toute la mathématique. Même le discours philosophique peut s’éclaircir à l’aide de diagrammes. À mesure qu’il se séparait de la phénoménologie et évoluait vers un certain type de réalisme, Nicolaï Hartmann s’attachait d’avantage aux diagrammes pour illustrer ses idées; son Einführung in die Philosophie est abondamment illustrée de schémas. Songeons à la certitude psychologique que l’on obtient si on met les règles opératoires de l’arithmétique et de l’algèbre en rapport avec des opérations géométriques. Par exemple, pour “montrer” (et non pas démontrer) l’égalité (a + b) (c + d) =ac + ad + bc + bd, on peut dessiner un rectangle de côtés a + b et c + d, et diviser le premier côté en deux segments a et b, le deuxième en deux segments c et d. La figure suggérera immédiatement la validité de l’égalité en question en “identifiant” des produits invisibles ac, ad, etc., avec les aires des régions visibles de la figure. En réalité, il ne s’agit pas d’une identification mais d’une correspondance biunivoque; il est néanmoins plus efficace, du point de vue didactique, de parler d’identification.
Quand nous étudions une fonction à l’aide de sa représentation graphique, nous faisons appel à ce que l’on appelle l’intuition géométrique; c’est sur elle que nous nous appuyons même lorsque nous tentons de parvenir à une décision préliminaire quant à la convergence d’une intégrale. Lorsque j’ai été en prison, privé de papier et de crayon, une de mes expériences les plus gratifiantes consistait à imaginer le comportement de certaines intégrales, qui dépendaient très directement de certains paramètres. Cette visualisation m’a aidé à résoudre des problèmes avec lesquels je me débattais en vain depuis longtemps. De la même manière, le diagramme d’Argand-Gauss pour les nombres complexes, les lignes de niveau pour des fonctions de variable complexe et les contours d’intégration sont tous des auxiliaires visuels, dont on peut se passer pour une reconstruction formelle; pourquoi devrions-nous nous passer d’eux pendant la période de construction s’ils sont utiles comme les diagrammes d’Euler-Venn dans le calcul des classes? Lorsque Newton appelait “fluentes” nos fonctions et “fluxions” nos dérivées, il établissait une corrélation entre des entités analytiques et des variables cinématiques (position et vitesse), qui lui servit de recours heuristique important. Nous disons qu’il opérait intuitivement, quoique Berkeley regretta dans The Analyst que les fluxions d’ordre supérieur à 1 ne puissent exister, parce qu’elles n’étaient pas intuitives. L’intuition géométrique et l’intuition cinématique – de personnes entraînées dans ces domaines – ont joué un rôle très important dans l’invention du calcul infinitésimal, dans la déduction de théorèmes vrais, même si elles ont aussi contribué à occulter des difficultés logiques, résolues ultérieurement dans la reconstruction non-intuitive (que l’on appelle l’arithmétisation de l’analyse). On a souvent signalé les limites de l’intuition géométrique (voir Sources mathématiques et philosophiques, chapitre II). Nous appréhendons intuitivement les discontinuités d’une fonction et de sa dérivée première, car les discontinuités de la fonction ont un correspondant visuel dans les discontinuités du graphe qui la représente, et celles de la dérivée première ont, comme correspondant visuel, les déviations brusques de la tangente. Mais il est presque impossible de “percevoir” les discontinuités des dérivées secondes, associées à des changements brusques dans le rayon de courbure, et pour les dérivées d’ordre plus élevé, il est tout simplement impossible de conclure quoi que ce soit au sujet de leur continuité à l’aide de la vue seule. On “voit” aussi facilement que la série infinie 1+ ½ +
1/22 + 1/23... a une somme finie. Mais pourquoi ne voyons-nous pas que la série harmonique 1+ ½ + 1/ 3 + ¼... tend vers l’infini? Dans une grande partie de son travail, le mathématicien ne peut pas appuyer ses raisonnements abstraits sur des intuitions visuelles et sur l’intuition géométrique qu’elles nourrissent. Mais ici aussi interviennent les différences de tempérament et de background. Les jeunes générations de mathématiciens manipulent des relations complexes sans utiliser de diagrammes, alors que les générations anciennes considèrent que le travail avec des relations exige toujours l’utilisation de modèles concrets. Le philosophe Reichenbach est allé jusqu’à l’affirmation extrême selon laquelle “il est totalement impossible de penser les relations de manière abstraite”, d’où il conclut que l’emploi de graphiques en géométrie n’est pas seulement une question de commodité, mais “repose sur une nécessité de base de la pensée humaine”112. Nous devons prendre garde à ne pas attribuer nos propres caractéristiques et expériences personnelles aux nécessités immuables de la pensée humaine, comme le faisaient les rationalistes traditionnels. Les intuitions géométriques et cinématiques apparaissent aussi, bien entendu, en physique, où il est fréquent et utile de construire des modèles visuels de différentes sortes. Il est toutefois à la mode d’affirmer que dans la physique actuelle il n’y a pas d’intuitions, et qu’elle est même totalement anti-intuitive, au sens où elle aurait complètement abandonné les modèles géométriques et cinématiques à l’échelle atomique. Ceci est tout simplement faux. La théorie quantique, dans son interprétation habituelle (mais pas dans certaines interprétations hétérodoxes) 113, a abandonné les modèles corpusculaires du type imaginé par Dalton et aussi les modèles cinématiques, comme le modèle planétaire de l’atome conçu par Bohr. La mécanique quantique ne parle pas de billes minuscules qui se déplacent suivant des trajectoires parfaitement déterminées. Elle emploie par contre des auxiliaires intuitifs différents, telles que les nuages de probabilité (si employés par les chimistes théoriques sous le nom d’orbitales moléculaires”), la distribution de charges (par exemple à l’intérieur du proton et du neutron), les graphiques de dispersion de Feynman, le modèle des couches nucléaires, et d’innombrables autres modèles. Ce qui est nouveau dans les auxiliaires visuels de la physique quantique , par rapport aux modèles visuels de la physique classique, c’est a) que tous se proposent de représenter non pas des objets et des événements
individuels, mais plutôt la distribution statistique des propriétés (par exemple masse, charge, vitesse) entre de grands ensembles de micro systèmes semblables; b) que ces modèles visuels ne sont pas tous des représentations littérales de choses et de faits objectifs, mais que certaines de leurs images peuvent être symboliques et non figuratives, et même (comme dans les graphiques de Feynman 114) des moyens mnémoniques utiles pour le calcul. Quoi qu’il en soit, le physicien théorique comme le mathématicien utilisent des images visuelles d’une sorte ou d’une autre. Lorsqu’ils le font, on dit qu’ils pensent d’une manière intuitive ou picturale (anschauliches denken ou pictorial thinking). La théorie des espaces de Hilbert, qui intéresse aussi bien les mathématiciens que les physiciens, peut se développer sans faire appel à une seule image visuelle; mais il peut s’avérer utile de considérer les fonctions de base comme des axes des coordonnées dans un espace de dimension infinie, et une fonction quelconque comme un vecteur dans un tel espace. Le postulat de la mécanique quantique d’après lequel la mesure d’une variable physique produit une réduction du paquet d’ondes représentant le système physique est ainsi nommé, de manière imagée, le postulat de projection. On peut le visualiser comme la projection, faisant suite à une opération de mesure, du vecteur d’état sur l’un des axes de l’espace fonctionnel. La représentation imaginative, ou fantaisie visuelle (Mach l’appelait Phantasie-Vorstellung), sert utilement de béquille pour la rationalité pure, mais ne la remplace pas; elle la renforce psychologiquement mais non logiquement. Les modèles visuels ne sont pas très utiles dans les théories du champ et dans la mécanique statistique; la dépendance de l’image visuelle fera souvent obstacle à la généralisation et à l’appréhension de qualités et de relations non visualisées. Des propriétés comme la masse, la charge et le spin ne peuvent pas être visualisées symboliquement; elles ne s’adaptent pas au programme de Descartes visant à réduire toute la physique à des figures et à des mouvements XIV. Néanmoins, puisque toute théorie est un ensemble d’idées représentables au moyen de signes (verbaux ou visuels), le travail théorique exige toujours l’exercice de capacités d’interprétation et de représentation. La dichotomie abstrait-intuitif, tellement en vogue pendant la première moitié de notre siècle dans le domaine de la physique, est donc fausse; comme, bien entendu, l’affirmation selon laquelle les théories appelées “abstraites” sont des créations sémites, tandis que les théories “intuitives”
(c’est-à-dire les bonnes théories) sont aryennes, est un mensonge de la propagande nationaliste du Troisième Reich 115. On peut seulement affirmer que certaines personnes sont “visualistes” et d’autres non et que, “probablement, tout visusaliste tend à utiliser beaucoup plus d’images que les images objectivement nécessaires au développement de sa pensée” 116. Si la plupart des mathématiciens de la vieille école pensent à l’aide d’images vagues, comme semblent l’avoir établi les recherches de Hadamard 117, pourquoi les physiciens, les chimistes, les biologistes et les psychologues n’en feraient-ils pas de même? Personne ne doit être surestimé ou sous-estimé du fait de la quantité d’images qu’il utilise; ce qui compte c’est qu’il réussisse à faire avancer la science. 5) Capacité à forger des métaphores ou habileté à signaler des identités partielles quant au type ou à la fonction, ou des identités complètes formelles ou structurelles (isomorphismes) entre objets différents par d’autres aspects. Citons, comme exemples logiques de métaphores, l’analogie entre la disjonction et l’addition, et la similitude entre l’altération et la ramification (exploitée dans les “arbres” de Beth). Un exemple mathématique est la similitude entre les espaces fonctionnels et les espaces vectoriels, et la conséquence qui s’ensuit de la conservation d’une partie de la nomenclature ( “vecteurs de base”, “produit scalaire”, “orthogonalité” Exemple physique: le modèle du noyau atomique comme une goutte de liquide (ce modèle, disons-le en passant, a été suffisamment fécond pour accompagner les recherches qui conduisirent à la bombe atomique par fission). Exemple cybernétique: la similitude entre les ordinateurs et le cerveau. Exemple psychologique: la similitude entre la répression policière et l’inhibition. Qui peut mettre en doute que les métaphores constituent des guides heuristiques ? La simple conservation du vocabulaire, en passant d’un domaine vers un autre, suggère des analogies qui facilitent l’exploration et la compréhension d’un nouveau territoire. Mais bien entendu, nous ne devons pas oublier que nous manipulons des analogies et pas des identités de fond:telle est la signification de l’avertissement “ne pas pousser trop loin les analogies”118 dans le cas contraire, nous finirions par croire que les ordinateurs sont des cerveaux, de même qu’autrefois on a pu penser que la chaleur et l’électricité étaient des fluides, parce qu’avaient été conçues puis développées certaines analogies fécondes de ces
phénomènes avec les liquides. Trouver ce que l’on pourrait appeler les points de rupture des analogies est aussi importent que les établir. L’emploi systématique de métaphores d’ordre spatial, physique et social par la psychanalyse, la Gestalttheorie et d’autres spéculations de même ordre, àla place de constructions scientifiques, fait obstacle, avec leur faiblesse méthodologique, à leur constitution comme discipline scientifique. Tout d’abord, on compare une fonction avec une chose (par exemple, un champ de forces avec un organisme) ou avec une personne (par exemple, le surmoi avec un censeur). L’étape suivante consiste à attribuer une autonomie à la similitude, par exemple traiter le çà, le moi et le surmoi comme des personnes à l’intérieur des personnes. La métaphore cesse de constituer un recours heuristique ou didactique illustrant une conception, et devient une conception à part entière 119. Dans la science, les métaphores sont employées lors de l’étape de conception et d’échange des idées, mais elles ne se substituent pas à la pensée conceptuelle, qui est incontournable en science. 6) Imagination créatrice, inventivité ou inspiration. Par opposition à l’imagination spatiale qui associe des images visuelles à des concepts et propositions déjà établis, l’imagination créatrice est ce qui intervient (pour parler métaphoriquement) lorsque l’on conçoit de nouvelles idées apparemment sans effort, sans trop de logique explicite, soudainement ou presque. L’imagination créatrice est beaucoup plus riche que la fantaisie; elle ne consiste pas en la capacité d’évoquer des impressions sensibles et ne se limite pas à remplir des trous dans la carte fournie par la perception. Elle s’appelle créatrice parce qu’elle est la capacité de créer des concepts et des systèmes conceptuels, pouvant ne correspondre à rien au niveau des sens (même s’ils peuvent correspondre à quelque chose dans la réalité), et aussi parce qu’elle engendre des idées non conventionnelles. N’importe quel mathématicien ou chercheur en sciences physiques ou naturelles admettra que sans imagination, sans capacité inventive, sans capacité à concevoir des hypothèses et des propositions, on ne peut effectuer que des opérations “mécaniques”, c’est-à-dire des manipulations d’appareils et des applications d’algorithmes de calcul. L’invention d’hypothèses et de techniques, et la planification d’expériences, sont des cas patents d’opérations imaginatives ou, si l’on veut, d’actes intuitifs, par opposition aux opérations “mécaniques” 120. Ce ne sont pas des opérations purement logiques. La logique, àelle seule, est incapable de conduire à des idées nouvelles, tout comme la grammaire est incapable,
àelle seule, d’inspirer des poèmes, et l’harmonie, àelle seule, d’inspirer des symphonies. La logique, la grammaire et la théorie musicale nous permettent de détecter des erreurs formelles et des bonnes idées et de les développer, mais elles ne nous fournissent pas la “substance” d’une idée heureuse, c’est-à-dire un nouveau point de vue. Toutefois, l’invention féconde, et l’insight profond si vanté par les intuitionnistes 121 et les partisans de la Gestalttheorie 122 ne surgissent pas ex nihilo. Dans la science et la technologie, la nouveauté surgit par observation, comparaison, tâtonnement, critique et déduction; il n’y a pas de connaissance nouvelle qui ne soit pas déterminée, d’une manière ou d’une autre, par des connaissances précédentes 123 et en rapport logique avec celles-ci. (En général, le nouveau a toujours ses racines dans l’ancien). En outre, on ne sait pas qu’une conjecture est “heureuse” avant de l’avoir prouvée, et ceci est une démarche qui exige l’élaboration logique de la conjecture. Le processus d’invention est généralement effacé dans la présentation finale de la théorie, la technique ou l’expérimentation. Les théories axiomatiques, en particulier, ont un aspect imposant: elles ont l’air d’actes de création à partir du néant. Mais il va de soi qu’il n’en est rien. Toute théorie axiomatique s’édifie sur la base des connaissances disponibles et à l’aide des concepts et techniques préexistants. On commence par connaître à fond le matériel existant et les instruments, de même que l’artisan commence par réunir la matière première et les outils. Il s’agit ensuite d’atteindre une vision synoptique du domaine concerné. L’étape suivante consiste à établir les desiderata auxquels doit satisfaire le système axiomatique; la plupart d’entre eux devront réapparaître comme des théorèmes déduits des axiomes. Les conjectures ne peuvent pas commencer avant cette étape préparatoire. Pendant l’étape constructive, certaines conjectures “sauteront aux yeux”; en général, ce sont les plus simples qui apparaissent en premier lieu et, bien entendu, on trouve en général par la suite qu’elles sont trop simples pour convenir. Immédiatement, elles sont mises à l’épreuve: on cherche à prouver qu’elles satisfont les desiderata. Si ce n’est pas le cas, on introduit une légère modification dans le candidat à être un axiome, ou l’on évalue si le désideratum qui n’a pas été satisfait est réellement correct ou indispensable. Dans ce processus d’adaptation des propositions les plus fortes (les axiomes) aux plus faibles (les desiderata ou futurs théorèmes), ces derniers ne sont pas intouchables; au contraire, ils
peuvent être simplifiés pour rendre la démarche possible. Les conjectures successives peuvent ne pas constituer une suite s’approchant uniformément du but: il y aura des temps d’arrêt et des retours en arrière provisoires. Ce processus a une forte ressemblance avec la création artistique, depuis la première ébauche jusqu’à la touche finale. Mais pour une raison obscure, les artistes semblent convaincus que la création relève exclusivement de l’art. Une fois construit le système d’axiomes, il s’agit à nouveau d’évaluer s’il donne lieu aux théorèmes voulus et s’il satisfait des exigences logiques comme celle de la cohérence. Tout processus consiste dans des essais et erreurs guidés par la connaissance, articulée ou non, et par certaines règles de construction théorique. Dans la science, l’essai et l’erreur ne sont pas “aveugles” (prérationnels) comme chez le ver de terre, la mouche et d’autres animaux. Souvent cette démarche est méthodique et non erratique; elle est guidée par des buts et des méthodes, et contrôlée par ce que nous savons déjà. Malgré cela, le processus de l’invention scientifique est plus proche de l’essai et de l’erreur que de la “pénétration” (insight) subite surgissant du néant. Dans le travail scientifique se produisent des “étincelles”, mais seulement comme des épisodes au sein du processus créateur rationnel et non comme des facteurs déclenchants indépendants. Il est absurde d’affirmer que l’intuition est supérieure à la logique en ce qui concerne l’invention; il n’y a pas d’invention scientifique ou technologique sans connaissance préalable et sans développement ultérieur. Qui pourrait prendre au sérieux le mythe de l’inspiration soudaine qui aurait suggéré à Newton la théorie de la gravitation universelle, et qui pourrait sérieusement faire abstraction des contributions de Kepler, Galilée et Huygens, des calculs de “fluxions” nécessaires pour la mise à l’épreuve de la théorie et des tentatives précédentes de Newton lui-même? L’idée que la pensée créatrice est opposée au raisonnement est aussi fausse que répandue. S’il était vrai que le degré de créativité de la pensée est fonction de la quantité d’éléments inconscients qui y interviennent, 124 les songes et, a fortiori, les rêves devraient être plus payants que la pensée contrôlée; et le calcul, qui peut être “mécanisé” ou automatisé dans une large mesure, devrait être considéré comme hautement créatif. La thèse de Freud d’après laquelle pratiquement tous les processus de l’esprit “existent d’abord dans un état ou une phase inconscients, et
seulement plus tard passent à une phase consciente, tout comme une photographie est d’abord un négatif, qui se convertit en image à travers l’impression du positif” 125, semble avoir inspiré la technique du brainstorming ou tempête cérébrale. Le brainstorming, adopté ces dernières années par diverses entreprises aux États-Unis d’Amérique dans le but de faciliter la genèse des idées, consiste en un groupement informel de personnes dont le but est de discuter et de proposer des solutions à des problèmes déterminés. Ceci a lieu dans une atmosphère d’ “association d’idées” qui encourage la “roue libre” et qui interdit strictement la critique. Cette technique a été mise à l’épreuve – après son adoption! – et s’est apparemment avérée inefficace. Un groupe de psychologues de Yale a conçu et mené des expérimentations impliquant des groupes-témoins. Ils parvinrent à la conclusion que le brainstorming inhibe décidément la pensée créatrice 126. Comment pourrait-il en être autrement puisque, dans ces séances, on supprimait la critique ? L’abord effectif des problèmes est à la fois créateur et critique. La rêverie, qui est acritique, est en même temps improductive. La découverte en 1865 de la structure hexagonale du benzène par Kekulé (1829-1896) est déjà devenue un exemple classique d’invention apparemment subite et stimulée par des facteurs non rationnels. Kekulé lui-même a décrit l’événement, même si malheureusement il ne l’a fait que vingt cinq années plus tard, prenant ainsi le risque d’y introduire des éléments fantaisistes. Comme il le rapporte lui-même, il se trouvait à Gand en train de rédiger un texte de chimie; l’œuvre ne progressait pas et il se tourna vers la cheminée pour somnoler à la chaleur du feu. Des images d’atomes (atomes de Dalton) se mirent à danser devant ses yeux. “Mon œil intellectuel, aiguisé par de telles visions répétées, distinguait maintenant des structures plus grandes, de formes diverses. De longues files, parfois très serrées, toutes en mouvement, se tordaient comme des serpents. (Jusqu’alors, les structures moléculaires imaginées étaient des chaînes ouvertes. Le rêve commença par des connaissances habituelles). Mais que se passe-t-il? L’un des serpents avait saisi sa propre queue et la forme bougeait en tourbillon et moqueusement devant mes yeux. Je me suis réveillé, comme secoué par un éclair et, cette fois, je passai le reste de la nuit à développer les conséquences de cette hypothèse. Si nous apprenions à rêver, messieurs, alors peut-être trouverions-nous la vérité...
Nous devons prendre soin, néanmoins, de ne pas publier nos rêves avant de les mettre à l’épreuve avec l’esprit en éveil” 127. Notons que la “vision”, la “révélation naturelle” ou l’ “éclair intuitif” n’ont pas surgi du néant; cela faisait déjà douze ans que Kekulé se débattait avec la structure du benzène (C6H6). Comme cela arrive très fréquemment dans de tels cas, il rêvait même de structures moléculaires et, dans ses rêves, il faisait ce que fait tout scientifique en état de veille: il modifiait en imagination les hypothèses, ou certains de leurs éléments, les essayant successivement. L’éclair de l’inspiration advint, après de nombreux efforts, comme couronnement des étapes de préparation et d’incubation, comme les nommait Poincaré. L’éclair vint après qu’il ait essayé de nombreuses hypothèses, déduit leurs conséquences et comparé celles-ci avec les données empiriques. Lorsque l’ “illumination” se produit, tous les éléments des hypothèses sont présents, ainsi qu’une partie des éléments de preuve empiriques pertinents, mais tout ceci encore sans connexion, ou avec des connexions défectueuses. La synthèse qui fond en un instant ces éléments en une forme correcte, cette “perception” des interconnexions qui constituent la totalité, est l’une des nombreuses synthèses envisagées. La synthèse de données et de conjectures peut être fausse; elle l’est presque toujours. Il faut la mettre à l’épreuve et c’est précisément ce que fit Kekulé lorsqu’il se réveilla. Il ne croyait pas à une révélation, mais à un travail tenace. En effet, la première chose qu’il fit en se réveillant, fut d’élaborer les conséquences de sa conjecture pour vérifier qu’elles s’ajustaient à l’information empirique (les propriétés chimiques et physiques du benzène). Et il prévient: rêvez, meine Herren, mais ensuite vérifiez. Les rêves et les images hypnagogiques (qui apparaissent dans les états crépusculaires) doivent s’ajuster aux données et aux règles avant qu’on puisse les considérer comme des éléments d’un système scientifique 128. À la différence des rêveries et des extravagances pseudoscientifiques, l’imagination scientifique est contrôlée; elle est constamment mise à l’épreuve par des efforts pour la rendre compatible avec l’ensemble de la connaissance scientifique. On peut comparer Rutherford, scientifique imaginatif, avec Freud écrivain imaginatif. Dans la science, l’imagination créatrice sans la logique ne mène nulle part. “Il n’y a pas d’intuition féconde sans de longues et patientes déductions”,
disait Couturat dans l’une de ses polémiques mémorables contre la conception de la recherche scientifique comme une œuvre d’art produit d’une inspiration complètement étrangère à la logique 129. Beaucoup ont des idées originales, mais très peu de ces idées sont vraies, et même lorsqu’elles le sont, elles n’obtiendront pas droit de cité scientifique aussi longtemps qu’elles n’ont pas été développées et vérifiées. L’originalité est une caractéristique souhaitable dans toute théorie scientifique nouvelle, mais la capacité de survivre à des mises à l’épreuve sévères est plus que souhaitable: elle est obligatoire. Nous n’aurions certes pas le temps de soumettre à l’épreuve toutes nos conjectures. Nous les critiquons d’abord en essayant de trouver des contre-exemples pour les réfuter. De plus, ce que l’on met à l’épreuve n’est jamais une première intuition – toujours grossière – mais un résultat de notre élaboration rationnelle. Imaginez la réaction du directeur d’un groupe de physique expérimentale à qui nous demanderions de mettre à l’épreuve notre dernier rêve! 1.4. L’intuition comme raison 7) Inférence catalytique. Passage rapide de certaines propositions à d’autres, brûlant les étapes si rapidement que l’on ne perçoit pas les prémisses et les processus intermédiaires 130 susceptibles cependant d’apparaître lors d’une reconstruction minutieuse ultérieure. On voit ici la raison travailler globalement – pour employer une métaphore – et non analytiquement ou discursivement. Il s’agit de l’intuition intellectuelle cartésienne, qui évite des étapes intermédiaires et abrège les “longues chaînes de raisonnements”. C’est pourquoi on parle parfois d’évidence ou de compréhension instantanée d’un raisonnement. Mais les prémisses et les moments intermédiaires, que l’on a mis de côté ou oubliés, sont si nombreux que seule une personne expérimentée peut arriver par cette voie à des conclusions vraisemblables. L’intuition doit s’éduquer, et seulement un esprit logique au plus haut degré est capable d’atteindre l’ “aperception synthétique d’une relation ou d’un ensemble de relations logiques”, selon la caractérisation par Couturat de l’intuition intellectuelle 131.
8) Pouvoir de synthèse ou vision globale ou appréhension synoptique: il s’agit de la capacité de synthétiser des éléments différents, de combiner des éléments épars en un tout unifié ou “harmonieux”, c’est-à-dire en un système conceptuel 132. La capacité de synthèse – qui ne doit pas être confondue avec l’incapacité à analyser – est caractéristique des personnes intelligentes et instruites, quel que soit leur métier. On la voit à l’œuvre aussi bien chez l’artiste que chez l’homme d’état ou le philosophe. L’artiste compose dans son imagination des perceptions et des idées, produisant un tout organisé; l’homme d’état, le chercheur et le philosophe organisent des idées autour d’un noyau central, et ils le font parfois de façon relativement simple et dans une unité de style, cas dans lequel nous disons qu’ils font preuve d’élégance. Nous disons du spécialiste qu’il est capable de “voir” rapidement l’essentiel d’un problème, et du profane ou du débutant qu’il se perdent dans les détails. Nous ne sentons pas que nous “comprenons” un argument tant que nous ne le saisissons pas comme un tout. Ce que Hadamard disait de lui-même est probablement vrai de la plupart des gens: “tout argument mathématique, quel que soit son degré de complexité, doit m’apparaître comme une chose unique. Je ne sens pas que je l’ai compris tant que je n’ai pas réussi à l’appréhender comme une idée globale, ce qui nécessite malheureusement... un exercice intellectuel plus ou moins ardu” 133. L’appréhension synoptique n’est pas un substitut à l’analyse, mais une récompense de l’analyse soigneuse. Le pouvoir de synthèse, comme le raisonnement catalytique, peut être perfectionné. Dans les débuts de sa carrière scientifique, l’auteur perdait fréquemment de vue l’essentiel de son propre travail, qui lui avait été fourni par son maître, le professeur Guido Beck. Souvent l’idée unificatrice et le propos sous-jacent ne devenaient clairs qu’au bout de quelques temps et peut-être même après la publication des résultats. Nous ne possédons que ce que nous faisons nous-mêmes. L’enseignement est un bon moyen non seulement pour maîtriser un sujet mais aussi pour revitaliser la capacité de synthèse. Un bon maître fournit une image globale du sujet et montre le poids relatif de ses parties. On doit admettre toutefois que ceux qui acquièrent à la fois une grande adresse analytique et une grande capacité de synthèse sont rares. Le plus fréquent étant de polir avec habileté une idée modeste, ou bien d’avancer
à tâtons au milieu d’une vision grandiose et immature. Seuls les grands génies ont de grandes visions et les développent. 9)Sens commun. Jugement fondé sur la connaissance vulgaire, sans faire appel à des connaissances ou à des techniques spécialisées, ou qui se limite à des étapes dépassées de la connaissance scientifique. Nous partons souvent de la connaissance vulgaire et nous nous débrouillons assez bien avec le sens commun; mais tous deux, quoique nécessaires, sont insuffisants. La science n’est pas une simple inférence quantitative de la connaissance vulgaire; elle crée des concepts et des théories inédites, généralement anti-intuitives et incompréhensibles pour le profane. La logique, d’autre part, n’est pas un simple affinement du sens commun; elle aborde à son tour des problèmes et construit des théories qui se heurtent au sens commun par de nombreux aspects, ou tout au moins en dépassent la portée. Les logiciens et les mathématiciens ont trouvé que, devant certains choix difficiles, les “intuitions logiques” acceptées par le sens commun ne fonctionnent pas. (Rappelons-nous les paradoxes des classes infinies et celles de l’autoréférence.) Le sens commun n’admet pas de lois telles que: “si p, alors si non-p, alors p”. Néanmoins cet énoncé est vrai; qui plus est, il est l’une des manières de formuler la proposition “évidente” “: “si p, alors p ou p”. Non moins paradoxal est le fait qu’il y a des matrices non nulles a pour lesquelles l’égalité a2 =0 est vraie. La mécanique des fluides et des solides en rotation, les théories de champs et la mécanique quantique débordent de “paradoxes”, c’est-à-dire de propositions incompatibles avec le sens commun, habitué à des solides macroscopiques en mouvement lent. (Contrairement à ce que pensait Bergson, c’est l’intuition et non pas la raison qui est directement ancrée dans l’expérience avec des corps solides). Non moins contre-intuitives sont les conceptions modernes d’après lesquelles les corps se meuvent tout seuls dans le vide, ou le froid n’est pas l’opposé de la chaleur, ou encore les électrons interfèrent avec eux-mêmes. Une personne familiarisée avec les concepts newtoniens de l’espace et du temps absolus peut trouver contre-intuitive l’idée que toute vitesse uniforme peut être supprimée (intellectuellement) si l’on choisit un changement de repère approprié. Mais cette même personne, habituée à visualiser l’espace comme un cadre fixe ou comme un éther qui remplit tout, peut trouver “intuitif” le postulat selon lequel, dans le vide, la vitesse
de la lumière est absolue, c’est-à-dire indépendante de tout système de référence. Ceci est un axiome de la théorie spéciale de la relativité que l’on ne peut visualiser ou saisir en termes de sens commun une fois que l’on a intégré le concept d’espace homogène isotrope, et l’équivalence qui s’ensuit de tous les systèmes inertes. Si on enseigne à cette même personne la théorie spéciale de la relativité, alors elle trouvera contreintuitive l’affirmation (de la théorie de la gravitation d’Einstein) selon laquelle les accélérations peuvent être absolues si elles sont produites par des champs de gravitation, puisque ceux-ci ne peuvent être supprimés (si ce n’est localement) au moyen d’aucun changement de coordonnées et, par conséquent, sont en un certain sens absolus. Le sens commun peut s’éduquer graduellement, mais on peut compenser la perte des intuitions anciennes et fausses par l’acquisition d’une nouvelle intuition. Nous éprouvons de la satisfaction lorsque nous réussissons à appréhender “intuitivement” une théorie, lorsqu’elle nous paraît évidente; mais pour la même raison, il nous semblera difficile d’accepter une théorie rivale qui manifeste des exigences opposées à nos “intuitions”. Plus une personne est familiarisée avec une théorie déterminée et avec la manière de penser qui l’accompagne, plus il lui sera difficile d’adopter une théorie rivale qui implique une manière de penser différente. En général, la possession de connaissances fait pousser des ailes à l’esprit pour certaines choses et le freine pour d’autres. Le développement d’une théorie nous contraint à une soumission totale à la manière de penser que celle-ci sanctionne. Mais la critique d’une théorie, et la recherche d’autres théories meilleures, exigent l’abandon de toute manière de penser liée à ce qui, finalement, est devenu un lieu commun. Jusqu’à un certain point, le progrès de la science consiste en la découverte de pseudo-paradoxes, c’est-à-dire de propositions contreintuitives discordantes par rapport au sens commun, que celui-ci soit prescientifique ou scientifique. Si les chercheurs avaient pris peur des idées “inconcevables”, “irrationnelles” ou contre-intuitives, il n’y aurait, de nos jours, ni la mécanique classique (maintenant acceptée par le sens commun!) ni les théories de champs, ni la théorie de l’évolution, qui furent toutes refusées à un moment donné comme anti-intuitives. Le bon sens n’est pas statique: il s’enrichit graduellement avec la science et avec la technologie. Aucun concept n’est absolument ou intrinsèquement intuitif ou contre-intuitif: le degré d’intuitivité d’un concept est relatif à un bagage conceptuel déterminé. Évitons-donc de
dire “x est intuitif”, et préférons par contre “x a été jugé intuitif par y en rapport avec z”, où “x” désigne une identité idéale quelconque (concept, hypothèse, théorie), “y” un sujet et “z” un corpus de connaissances, croyances, attitudes et jugements de valeur. Laissons l’intuition remplir sa fonction heuristique, mais veillons à ce qu’elle ne constitue pas un obstacle pour la formation de concepts. 1.5. L’intuition comme capacité d’évaluation 10) Jugement sain, phronesis, discernement ou pénétration (insight): capacité à juger correctement et rapidement de l’importance et de la portée d’un problème, de la vraisemblance d’une théorie, de l’applicabilité et du degré de fiabilité d’une technique ou de l’opportunité d’une décision. Lorsque un chercheur débutant demande conseil à un vétéran, il ne doit attendre de celui-ci ni des informations ni des détails mais plutôt ce jugement sain que les personnes de qualité acquièrent après de nombreux échecs. Chaque fois qu’on évalue un problème, une hypothèse ou des procédés, on formule des jugements de valeur. Nous disons que ces jugements sont “raisonnables”, “sensés” ou “sains” lorsqu’ils s’accordent avec l’ensemble de notre savoir ou de notre expérience (celle-ci doit comprendre la reconnaissance de ce que certaines idées “insensées” peuvent s’avérer correctes). Si l’on formule de tels jugements de valeur après un examen rapide, et si ceux-ci sont confirmés, alors nous parlons d’intuition. Le prix que nous payons pour la phronesis est une longue série d’échecs. La phronesis est utile dans la mesure où elle ne se pétrifie pas en autorité. Un physicien de grand talent, prix Nobel, XV avait la spécialité de détruire les idées originales. Parmi les idées qu’il avait violemment refusées figuraient l’hypothèse du spin (qu’il adopta et développa plus tard) et la violation de la parité. Il n’y a pas de jugement infaillible quant aux mérites des idées ou des personnes.
2. Nouvel examen de certains types d’intuition intellectuelle 2.1. L’intuition intellectuelle comme une manière normale de penser. Nous voyons donc que le mot “intuition” est un mot équivoque en science, ou plutôt dans le discours sur la science. Nous voyons également que l’ “intuition pure” de Kant, l’ “intuition métaphysique” de Bergson, l’ “intuition des essences” de Husserl et l’ “intuition de l’Être” mystique ne jouent aucun rôle dans la science. Dans le langage au moyen duquel nous nous exprimons en science, le mot “intuition” désigne des modes de perception (identification rapide, compréhension claire et capacité d’interprétation), d’imagination (capacité de représentation, capacité à forger des métaphores et imagination créatrice), d’inférence (inférence catalytique), de synthèse (vision globale), de compréhension (sens commun) et d’évaluation (phronesis). Toutes ces formes sont des formes normales de penser et de percevoir, bien que nous pouvons trouver certaines d’entre elles à un stade de développement supérieur parmi les scientifiques; elles sont en conséquence accessibles à la psychologie. Nous n’avons pas besoin d’une intuition mystérieuse pour l’étude des intuitions des chercheurs. Le fait que la psychologie des sciences n’ait pas encore étudié certaines de ces capacités avec l’attention qu’elles méritent 134 est dû non seulement aux difficultés intrinsèques du sujet, mais aussi au fait que celui-ci a souvent été victime des charlatans. Seuls les scientifiques qui font d’avantage preuve de curiosité scientifique que d’ambition personnelle oseront franchir les limites interdites de la pseudo-science. D’autres facteurs d’inhibition non moins importants sont les credos de l’instrospectionnisme, du béhaviorisme et de l’inductivisme. La croyance selon laquelle l’introspection (aussi bien spontanée que provoquée par des interrogations) est la méthode par excellence de la recherche psychologique va de pair avec celle selon laquelle l’intuition est un phénomène primaire, à partir duquel on doit expliquer les autres processus psychiques. La croyance dans le fait que l’observation du comportement est la méthode par excellence de la recherche
psychologique va de pair avec une résistance à explorer les phénomènes intellectuels, l’invention par exemple, qui ne peuvent pas être facilement observés et contrôlés. Finalement l’inductivisme constitue à son tour un obstacle, puisqu’il se présente comme la solution définitive du problème de la construction et de l’inférence scientifiques. Par contre, divers scientifiques ont étudié le phénomène de l’inspiration dans leurs propres recherches ou celles de leurs pairs. Malheureusement, ils ne nous ont quasiment fourni que des inventaires de cas, parfois accompagnés de recettes destinées à faciliter la production intellectuelle et à capturer ses résultats fuyants 135. En conséquence, il vaudrait la peine d’analyser de plus près les variétés les plus intéressantes de la pensée informelle, c’est-à-dire l’imagination créatrice (voir L’intuition comme imagination ), l’inférence catalytique et la vision globale (voir L’intuition comme raison ), et la phronesis (voir L’intuition comme capacité d’évaluation ). 2.2. L’imagination créatrice Nous parlons d’imagination créatrice lorsque nous nous référons à l’introduction de concepts, à la formulation de nouvelles hypothèses ou à l’invention de procédés et de techniques nouvelles; en résumé, lorsque nous avons une idée nouvelle (ne serait-ce que par rapport à l’ensemble de nos idées). Il ne s’agit donc pas de l’intuition des philosophes, censée appréhender quelque chose qui devrait exister indépendamment du sujet. L’imagination créatrice est une opération constructive au moyen de laquelle une nouvelle entité conceptuelle intègre le monde et l’enrichit. On a signalé souvent que la raison et l’expérience ne suffisent pas pour le travail scientifique. Par exemple, Claude Bernard, un des fondateurs de la médecine expérimentale, disait que la méthode expérimentale repose sur le trépied constitué par le sentiment, la raison et l’expérience. Il ajoutait que le “sentiment” entretient l’initiative et engendre “l’idée a priori (hypothèse) ou intuition” 136. Mais il n’est pas nécessaire de réifier les fonctions du cerveau du chercheur: il suffit de dire que l’expérience (actuelle ou passée), l’imagination et l’élaboration logique figurent parmi les traits nécessaires du travail scientifique.
Les chimistes américains Platt et Baker la définissent ainsi, dans une remarquable recherche empirique sur le rôle du pressentiment (hunch) ou “révélation scientifique” dans la recherche: “un pressentiment scientifique est une idée unificatrice ou éclairante, faisant irruption dans la conscience comme solution à un problème qui nous hante. En général, il survient après un long travail, mais parvient à la conscience à un moment où nous ne sommes pas consciemment en train de réfléchir. Un pressentiment émane d’une connaissance vaste des faits, mais c’est essentiellement un bond de l’imagination car il va au delà d’une simple conclusion nécessaire, que n’importe quelle personne raisonnable peut extraire des données disponibles. C’est un moment de pensée créatrice” 137. Deux cent trente deux chercheurs remplirent les questionnaires de Platt et Baker. Un tiers admirent avoir eu des intuitions ( “révélations scientifiques”) plus au moins fréquentes dans la recherche de solutions à des problèmes importants; la moitié affirmèrent avoir eu des “révélations” occasionnelles et le reste déclarèrent ne pas connaître le phénomène directement. Il serait intéressant de répéter cette recherche un demi-siècle plus tard lorsque la quantité et l’influence des chercheurs sont au moins cent fois supérieures. Toutefois, la psychologie comme la métascience empiriste ont négligé cet aspect de l’activité scientifique (voir L’intuition intellectuelle comme une manière normale de penser ), et en revanche exagéré le rôle des données sensibles (et celui des énoncés d’observation correspondants) ainsi que du “recueil des faits”. Cette négligence trouve sa source dans le présupposé selon lequel nous avons des perceptions pures, qui ne sont modifiées ni par nos théories ni par nos attentes, ainsi que dans la croyance selon laquelle, en science, les données sont collectionnées comme des timbresposte, simplement par goût, et non pas en fonction des théories, pour les élargir et les approfondir. Les formalistes, de leur côté, ont exagéré l’importance de l’organisation logique finale de la connaissance acquise, sans prêter attention au moment de la gestation des prémisses. Popper, sans être formaliste, a commis cette même erreur. Les empiristes et les formalistes semblent gênés d’avoir eu à reconnaître que l’étincelle de la construction scientifique – la formation des nouveaux concepts, la “divination” des hypothèses novatrices et l’invention de nouvelles techniques – ne relève ni de la perception sensible, ni de la reconstruction logique, mais qu’elle doit trouver sa place à un niveau intermédiaire, équidistant entre les niveaux sensible et discursif. Ils ont
manifesté leur antipathie à l’égard du terme “création”, comme si celui-ci voulait dire “émergence à partir du néant”, et ils ont préféré affirmer que la nouveauté, tant dans la nature que dans l’esprit, n’est qu’une illusion, un nom pour la division, le réaménagement ou la recomposition d’unités préexistantes. Le résultat de ce préjugé est que nous n’avons toujours pas de théorie de la production intellectuelle. Il va de soi que rien ne surgit de rien. Il s’agit là d’un principe ontologique important, diversement illustré en science et dont la négation conduit au mysticisme et à l’indéterminisme 138. Mais pourquoi nier qu’il y ait des inventions, des créations intellectuelles originales sur la base du matériel sensoriel et conceptuel, alors que nous admettons naturellement qu’une synthèse chimique n’est pas une simple juxtaposition, et qu’un être vivant n’est pas simplement un mécanisme complexe? Naturellement, la célèbre “pénétration” (insight) ou “expérience de Köhler” et des autres psychologues de la Gestalttheorie ne résout pas le problème de la création intellectuelle; ils ne font que mettre un nom sur la difficulté. Qui plus est, l’insight, s’il a lieu, se produit après des tentatives infructueuses; il est lui-même une tentative et ne peut se produire sans une expérience préalablement acquise. La thèse de Köhler d’après laquelle les étincelles de l’insight seraient indépendantes des expériences précédentes, fut infirmée expérimentalement en 1945 139. On a établi l’importance de l’expérience pour trouver des solutions relevant de l’insight. Chez les animaux supérieurs, la réussite dans la solution des problèmes dépend de l’expérience antérieure, ainsi que des tentatives précédentes d’essai et erreur, et d’un travail plus ou moins complexe de la faculté de l’imagination et de celle de la conception. Le fait que les essais et erreurs “aveugles” ou erratiques sont très inefficaces ne confirme pas l’hypothèse de la création subite à partir du néant, mais l’importance de l’organisation conceptuelle et de l’enrichissement par l’expérience. L’essai et erreur peut être systématisé méthodiquement à divers degrés, le plus important étant le procédé de conjecture et mise à l’épreuve, manifeste dans la science; toute nouvelle conjecture s’y construit sur la base du matériel fourni par le corpus total de la connaissance disponible, aussi bien directe qu’inférée. L’explication en est que l’insight peut fournir une synthèse et pas simplement une réorganisation. Le concept de Centaure est indiscutablement le résultat d’une composition. Mais qu’en est-il des concepts comme ceux de
température, charge électrique, loi naturelle ou encore du concept de concept? De quoi sont-ils faits? Dans l’énorme majorité des cas, nous divisons, nous regroupons et nous réaménageons; nous partons de ce qui était uni auparavant et nous rassemblons ce qui auparavant était séparé. Mais dans un petit nombre de circonstances décisives, les hommes sont capables de créer des concepts nouveaux, de nouvelles hypothèses, de nouvelles théories et de nouvelles conceptions du monde sur la base d’une matière première complètement inférieure. Nous appelons ces moments créateurs. En ce qui concerne la créativité, les penseurs peuvent être classés de la manière suivante: a) les critiques destructeurs, personnes capables de trouver des erreurs dans le travail d’autrui mais incapables de remplacer l’ancien et le caduc par quelque chose de nouveau et meilleur; b) ceux qui appliquent, individus capables d’utiliser les théories et les techniques existantes pour la solution de problèmes spécifiques, que ceux-ci soient théoriques ou pratiques; c) ceux qui perfectionnent, critiques constructifs capables d’étendre ou d’affiner les instruments connus, mais suivant une ligne déjà tracée; d) les créateurs de nouveaux problèmes, de nouveaux concepts, de nouvelles théories, de nouvelles méthodes, et même de nouvelles manières de penser. La science, la technique, les humanités ont besoin d’eux tous. William Whewell, chercheur, historien de la science et épistémologue, fut l’un des rares contemporains d’Auguste Comte et de Stuart Mill à avoir compris la nature de la science. Il insistait sur le fait que le secret de la découverte scientifique réside dans la créativité en matière d’invention des hypothèses et de perspicacité pour en choisir de bonnes. “Les conceptions au moyen desquelles les faits se regroupent – écrivait-il il y a un siècle – sont suggérées par la perspicacité des découvreurs. Cette perspicacité ne s’apprend pas. En général, elle opère au moyen de conjectures, et sa réussite semble résider dans la capacité à forger diverses hypothèses-tentatives et à choisir les bonnes. Il n’est pas possible d’obtenir une provision d’hypothèses appropriées au moyen de règles, mais ce n’est pas possible non plus sans talent” 140. Toute hypothèse acceptée est une “conjecture heureuse”, selon les termes de Whewell, et naturellement, comme Poincaré l’a souligné plus tard, la conjecture précède la preuve 141. Mais de nombreuses conjectures malheureuses précèdent celle que l’on finit par accepter, et le destin final de l’hypothèse même la plus heureuse est, à la longue, malheureux. (Whewell
n’admettrait pas cette dernière affirmation dans la mesure où il soutient une conception cumulative du progrès scientifique)142. Whewell observait que dans les sciences “il y a invention et activité constantes, un perpétuel pouvoir créateur et sélectif en exercice dont on ne nous montre que les derniers résultats” 143. Un parcours à travers quelques-unes des cent mille revues scientifiques qui existent actuellement mettrait en évidence la quantité d’imagination créatrice déployée dans une grande partie de la recherche scientifique. Ceux qui font l’apologie des arts en tant qu’ils sont imaginatifs, et méprisent la science pour sa soit-disant “aridité”, ne sont sans doute pas allés plus loin que la table des logarithmes. On peut affirmer que la recherche scientifique est bien plus imaginative que le travail artistique, quoique cette ingéniosité n’apparaisse pas dans son résultat final. On peut affirmer que l’hypothèse du photon de Einstein (1905), celle d’Oparin sur l’origine de la vie à partir d’un “bouillon” primitif (1923), ou l’ordinateur, ce merveilleux domestique universel, sont des créations plus ingénieuses que le David de Michel Ange, le Hamlet de Shakespeare ou la Passion selon Saint Matthieu de Bach. L’imagination créatrice est plus riche dans les sciences que dans les arts, puisqu’elle doit transcender l’expérience sensible et le sens commun; elle est plus exigeante, parce qu’elle doit transcender la subjectivité et s’efforcer d’être vraisemblable. L’invention scientifique n’est pas une pure Dichtung: elle tend à être Wahrheit. Malgré cela, certains de ses aspects et de ses productions, en particulier les grandes théories qui modifient notre vision du monde, sont aussi poétiques que peut l’être la poésie elle-même. Si les exigences d’utilité, de fiabilité, de bénéfice et de bas prix se superposent à celles de la vérité, nous obtenons la technologie moderne. Quiconque ne partage pas le mépris aristocratique pour le travail et les machines doit admettre que l’invention technologique n’est en aucune façon inférieure à la création scientifique, et qu’elle implique une utilisation équivalente de la fantaisie, ainsi qu’un investissement équivalent en connaissances. La description du processus créateur élaborée par l’ingénieur Rudolf Diesel ne diffère pas essentiellement de la célèbre description par Poincaré de son invention d’une certaine classe de fonctions. Selon les termes de Diesel, “une invention comporte deux parties: l’idée et son
exécution. Comment est née l’idée? Il peut arriver qu’elle surgisse comme un éclair, mais en général elle naît d’innombrables erreurs et après une recherche laborieuse; une étude comparative sépare ensuite graduellement l’essentiel de l’accessoire et, lentement, imprègne nos sens d’une clarté croissante qui devient finalement une image mentale claire”. 144 Diesel ne peut déterminer d’où est venue l’idée qui est au cœur de son invention du moteur Diesel; il peut seulement indiquer ceci: “l’idée correcte a finalement émergé de l’inlassable poursuite du résultat désiré (un but clairement formulé en termes technologiques), de recherches sur les rapports entre d’innombrables possibilités, et je me suis senti indescriptiblement heureux”. En ingénierie comme dans toute autre branche de la science, le premier modèle idéal conçu sera rarement réalisable. Un laborieux processus imaginatif d’ajustement sera nécessaire avant d’aboutir à un modèle réalisable. Diesel affirme que “... même si l’idée a été établie scientifiquement, l’invention ne sera pas complète. C’est seulement lorsque la Nature elle-même a fourni une réponse affirmative à la question formulée par la mise à l’épreuve que l’invention sera complète. Mais même à ce stade, il s’agit seulement d’un compromis entre l’idéal imaginatif et la réalité possible... Une invention n’est jamais un produit purement intellectuel: elle constitue le résultat d’un affrontement entre la pensée et le monde matériel. (...) Seule une faible partie des idées proclamées peut être réalisée matériellement, et l’invention définitive s’avère toujours très différente de l’idée d’origine qui demeure inaccessible. Telle est la raison pour laquelle l’inventeur travaille toujours au milieu d’une quantité énorme d’idées, de projets et d’expérimentations ratées. De nombreuses tentatives ont lieu avant qu’on puisse arriver à quelque chose, et ce qui résiste jusqu’au bout est très mince” 145. En technologie comme en science, l’étincelle initiale de l’intuition peut déclencher une réaction en chaîne au sein de la connaissance préexistante, mais le résultat final est, en général, très différent de l’étincelle initiale. Quoi qu’il en soit, l’imagination créatrice du technologue ou du chercheur scientifique n’opère pas dans le vide. Il n’y a pas d’invention scientifique ou d’innovation technologique sans un ensemble de données et sans un cadre de référence constitué de points de vue plus ou moins articulés. L’imagination créatrice des chercheurs et des technologues n’est pas étrangère aux données, aux théories, aux objectifs et même à
l’atmosphère intellectuelle générale. Les “pressentiments” ne font pas irruption sans raison mais comme des réponses à des problèmes et, à son tour, la simple formulation de ceux-ci présuppose un fond conceptuel préalable dans lequel on trouve des vides à remplir. Bohr et Edison n’auraient pas pu exister au Moyen-âge. La vérification même d’une conjecture, d’une théorie ou d’un instrument repose sur un corpus entier d’informations, de présupposés, de critères et de buts. Les tests, décisifs comme en mathématiques ou imparfaits comme en physique et en ingénierie, sont conçus à l’aide d’outils fournis par les théories et par la logique, cette théorie des théories; et le poids d’une preuve est évalué à l’aide de critères méthodologiques. En résumé, aucune science pure ou appliquée et aucune technique n’est possible sans l’imagination créatrice. La principale différence entre l’imagination scientifique et l’imagination artistique consiste dans le fait que la première aborde des branches plus spectaculaires, comme la conception d’images mentales d’objets non sensibles très complexes, et doit toujours être corroborée par la théorie et l’expérimentation. 2.3. L’inférence catalytique Ce que nous avons appelé l’inférence catalytique (voir L’intuition comme raison ) intervient lorsque l’on “anticipe” ou “conjecture” (bien sûr le plus souvent faussement) les résultats de démonstrations laborieuses ou de vérifications empiriques rigoureuses qui manquent d’Ersatz. L’inférence catalytique consiste à “montrer” plutôt qu’à démontrer; elle prouve brièvement ou imparfaitement; elle rend vraisemblable l’hypothèse qui a été inventée. La force psychologique de l’inférence catalytique dérive de sa rapidité et de ses référents plutôt que de sa forme logique. Il s’agit d’une sorte de raison rudimentaire qui se sert d’éléments de preuve incomplets, d’images visuelles et d’analogies plutôt que d’informations complètes, de concepts affinés ou d’inférences détaillées. C’est précisément en raison de ce caractère rudimentaire et fragmentaire que l’inférence catalytique est dangereuse. Il est paradoxal que l’on mette en avant le raisonnement intuitif comme une voie vers la certitude, puisque la voie la plus sûre pour exploiter des informations est un travail analytique minutieux. Nous brûlons des étapes
lorsque nous sommes pressés, ou lorsque les normes d’inférence proprement dites nous ennuient, ou lorsque nous n’avons pas le choix, mais en aucun cas parce que la fuite en avant est source de certitude. Il faut des années pour apprendre aux enfants à ne pas formuler des hypothèses gratuites lorsqu’une déduction est possible, tout comme, à l’âge adulte, il faut longtemps apprendre à tenir un discours strict avant d’essayer à nouveau de brûler les étapes avec quelque chance de réussite. En tout état de cause, que nous procédions pas à pas ou bien par sauts, nous employons toujours l’ “information accumulée” pour arriver à la solution désirée 146. La vraisemblance d’un argument s’appuie, pour l’intuitionnisme philosophique, sur la signification ou référence des termes plutôt que sur leur forme logique, parce que c’est celle-là et non pas celle-ci qui est susceptible d’intuition. Par conséquent, pour l’intuitionniste, deux arguments de même forme logique peuvent ne pas avoir la même force. On peut accepter par exemple le Cogito ergo sum cartésien (qui est logiquement incomplet) mais pas cet autre enthymème, ni plus ni moins défectueux: Untel se trompe, je me réjouis 147 XVI. L’histoire de la connaissance nous montre que les arguments fragmentaires, parfois acceptés parce qu’ils dépendent de notion intuitives, doivent être abandonnés comme faux ou être reconstruits logiquement. L’inférence catalytique, exaltée par l’intuitionnisme en raison de sa brièveté et de ses rapides réalisation et appréhension, doit être explicitée pour être légitime. Ceux qui croient à l’omnipotence de la logique déductive pensent que nous pouvons nous passer de l’inférence catalytique à condition d’avoir suffisamment de temps devant nous. Ils pensent qu’avec de la patience on peut démontrer ce que l’on veut, à condition de partir d’axiomes appropriés et d’appliquer des règles d’inférence adéquates. Mais cette croyance est naïve. Il n’y a pas de tables d’axiomes, ni de règles de transformation constituant un algorithme susceptible d’application “aveugle”; car avant de nous mettre à vérifier un théorème, nous devons le formuler, et nous ne prendrions pas la peine de le formuler s’il ne nous intéressait pas; il ne nous intéresse que si nous avons le pressentiment qu’il peut résoudre un problème en attente. Pour cette raison, il est possible de programmer un ordinateur pour qu’il vérifie un théorème déterminé, mais pas pour qu’il conjecture de nouveaux théorèmes. Une table d’axiomes est un matériau de départ et les règles sont les outils pour le travailler, mais ni l’une ni les autres ne constituent des guides.
Posséder les axiomes et les règles d’inférence revient à posséder une fortune: pour la dépenser, nous devons fixer certains objectifs et déployer ensuite notre imagination. (Il y a par contre une recette simple pour infirmer n’importe quelle proposition générale, consistant à trouver un contre-exemple ou un cas défavorable). Soit q une proposition obtenue par le moyen qu’on voudra. (Ce moyen peut ne pas être correct, mais la proposition doit toutefois être intéressante pour une personne au moins). Si nous voulons démontrer q d’une manière constructive ou directe, il nous faut trouver une proposition p telle que la proposition “si p alors q” soit acceptée comme logiquement valable; en d’autres termes, cette condition doit être soit un axiome du système, soit un de ses théorèmes préalablement démontré. Or la recherche de la proposition p impliquant logiquement q n’est pas un processus soumis à des règles précises et, par conséquent, susceptible de devenir mécanique; il s’agit au contraire d’un procédé quelque peu erratique. Pour réaliser une inférence rigoureuse, on doit trouver p et le conditionnel “si p alors q”, et il n’y a pas de recette connue pour mettre en œuvre ce procédé. (Il est vrai que l’on peut programmer un ordinateur pour démontrer q à partir de p, mais son programme doit déjà contenir p). Il faut ajouter à cela le fait que dans de nombreuses démonstrations en mathématiques et en physique, on doit construire des propositions singulières et existentielles en plus des prémisses universelles. En mathématiques, ces propositions constituent les fameuses astuces que l’on doit inventer dans les moments décisifs et qui consistent, dans certains cas, en des constructions géométriques spéciales et dans d’autres en des égalités, des inégalités ou des fonctions spéciales. La recherche des prémisses universelles et particulières nécessaires à une déduction rigoureuse n’est donc pas une marche linéaire automatique; elle ressemble au procédé de balayage (scanning) de la télévision et probablement aussi de la vision. L’esprit passe en revue, pour ainsi dire, le stock des propositions connues appartenant au domaine en question, et parfois aussi des propositions d’autres domaines; il essaye rapidement, l’un après l’autre, les rapports possibles entre elles jusqu’à trouver celle qui, finalement, rend possible la démonstration. Ce procédé de balayage est toutefois beaucoup plus aléatoire et moins efficace que celui des images de la télévision. Pour effectuer cette démarche sinueuse, il n’y a pas de règles plus utiles que de prendre patience et d’accumuler des relations fertiles ou suggestives. Ce procédé est “intuitif” dans la mesure
où, tout en étant rationnel, il n’est pas complètement conscient ou, si l’on préfère, ne pénètre pas complètement dans le champ de la conscience. Il ne répond d’ailleurs pas totalement aux normes logiques; dans le meilleur des cas, il ne les viole pas. En résumé, il n’est pas totalement vrai que la logique formelle épuise l’étude de la démonstration 148. Mais il est vrai que la logique déductive est la discipline qui codifie les relations valides existant entre les produits finaux du procédé de démonstration; et pour cela elle peut s’appeler ars demonstrandi. Il n’est pas vrai non plus que la logique soit incapable d’expliquer en quoi un raisonnement non rigoureux ou informel peut être fécond. Un célèbre théorème du calcul propositionnel dit que d’une proposition fausse peut se déduire n’importe quelle proposition, vraie ou fausse: “si non-p, alors (si p alors q)”. Tant pour la recherche que pour la vérification de nouvelles idées, il est fondamental de prendre appui sur une prémisse, plutôt que d’adhérer sans imagination à des présupposés donnés 149. 2.4. Phronesis Quant à la phronesis ou bon sens (voir L’intuition comme évaluation ), même si elle ne nous permet pas de décider de manière concluante entre des hypothèses, des théories ou des techniques rivales, elle fonctionne à la manière des muses de l’Antiquité: il semblerait qu’elle nous souffle à l’oreille celles qui, parmi les alternatives, est la plus “raisonnable” ou la plus viable. (Notons qu’une intuition semblable n’existe pas pour déterminer les coûts des projets scientifiques). Il est clair que la muse ne peut se faire entendre par des oreilles sourdes. Quelle que soit sa forme, une intuition très développée n’est pas une faculté commune à toute l’espèce humaine, ni une caractéristique innée de quelques privilégiés, mais un produit de l’héritage, de l’observation, de l’apprentissage, de la pensée et de la faculté d’évaluation. Le bon sens n’est pas moins nécessaire pour concevoir des expériences que pour exercer le métier d’avocat. L’évaluation de l’efficacité d’une ligne de recherche, choisie pour atteindre un objectif déterminé, est complètement indépendante de celle de l’ingéniosité nécessaire pour la mise en œuvre d’une preuve empirique. Nous pouvons avoir formulé une prédiction à l’aide d’un énoncé de loi, et vouloir ensuite établir si cette
prédiction se réalisera, ceci dans le but de vérifier le dit énoncé de loi; mais par l’expérimentation, nous réalisons une nouvelle prédiction, c’està-dire une prédiction concernant la valeur du dispositif expérimental luimême. Il existe des critères et des règles empiriques pour évaluer les projets expérimentaux, mais il n’y a pas de loi qui nous permette de prédire le fonctionnement de l’expérimentation elle-même. Cette prédiction est dans une large mesure une question de phronesis, cette sagesse qui constitue la compensation de nos échecs. Le psychologue Frederic Barlett, en traitant de la question de l’adéquation des expérimentations, affirme qu’ “... il faut plus que de larges connaissances et qu’une pratique expérimentale satisfaisante pour pouvoir faire un bon pronostic (de ce type). Ces deux conditions doivent se combiner avec une disposition à prendre des risques et à avancer, en partant d’éléments de preuve qui ouvrent de nombreuses possibilités dans l’un des aspects de la direction choisie. La diversité des possibilités est un constituant essentiel de l’histoire, de sorte que les pronostics doivent toujours avoir une marge d’adaptabilité à la pratique; tout expérimentateur qui les suit en restant fidèle à leur esprit doit pouvoir déterminer à l’avance le moment de s’écarter d’une certaine ligne pour en suivre une autre. (...) Nonobstant tout ce que l’on peut dire sur l’étendue et l’exactitude des connaissances et de la pratique expérimentale, il semble bien que l’utilisation efficace de prédictions de ce type exige une grande sensibilité aux aspects positifs de la direction des mouvements scientifiques contemporains, du fait que ceux-ci se superposent généralement à des mouvements antérieurs dont ils découlent. L’auteur d’un pronostic ne peut pas, en général, émettre une opinion sur les possibilités qu’il annonce; toutefois, dans la mesure où il est capable de décider parmi plusieurs voies expérimentales lesquelles ont une chance de réussite, il doit pouvoir se prononcer aussi sur la valeur respective des prédictions. Nous déduisons ainsi que la capacité d’être les premiers à identifier les lignes de développement expérimental susceptibles de réussite, dépend des éléments de preuve; mais il n’est en aucun cas indispensable que la personne qui se sert de tels éléments de preuve puisse dire desquels il s’agit” 150. Le scientifique et le technicien développent graduellement un “flair” ou une capacité de “pénétration” concernant le choix des problèmes, les voies de recherche, les techniques et les hypothèses. Ce “flair” se perd par manque d’entraînement, par perte d’intérêt ou par une concentration
prolongée sur des tâches de routine ou des domaines trop restreints. (Ceci est une des raisons pour lesquelles il n’est pas bon de trop prolonger le travail sur un même problème). Mais la capacité d’évaluer des idées et des procédés n’est pas le monopole des scientifiques; au contraire, nous la trouvons dans les divers secteurs de la culture. La phronesis n’apparaît jamais indépendamment de l’expérience et de la raison; il s’agit là d’un des rares avantages de la vieillesse. 3. L’intuition, embryon incertain 3.1. Les intuitions et leurs mises à l’épreuve En définitive, il ne fait pas de doute que dans le travail scientifique interviennent des intuitions de différentes sortes, quoique celles-ci n’apparaissent pas dans la science constituée. Mais le chercheur, bien qu’il apprécie la force suggestive de l’intuition intellectuelle, sait également que celle-ci peut être dangereuse: en premier lieu, parce qu’elle manque de force démonstrative; en deuxième lieu, parce qu’à certains égards elle se confond avec le bon sens et que le bon sens est conservateur; et, finalement, parce qu’elle n’est jamais assez précise. Les hypothèses que l’on formule intuitivement devront être développées rationnellement, et ensuite mises à l’épreuve selon les procédés habituels. De la même manière, l’intuition peut suggérer les principaux maillons d’une chaîne déductive, mais elle ne remplace pas la démonstration rigoureuse, ou tout au moins la meilleure possible. Elle peut nous induire à préférer telle théorie ou technique par rapport à d’autres, mais un soupçon n’est pas une preuve. Le philosophe intuitionniste considère l’essentiel de son travail comme terminé une fois qu’il formule ce que bon lui semble avec ses “intuitions” (qui sont rarissimes mais dont il aime faire l’éloge, tout en dénonçant les limitations de la raison). Par contre, le scientifique n’utilise l’intuition que pour le début de son travail, car il sait par expérience que celle-ci n’est qu’un rudiment incertain. Le biologiste théorique transforme par exemple les idées intuitives du biologiste expérimental ou du biologiste de terrain en un modèle mathématique. De cette manière, il atteint une plus grande précision et une systématicité accrue et découvre des conséquences
inattendues. En mettant celles-ci à l’épreuve de l’observation ou de l’expérimentation, il met sur la sellette les idées intuitives qui ont servi de stimulus (mais pas de fondement) pour constituer une méthode théorique. Et quel que soit le résultat de cette confrontation empirique, les idées intuitives de base cessent d’être grossières: elles ont été formalisées. En science, on doit dans la plupart des cas valider objectivement les propositions et les procédés de preuve. L’accord recherché peut tarder, mais on le recherche, et il finit presque toujours par arriver, ne serait-ce que provisoirement, sur la base de critères objectifs préalablement admis. Par contre, si un “intuitif” a une intuition et un autre une intuition opposée, puisque toutes les deux ont la même valeur aux yeux de l’intuitionnisme philosophique, elles seront toutes les deux dispensées de tout test et la contradiction restera sans solution. On peut sans doute formuler une hypothèse ad hoc (et même y croire sincèrement) selon laquelle l’un des illuminés possède des qualités spéciales le rendant plus crédible que les autres. Sans le recours à un tel principe d’autorité – germe du Führerprinzip – les intuitionnistes manquent de tout moyen pour trancher entre des jugements contradictoires. On comprend donc que l’intuitionnisme est un serviteur fidèle de l’autoritarisme. Les scientifiques apprécient l’intuition, en particulier l’imagination créatrice, l’inférence catalytique et la phronesis, mais ils n’en dépendent pas. Ils savent que l’évidence psychologique n’est pas une garantie, qu’elle est hautement subjective et qu’elle nous joue fréquemment de mauvais tours. On a invoqué l’intuition en faveur d’affirmations comme: une série infinie ne peut pas avoir une somme finie XVII; il ne peut pas y avoir d’autre géométrie que celle d’Euclide; il n’y a pas de courbe sans tangente XVIII; l’ensembles des nombres entiers doit être deux fois plus grand que celui des entiers pairs. On a aussi fait appel à l’intuition pour appuyer des idées telles que: la longueur des corps ne peut pas dépendre de leur état de mouvement; l’espace et le temps sont complètement indépendants; rien ne peut se déplacer sans cause; il n’y a plus d’effet une fois que la cause cesse; il ne peut pas y avoir d’antipode, tout comme il ne peut pas exister de sociétés sans propriété privée, police, armée de métier ou religion. Ce qui caractérise la connaissance scientifique, outre son organisation logique et son exactitude, c’est la vérifiabilité et non pas l’évidence ou la certitude subjective, que l’on associe souvent avec l’intuition et qui recèlent si souvent des préjugés et des superstitions.
Le caractère intuitif ne constitue pas un critère pour construire et évaluer des théories scientifiques. Une théorie aisément intuitive est une théorie construite avec des idées familières et peut-être très faciles à visualiser. Une telle théorie est très probablement superficielle et simpliste et manquera de cette caractéristique indispensable pour toute nouvelle théorie: l’originalité. Par contre, nous avons le droit de demander que la présentation des théories soit “intuitive”, quel que soit leur degré d’abstraction, en ce sens qu’elle doit être en rapport avec notre bagage de connaissances. Mais il s’agit dans ce cas d’une exigence didactique et non pas scientifique ou métascientifique. En science, il faut distinguer l’évidence, ou certitude psychologique, de la crédibilité objective ou de la vraisemblance fondée. Les scientifiques savent qu’il n y a pas de découverte gnoséologiquement évidente, aussi claire et vraie qu’elle puisse paraître à première vue à un expert. Ils savent que l’intuition sensible peut être défectueuse, ou même complètement trompeuse, et ceci est une raison pour laquelle les données isolées, échappant au contrôle d’instruments et de théories, ne constituent pas les critères ultimes de la vérification empirique. Les scientifiques savent que les “natures simples” de Descartes, susceptibles d’être appréhendées une fois pour toutes, n’existent pas, de même que n’existe pas la “vision des essences” de Husserl nous dévoilant des essences pures, dont il faudrait commencer par démontrer l’existence elle-même. Les chercheurs savent, en somme, que la vérité n’est pas produite par la contemplation mais par l’imagination contrôlée et par le travail scientifique planifié, par la recherche impatiente et le patient essai des conjectures. Ils savent aussi que les propositions et les théories admises comme vraies à un moment déterminé, si elles portent sur des faits, sont corrigibles et perfectibles. En un mot, les scientifiques savent que l’on ne peut pas trouver, même au moyen de la méthode scientifique, d’évidence définitive ni de fondement inébranlable. En conséquence, ils ne rejoignent pas les philosophes intuitionnistes dans la recherche de fondements ultimes et de certitudes définitives. 3.2. “Intuitif” versus “Systématique” Le progrès de la science, aussi bien formelle que factuelle, a consisté en grande partie à affiner, à justifier ou même à éliminer les éléments
intuitifs figurant dans toutes les théories avant leur formalisation. Ce processus n’est pas réservé à l’analyse mathématique ni à la théorie des ensembles, où le raisonnement intuitif, qui utilise des analogies avec des ensembles finis, avait engendré certains paradoxes; il s’applique aussi à la géométrie et à la mécanique, disciplines qui étaient habituellement considérées comme intuitives. Lorsqu’on ne peut pas justifier une intuition, ou lorsqu’elle résiste aux tentatives d’éclaircissement, il faut l’éliminer ou la différer, précisément parce que l’intuition induit en erreur et masque les faits, tout comme les sens et l’induction. Couturat affirmait, à juste titre, que la prétendue “évidence” intuitive peut “dissimuler une erreur de raisonnement ou un postulat” 151. Dans le contexte de la philosophie analytique, on qualifie généralement d’intuitifs les concepts, propositions et démonstrations qui n’ont pas encore été mis au propre, que l’on n’a pas encore élucidés ou qui n’ont pas encore été reconstruits de manière exacte. C’est dans ce sens que Quine affirme: “par exposition intuitive, j’entends celle dans laquelle les termes sont utilisés dans les formes habituelles sans réfléchir sur la manière dont ils pourront être définis ou sur les présupposés qu’ils peuvent contenir” 152. Une telle manière de procéder – la manière la plus fréquente – peut être appelée sémantiquement intuitive. Mais il y a une autre manière de raisonner qui est syntaxiquement intuitive: il s’agit de celle qui saisit, plus au moins directement, certains rapports logiques, comme l’inclusion, la contradiction, l’implication logique et la transitivité. Nous disons ainsi: on “voit aisément” (ou il est “évident” ou “naturel”) que la relation d’antériorité est transitive, ou “n est divisible par 4” implique que “n est divisible par 2” et non vice versa 153. Mais il ne s’agit pas ici de facultés mystérieuses de l’âme; il s’agit simplement d’une affaire d’entraînement, et ceux qui ne l’ont pas eu ne comprendront même pas de quoi il est question. Les experts eux-mêmes ne sont pas à l’abri de raisonnements fallacieux élémentaires comme, par exemple, prendre l’implication simple “si p, alors q” pour la double implication “p si et seulement si q”. Les analyses logique et sémantique contribuent à l’élucidation (ou explication) 154 de termes grossiers, pré-analytiques ou intuitifs. Mais dans les sciences, ce travail de précision conceptuelle s’effectue presque automatiquement avec l’élaboration théorique; la théorification 155 d’un concept ou d’un énoncé est une manière plus répandue et probablement plus efficace de le préciser. Il est rare que le scientifique s’attarde sur la
construction d’une définition soigneuse d’un terme clé quelconque. La signification d’un terme scientifique est spécifiée plutôt par l’ensemble de tous les énoncés de loi dans lesquels il apparaît. Le langage ordinaire manque d’une technique permettant de décider si une proposition se déduit réellement d’une autre; nous nous satisfaisons d’une évaluation “intuitive”, qui peut être fausse. Le non sequitur, paré de ergo et d’autres termes de la même famille à profusion, constitue la broussaille la plus courante du langage ordinaire. Ce n’est qu’à l’aide des techniques symboliques que nous pouvons essayer légitimement de démontrer l’existence d’une relation de déductibilité. Dans ce cas nous pouvons arriver à des résultats contre-intuitifs, c’est-à-dire à des propositions qui contredisent le bon sens. N’oublions pas, toutefois, que l’élucidation se fait graduellement. Il y a différents niveaux d’analyse et différents degrés de précision dans les arguments, et il n’est pas prouvé que le processus d’affinement puisse trouver un terme, sauf si on laisse complètement de côté le concept en question ou même la norme d’inférence considérée. Ce qui est précis pour le mathématicien courant peut être intuitif pour le logicien. (Comme l’affirmait Bôcher, “dans le monde il y a et il y aura toujours de la place pour les bons mathématiciens de tous degrés de précision”156). Mais il arrive un moment où le processus d’affinement des concepts et des démonstrations satisfait nos standards de rigueur, standards qui peuvent varier. L’analyste du XVIIIe siècle se contentait de considérations “intuitives” sur les courbes engendrées par des points en mouvement et sur la croissance et la décroissance de processus physiques. Plus tard, l’arithmétisation de l’analyse a éliminé toute référence à des entités et processus physiques, présentes auparavant dans les définitions d’infinitésimal et de limite, et encore utilisées aujourd’hui dans une optique préliminaire ou intuitive, par exemple lorsque nous disons que 1/x2 “augmente” lorsque x tend vers 0, ou encore tend vers 0 “plus rapidement” que 1/x lorsqu’il “grandit”. (Puisqu’ils ne sont pas des objets physiques, les nombres ne peuvent ni grandir ni rétrécir). Qui connaît les standards de rigueur qui seront établis dans l’avenir et quelles techniques pourront les accroître? La foi des formalistes dans la formalisation totale des théories, et donc dans l’obtention définitive d’une rigueur absolue, s’est avérée une illusion aussi grande – mais plus fertile
cependant – que celle des intuitionnistes dans l’évidence des intuitions de base. 3.3. Le rôle de l’intuition en science Il est temps maintenant d’évaluer la fonction de l’intuition en science. L’histoire de la science est le protocole des réussites et des échecs de l’activité de connaissance, activité empirique, intuitive et rationnelle à plusieurs titres. Rien dans cette histoire ne permet de confirmer la présomption selon laquelle l’intuition intellectuelle, en tant que forme intermédiaire entre la sensibilité et la raison discursive, est supérieure à l’expérience ou à la pensée critique. Les intuitions, et même les perceptions globales, sont isolées entre elles; c’est la raison pour laquelle elles sont stériles en elles-mêmes. Dans le meilleur des cas, les intuitions peuvent être considérées, selon les termes d’un météorologiste distingué, comme des théories non formulées et non corroborées 157. Seules les théories formulées, les théories stricto sensu, c’est-à-dire les systèmes de propositions respectant une théorie logique déterminée, peuvent lier entre eux des concepts intuitifs et les perfectionner jusqu’à obtenir des concepts exacts et féconds. Ce n’est que dans le cadre des théories que les problèmes apparaissent liés, de sorte que la solution de l’un d’entre eux éclaire celle des autres et pose, par la même occasion, de nouveaux problèmes dans le domaine en question ou dans des domaines proches. Et ce n’est que dans le cadre des théories que la corroboration d’une proposition implique la confirmation ou la réfutation d’autres propositions. Une décision sur l’adéquation de n’importe quelle idée, même une décision provisoire, exige son développement analytique préalable; il s’agit là d’un procédé exclusivement rationnel. Or, si l’idée se rapporte au monde ou à nous-mêmes, elle exigera aussi des procédés empiriques. Aucune intuition échappant à l’un ou à l’autre de ces procédés, le rationnel ou l’empirique, ne sera féconde. En science, l’intuition est considérée, avec l’analogie et l’induction, comme un outil heuristique, un guide et un soutien du raisonnement. Selon les termes de Rey Pastor concernant la mathématique, l’intuition “nous fait deviner ou pressentir une multiplicité de propriétés que nous ne parviendrons pas à découvrir autrement. L’intuition nous sert de guide dans les démonstrations, en nous signalant le chemin que nous devons
suivre pour atteindre une parfaite rigueur. (Mais) dans la mathématique moderne, l’intuition est reléguée au rôle de guide, ne servant pas à démontrer quoi que ce soit, mais aidant à concevoir la démonstration rigoureuse” 158. En outre, l’intuition n’apparaît pas dans les débuts mêmes de la science dont l’origine psychologique est une insatisfaction de la raison ou un besoin pratique. L’intuition n’intervient pas non plus dans la présentation aboutie des théories. Finalement, l’intuition ne domine pas la logique dans la phase constructive; elle y est, au contraire, un aspect d’un processus complexe dans lequel la déduction et la critique sont au moins aussi importantes que l’inspiration. Tout comme les autres formes de connaissance et de raisonnement, les diverses formes d’intuition doivent être contrôlées pour être utiles. Encadrée par l’intuition sensible et la raison pure, l’intuition intellectuelle est féconde. Mais incontrôlée, elle conduit à la stérilité, comme le montre le cas des philosophes intuitionnistes auxquels l’humanité ne doit que des tirades sur les vertus de l’intuition et les péchés de la raison, mais aucune vérité, ne serait-ce que partielle, obtenue à l’aide des diverses intuitions philosophiques dont ils affirment l’existence sans en fournir de preuves. En somme, il serait absurde de nier l’existence des intuitions de divers types comme phénomènes psychiques intéressants. L’effet pervers que l’on obtient en ignorant leur existence tient à ce que plusieurs pseudosciences monopolisent des secteurs importants de la pensée. Une attitude constructive à l’égard du problème de l’intuition implique: a) d’analyser soigneusement les multiples significations du terme “intuition” et de ne pas en abuser; b) d’analyser empiriquement et théoriquement, dans le contexte de la psychologie de la science, ce composé singulier d’expérience et de raison; c) d’affiner les résultats de l’intuition en élaborant des concepts et des propositions qui précisent, contiennent et enrichissent les concepts intuitifs.
CONCLUSIONS Cet examen de l’intuition et de l’intuitionnisme suggère les conclusions suivantes: 1) L’intuition intellectuelle est soit une catégorie de phénomènes psychiques, intermédiaire entre l’intuition sensible et la raison, soit un phénomène qui relève de ces deux dimensions. Les divers types d’intuition se rattachent dans la même mesure à la psychologie de la connaissance, à la théorie de la connaissance et à la quête de l’inférence plausible (non démonstrative). Mais la simple existence de ce type de phénomènes pose des problèmes plutôt qu’elle ne les résout. Dire, par exemple, “on voit intuitivement que p” ou “on voit intuitivement que q se déduit de p” ne résout pas les questions de la vérification de p et de la validité de l’inférence; de plus, la question se pose de savoir pourquoi pour certaines personnes et dans des circonstances déterminées, certaines propositions et arguments deviennent intuitifs. L’existence d’intuitions de divers types n’implique pas l’existence d’une méthode pour obtenir directement des connaissances certaines. Elle n’autorise pas non plus à défendre une philosophie intuitionniste; de même, l’existence indiscutable et l’utilité de l’analogie et de l’induction n’impliquent pas, pour atteindre la vérité, l’existence d’une méthode analogique ou d’une méthode inductive conçues comme des ensembles de normes infaillibles et nettement établies. D’autre part, toute théorie est une construction rationnelle, et si nous voulons parvenir à une théorie adéquate de l’intuition, nous devons nous garder de recourir à des philosophies dénigrant la raison. Un intuitionniste cohérent se refusera à édifier une théorie convaincante de l’intuition; citons à titre d’exemple Le Roy, pour qui la notion d’ “intuition” est indéfinissable et pour qui, au moyen de l’intuition, nous n’obtenons que des intuitions 159. Un intuitionniste cohérent s’abstiendra d’analyser le mot “intuition” et d’étudier ses diverses significations; sa propre philosophie antianalytique l’empêchera de le faire. Attendre une théorie intuitionniste de l’intuition est aussi naïf qu’attendre une théorie mystique
de la communion mystique ou une théorie schizophrène de la schizophrénie. Et tant que nous ne disposons pas d’une théorie scientifique des divers types d’intuition intellectuelle, il serait préférable de rester sobres dans l’usage du mot “intuition” qui, comme l’aurait affirmé un philosophe du XVIIIe siècle, est le plus souvent le nom que nous donnons à notre ignorance. 2) L’intuition est féconde dans la mesure où elle est affinée et développée par la raison. Les produits de l’intuition sont grossiers au point d’être souvent inutilisables; il faut les élucider, les préciser, les compléter. L’ “éclair” intuitif, le pressentiment peuvent être intéressants s’ils proviennent de la tête d’un expert, si on les expurge ou si on les intègre dans une théorie, ou tout au moins dans un corpus de croyances fondées. C’est de cette manière que nos intuitions acquièrent clarté et envergure; devenues des concepts et des propositions, elles peuvent être soumises à l’analyse, on peut les développer et les rattacher logiquement à d’autres constructions conceptuelles. Les intuitions fécondes sont celles qui s’intègrent à un corpus de connaissances rationnelles et, de cette manière, cessent d’être des intuitions. Dans le développement historique de toute discipline, l’étape “intuitive”, ou pré-systématique, est la première. Mais ceci ne signifie pas que, dans le commencement de toute théorie, nous trouvions seulement des intuitions; ceci ne signifie pas non plus que celles-ci soient complètement effacées par la formalisation progressive de la théorie. En science il n’y a pas d’intuition sans logique, même s’il est vrai que parfois, certaines idées “viennent à l’esprit” dans un état de totale maturité 160; on peut douter du fait qu’il existe une pureté logique définitive (voir Le tiersexclu, chapitre II ). Comme dans le cas de l’hygiène, ce que l’on atteint à chaque étape se mesure d’après les normes en vigueur qui sont, en général, de plus en plus exigeantes. L’intuition diffère de la raison et, à moins de décider de réduire la distance entre elles, elles ne peuvent que s’entraver mutuellement: l’intuition inadéquate bloquera le raisonnement et, inversement, le raisonnement faux ou déplacé abîmera l’intuition juste. Cependant, l’intuition éduquée est raison, et la raison familière est intuitive. Le diagramme, par exemple, éclaire l’idée formelle, et tous deux se fondent dans la géométrie analytique qui unit la figure avec la formule algébrique. Autre exemple, il n’y a pas beaucoup de sens à appliquer la notion rigoureuse de limite pour démonter que 1/x tend vers zéro lorsque x tend
vers l’infini, si auparavant on n’a pas “vu” intuitivement qu’il en est ainsi. Troisième exemple, l’idée intuitive et globale est l’objet d’une analyse et d’un affinement lorsqu’on la traduit dans un programme informatique, puisque celui-ci ne “comprend” pas des idées globales et à moitié cuisinées. (Voir l’ouvrage de Seymour Papert, plaidoyer éloquent en faveur de l’utilisation de l’ordinateur à l’école pour franchir la distance entre intuition et raison). 3) La construction de théories abstraites entraîne l’élimination presque totale des éléments intuitifs. La prolifération de théories abstraites composées de signes manquant de signification précise, aussi bien en logique qu’en mathématique, montre la fécondité de la raison discursive, qui construit des structures pures comme les espaces purs et les groupes purs, c’est-à-dire des espaces et des groupes tout court et non pas des espaces et des groupes de quelque chose. Les éléments ou constituants de ces structures ne possèdent pas de “nature” déterminée, ce qui permet d’assigner à ces structures une pluralité d’interprétations a posteriori 161 . Ce qui est important pour ces théories, ce sont les rapports entre les éléments plutôt que les éléments eux-mêmes qui, tout en satisfaisant certaines conditions, demeurent totalement indéterminés. Néanmoins, ces structures pures ne sont pas construites intuitivement; on les construit, au contraire, en éliminant dans la mesure du possible leur contenu intuitif (arithmétique, géométrique ou cinématique), qui est en général celui des idées dans leur forme originale; on fait intervenir également des “principes” contre-intuitifs comme les relations d’isomorphisme ou de correspondance entre des couples d’éléments, ou les relations entre des ensembles hétérogènes. Ce n’est pas l’intuition, mais la raison pure, qui peut montrer l’ “essence” des diverses théories mathématiques abstraites, car même si cela peut paraître paradoxal ou anti-intuitif, c’est leur forme logique qui est essentielle. 4) Une élimination similaire des éléments intuitifs accompagne le perfectionnement des théories factuelles. Nous avons décrit plus haut ce que l’on pourrait nommer des théories sémantiquement abstraites, c’est-àdire des systèmes de signes non interprétés. Mais ces théories constituent une sous-classe d’une classe plus large, celle des théories gnoséologiquement abstraites, c’est-à-dire contenant des concepts très éloignés des données des sens ou des termes qui ne sont pas facilement visualisables. Toute théorie factuelle, dans la mesure où elle convertit les phénomènes donnés en problèmes à résoudre, tend à atteindre des degrés
de plus en plus élevés d’abstraction gnoséologique. En ce sens, le progrès de la science factuelle ressemble à celui de la mathématique: toutes deux deviennent de moins en moins intuitives. Il importe de mettre en relief le fait que l’abstraction gnoséologique n’implique pas nécessairement un manque de référence objective, c’est-àdire une abstraction sémantique. Les théories physiques, même affinées, sont toutes des systèmes interprétés (sémantiques); elles ne sont donc pas sémantiquement abstraites. Mais certaines d’entre elles sont plus complexes ou élaborées que d’autres et contiennent moins de concepts visualisables que les théories plus “concrètes”. Personne ne songerait à dire que la thermodynamique est une théorie sémantiquement abstraite parce que ses concepts fondamentaux (état, température, énergie, entropie) sont moins intuitifs, ou parce que tous ses diagrammes sont non-figuratifs, en ce sens qu’ils ne représentent pas le mouvement d’un système dans l’espace-temps. 5) L’évidence est une propriété psychologique des propositions et des raisonnements, et non une propriété logique des propositions et des inférences. En conséquence: a) bien que le phénomène de l’évidence ou de la clarté immédiate soit intéressant du point de vue psychologique et didactique, il est sans intérêt gnoséologiquement et logiquement; quels que soient les rapports qu’il entretient avec la reconnaissance et l’acceptation de la vérité, il n’intervient pas dans la démonstration de la vérité ni dans la construction d’une théorie de la vérité. Celles-ci doivent être indépendantes de considérations psychologiques et pragmatiques. b) il n’y a pas de critère objectif de l’évidence complète, de sorte que toute décision de considérer telle ou telle proposition comme évidente, et donc comme fondamentale ou élémentaire, est complètement arbitraire du point de vue logique 162. c) il y a des degrés d’évidence psychologique et de rigueur logique; certains arguments et propositions, qui sont évidents pour l’expert, seront tout simplement inintelligibles pour le profane, qui refusera ses standards de rigueur. d) il n’y a aucune justification pour continuer d’identifier “évident” catégorie psychologique) avec “axiomatique”(terme métalogique).
6) L’évidence n’est ni nécessaire ni suffisante pour la vérité d’une proposition, ni pour la validité d’une inférence. Qu’elle ne soit pas suffisante est prouvé empiriquement par l’abondance des absurdités que l’on a voulu faire passer pour des intuitions évidentes 163. Qu’elle ne soit pas nécessaire est démontré par le fait que la majeure partie des énoncés de haut niveau en science factuelle sont loin d’être évidents, y compris pour les chercheurs de domaines voisins. 7) Les prémisses de la science factuelle peuvent venir à l’esprit de différentes manières, mais il n’y a aucun moyen de les démontrer de façon concluante. L’analogie, l’induction, et peut-être aussi d’autres formes plausibles d’inférence, donnent lieu à des hypothèses, mais non à des vérités certaines. Ces suppositions devront, avant d’être acceptées, se soumettre à certaines vérifications théoriques et empiriques, après lesquelles elles resteront cependant provisoires. Si les hypothèses sont adoptées comme postulats d’une science factuelle, il est à peu près sûr qu’à long terme elles devront être corrigées ou encore complètement abandonnées; et si les présupposés relèvent de la science formelle, on ne doit pas exclure la possibilité de trouver par la suite des postulats plus féconds et plus larges. Quant à l’intuition intellectuelle, par exemple l’intuition physique ou géométrique, il n’y a pas de doute qu’elle possède une grande valeur heuristique, mais sa valeur de preuve est nulle, et elle ne fonctionne qu’au sein d’un corpus de connaissances déterminé. 8) La certitude ultime et les fondements inébranlables ne font pas partie des objectifs de la recherche scientifique, bien que rares soient les chercheurs qui résistent à l’ensorcellement de ce mirage. Le progrès de la connaissance ne consiste pas en l’élimination graduelle des doutes et parallèlement en l’établissement graduel de croyances; il consiste à poser de nouvelles interrogations, à reformuler d’anciens problèmes sous un angle nouveau, à fournir à ceux-ci des solutions provisoires à l’aide de théories plus générales et plus profondes, de techniques plus puissantes et plus précises, et de nouvelles questions. À la différence du dogme, la science produit, pour chaque doute qui est dissipé, plusieurs interrogations nouvelles. En conséquence, la recherche scientifique n’est ni fondamentaliste ni infaillibiliste (voir Sources de l’intuitionnisme aristotélicien, chapitre I ). 9) Le fait qu’en science des intuitions interviennent ne confirme pas l’intuitionnisme. La recherche scientifique n’est pas un tissu de “visions” ou de propositions exemptes d’analyse ou de vérification. Il est vrai que
les chercheurs créatifs ont des “révélation naturelles” ou “illuminations”, mais ceci n’arrive pas avant qu’ils ne trouvent, formulent et étudient un problème. Les présomptions, appréhensions globales et autres formes d’intuition résultent de l’analyse méticuleuse de problèmes, comme récompense d’une attention patiente et souvent obsessionnelle à leur égard (voir L’imagination créatrice, chapitre III ). Sans doute le simple fait de choisir et de formuler un problème scientifique ou philosophique exige une certaine dose de pénétration et de bon sens ou phronesis. Il n’est pas donné à tout le monde de percevoir les lacunes qui doivent être comblées, d’évaluer correctement leur importance et d’estimer la probabilité de les combler avec succès. Mais les chercheurs acquièrent ce “flair” après une longue expérience. La pénétration ne suffit d’ailleurs pas: la plupart du temps, il faut travailler durement pour poser le problème d’une manière convenable, c’est-à-dire de faire en sorte qu’il soit possible de rechercher une solution avec les moyens disponibles. Entre la reconnaissance d’un problème et sa solution, il y a, du point de vue psychologique, diverses étapes: l’étape propédeutique ou d’assimilation des connaissances pertinentes; la conception et la mise à l’épreuve de diverses hypothèses; la synthèse, qui semble résoudre le problème; et, finalement, la vérification de la conjecture. Au long de toutes ces étapes interviennent toutes les dispositions psychiques, y compris les divers types d’intuition. 10) L’intuitionnisme philosophique, anti-analytique et crédule, s’oppose à l’esprit scientifique, qui est essentiellement analytique et critique. En postulant sans fondement l’existence d’une voie extraordinaire de connaissance qui serait supérieure à l’expérience et à la raison, le philosophe intuitionniste économise l’analyse de l’expérience gnoséologique; en proclamant l’évidence du fait qu’il “appréhende” (ou plutôt qu’il élabore) intuitivement, il élude la critique. Dans les deux cas, il tue le problème de la connaissance au lieu de contribuer à le résoudre. Même l’intuitionnisme mathématique est philosophiquement naïf dans la mesure où il affirme l’existence de notions non analysables (c’est-à-dire ne pouvant pas être élucidées), celles qui sont données intuitivement. Lorsqu’il n’est pas une preuve de candeur – comme dans le cas de l’intuitionnisme modéré des rationalistes traditionnels – l’intuitionnisme
philosophique peut être une forme pathologique de rigidité mentale et d’arrogance, comme l’illustrent les cas de Husserl, Scheler et Heidegger. L’intuitionnisme arrogant et dogmatique, à la limite du messianisme, semble consister en un désordre psychiatrique plutôt qu’en une attitude philosophique. Seuls les mégalomanes ont le droit de croire qu’ils peuvent “appréhender” la vérité complète sans passer par le processus de l’expérience ordinaire et de la raison discursive; eux seuls sont persuadés du fait que leurs propres intuitions ou illuminations sont infaillibles. 11) L’intuitionnisme philosophique est, dans le meilleur des cas, stérile. Il n’a produit aucune nouvelle connaissance et il ne peut pas en produire, car il est a-critique et anti-théorique, et parce que l’intuition n’est pas un mode de connaissance indépendant. Les scientifiques comme les philosophes des sciences ne progressent pas avec des données sensibles, des intuitions ou des principes éternels, mais avec des problèmes, des solutions et des techniques de résolution que l’on peut expliciter. L’existence d’une faculté au moyen de laquelle on pourrait appréhender directement et de manière apodictique l’essence de n’importe quel objet ruinerait la notion même de problème. La science, loin d’entasser des intuitions (toujours vagues, isolées et incertaines), cherche des données et des problèmes en construisant des théories et des méthodes, et non pas en les “appréhendant”. La position d’un problème, le recueil des données, la construction de théories non spéculatives, la conception et le test des techniques, tout ceci est étouffé par l’intuitionnisme, qui possède un effet paralysant sur ce que l’on appelle les sciences de l’esprit, en particulier les sciences sociales. La raison en saute aux yeux: l’intuition du social se limite à l’expérimentation individuelle sur de petits groupes, comme la famille et la petite entreprise. Les groupes sociaux importants comme les grandes entreprises et les États sont des systèmes complexes, qu’il faut concevoir et, dans la mesure du possible, modéliser. L’intuition se trompe nécessairement en prétendant extrapoler à ces macro systèmes ce qui vaut pour les petits groupes 164. Pour cette raison, l’intuitionnisme philosophique a eu une influence négative sur les sciences sociales dans les pays où il a été la philosophie dominante. Confier un travail scientifique à un intuitionniste (qui, s’il est sincère, attend tout d’une vision introspective), serait aussi raisonnable que le confier à un médium ou à un voyant.
La recherche scientifique devient de plus en plus une démarche coopérative; elle est un travail social, même si on ne l’entreprend pas en équipe. La composante sociale de la recherche scientifique réside dans la le caractère public des problèmes, des techniques et des résultats (sauf exception aberrante), ainsi que de leur examen. L’intuitionnisme s’oppose à ce caractère social de la recherche scientifique puisqu’il considère chaque penseur comme une unité fermée, et fait passer l’ineffable et l’obscur avant ce qui est clair et communicable. 12) Dans le pire des cas, l’intuitionnisme philosophique est une variante dangereuse du dogmatisme. Dans le développement de l’individu comme dans l’évolution de la culture, le dogmatisme et l’acceptation a-critique de croyances arrivent en premier; le point de vue critique ne vient qu’en dernier. La croyance et sa propagation précèdent le doute et la preuve, qui constituent des traits de maturité. La connaissance critique, qui se caractérise par la prise de conscience des présupposés et de leurs limites ainsi que par l’exigence de vérification, n’existe pas chez les enfants de moins de six ans. Elle n’est pas très fréquente non plus dans la pensée quotidienne, dans la pensée policière ou militaire, dans la religion ou dans la philosophie spéculative. L’intuitionnisme est la plus dangereuse de toutes les variantes de la philosophie dogmatique parce qu’il ne respecte pas les instrument de preuve – la raison et l’action – admis par d’autres philosophies. Il est la seule philosophie qui s’autojustifie et qui ne nécessite ni arguments ni preuves. Produit de la paresse intellectuelle, de l’ignorance et de la superstition, enfant d’une confusion entre l’évidence psychologique et la certitude scientifique, résultat de l’insoutenable exigence fondamentaliste, du postulat infaillibiliste et du désir irréalisable de certitude définitive, l’intuitionnisme philosophique est une forme de dogmatisme beaucoup plus dangereuse pour la culture que le rationalisme aprioriste ou l’empirisme sensiste. Il mène directement à l’autoritarisme, à l’irrationalisme et au charlatanisme, qui sont les plus grands ennemis du progrès culturel. Les règles suivantes découlent de ce qui a été dit précédemment. – Le mot “intuition” doit être utilisé avec prudence et, dans la mesure du possible, il faut spécifier de quel type d’intuition on parle.
– Il faut utiliser de préférence l’intuition sensible et l’intuition intellectuelle, en perfectionnant, élargissant ou transcendant leurs productions à la lumière de la connaissance théorique. – Il ne faut craindre de remettre en cause aucune croyance, et on doit périodiquement réviser les intuitions les plus profondément enracinées. – Il faut attacher de la valeur à l’attitude expérimentale qui caractérise l’intuitionnisme mathématique, mais pas à sa naïveté gnoséologique ni à sa stratégie limitatrice. – Il faut regarder d’un regard froid et critique l’intuitionnisme philosophique qui est le plus grand ennemi de la raison et qui constitue une sorte de charlatanisme.
NOTES DE L’AUTEUR 1. Aristote, Organon, Seconds analytiques, Livre I, chap. 2. 2. Aristote, Organon, Seconds analytiques, Livre II, chap. 19, 100b. 3. Aristote, Organon, Seconds analytiques, Livre II, chap. 19, 100b. 4. Descartes, Règles pour la direction de l’esprit, III, œuvres, vol. II. 5. Descartes, Règles pour la direction de l’esprit, Règle III. 6. Descartes, Règles pour la direction de l’esprit, Règle III. 7. Descartes, Règles pour la direction de l’esprit, Règle XII. 8. Descartes, Règles pour la direction de l’esprit, Règles III et XII. 9. Descartes, Règles pour la direction de l’esprit, Règle II. 10. Descartes, Règles pour la direction de l’esprit, Règle XII. 11. Piaget, La Psychologie de l’Intelligence, p. 160. 12. Spinoza, Éthique, Deuxième partie, Proposition XL, Scolie II. 13. Spinoza, Éthique, Cinquième partie, Prop. XXV. 14. Spinoza, Éthique, Deuxième partie, Prop. XL, Scolie II. 15. Kant, Kritik der reinen Vernunft, B 35-36. 16. Kant, Kritik der reinen Vernunft, B 38. 17. Kant, Kritik der reinen Vernunft, B 46. 18. Battro, “Psicología, geometría y filosofía del espacio visual” (1979). 19. Kant, Kritik der reinen Vernunft, B 38. 20. Dilthey, Einleitung in die Geisteswissenchaften, Livre I, chap. XIV, vol. 1 de Gesammelte Werke, p. 91. 21. Dilthey, Einleitung in die Geisteswissenchaften, p. 32. 22. Dilthey, Einleitung in die Geisteswissenchaften, pp. 32-33. 23. Dilthey, Einleitung in die Geisteswissenchaften, p. 45. 24. Dilthey, Einleitung in die Geisteswissenchaften, p. 38.
25. Voir Bunge, La investigación científica, 2e édition (1984), chap. 9. 26. Voir James, A Pluralistic Universe (1909), conférence VI. 27. Bergson, Introduction à la métaphysique (1903), p. 4. 28. Bergson, L’évolution créatrice (1907), p. 150. 29. Bergson, L’évolution créatrice (1907), p. 178. 30. Bergson, “L’intuition philosophique” (1911). 31. Bergson, Introduction à la métaphysique (1903), p. 4. 32. Bergson, L’évolution créatrice (1907), p. 179. 33. Husserl, Ideeen zu einer reiner Phänomenologie und phänomenologischen Philosophie (1913), Livre I, chap. I, dans Husserliana, vol. III. 34. Husserl, Ideeen zu einer reiner phänomenologischen Philosophie (1913), §4.
Phänomenologie
und
35. Scheler, Der Formalismus in der Ethik und die materiale Wertethik (1916), pp. 69-70. 36. Scheler, Der Formalismus in der Ethik und die materiale Wertethik (1916), p. 70. 37. Husserl, op. cit., p. 43. Voir aussi Cartesianische Meditationen (1931), §§ 3, 5 et 6. 38. Husserl, Cartesianische Meditationen (1931), § 6. 39. Voir Zilsel, Phenomenology and Natural Science (1941); Margenau, Phenomenology and Physic (1944); et Bunge, La fenomenología y la ciencia (1951). 40. Husserl, Philosophie der Arithmetik (1891). 41. Toutefois, l’intention originale de Husserl était clairement antidogmatique. Il ne s’est pas rendu compte du fait qu’en refusant complètement le rationalisme et l’empirisme, et en embrassant le fondamentalisme dans la recherche de la certitude, il allait inaugurer un nouveau dogme. 42. Von Mises, Positivism (1951), p. 277. 43. Scheler, Der Formalismus in der Ethik und die materiale Wertethik (1916), passim. 44. Moore, Principia Ethica (1903), p. 77 et passim.
45. Pour une critique de la dichotomie fait-valeur, voir Bunge, Ética y ciencia (1960). 46. Voir Stern, Significado de la fenomenologia (1944), et “Max Scheler, filosofo de la guerra total y del estado totalitario” (1945). 47. Pour une tentative de fournir une justification théorique des énoncés de valeur et des normes éthiques, voir Bunge, Ética y ciencia (1960), et “Ethics as a Science” (1961). 48. Schlick, Allgemeine Erkenntnislehre (1925), pp. 76-77. 49. Rappelons la celèbre affirmation d’Einstein: “dans la mesure où les lois mathématiques se réfèrent à la réalité, elles ne sont pas certaines, et dans la mesure où elles sont certaines, elles ne se réfèrent pas à la réalité”; voir “Geometry and Experience” (1923), dans Readings in Philosophy of Science, Feigl and Brodbeck dir., p. 189. 50. Popper, The Logic of Scientific Discovery (1935, 1959), et “On the Sources of Our Knowledge” (1959). 51. Ewing, “Reason and Intuition” (1941), p. 25. Défendant l’existence de l’intuition et son rôle fondamental, Ewing affirmait que l’intuitionniste “doit abandonner la prétention à la certitude et à l’infaillibilité qui a été communément attribuée à l’intuition dans le passé”. 52. La thèse selon laquelle toute connaissance est, en dernière instance, subjective ou personnelle fut forgée et diffusée par Polanyi dans Personal Knowledge (1958). L’anarchisme gnoséologique, qui se résume dans la consigne anything goes (tout se vaut), a été exposé par Feyerabend dans Against Method (1975). Pour une critique du subjectivisme et de l’anarchisme gnoséologique et pour une défense du réalisme, voir Bunge, Treatise on Basic Philosophy, 5e et 6e tomes (1983). 53. Voir Kolnai, The War Against the West (1938), remarquable exposé de l’idéologie nazie et de ses antécédents philosophiques. 54. On peut trouver d’excellents exemples de constructions mathématiques anti-intuitives dans Rey Pastor, Introducción a la matemática superior (1916), et Hahn, The Crisis of Intuition (1933). Il faut observer toutefois que ces contre-exemples n’ont pas de conséquences sur l’intuitionnisme mathématique, proclamant l’existence d’une intuition pure (non sensible) et laissant de côté l’intuition géométrique. En conséquence, Hahn, op. cit., et Schlick, dans son Allgemeine Erkenntnislehre (1925), pp. 323 et ss., ne prouvent pas leur
thèse selon laquelle l’intuition pure, au sens kantien, n’est pas fiable (mais demeure cependant correcte), parce qu’ils citent seulement des exemples d’échec de l’intuition sensible en mathématique. 55. Le parallèle entre le logicisme et le réalisme (ou platonisme), entre le formalisme et le nominalisme (ou signisme), et entre l’intuitionnisme et le conceptualisme a été traité, entre autres, par Quine, From a Logical Point of View (1953), pp. 14-15. 56. Heyting, “Intuitionism in Mathematics” (1958). 57. Brouwer, “Intuitionism and Formalism” (1913). 58. Heyting, “Die intuitionistische Grundelgung der Mathematik” (1931), “La conception intuitionniste de la logique” (1965), et Intuitionism: An Introduction (1956); Bishop, Foundations of Constructive Analysis (1967); Dummett, Elements of Intuitionism (1977). 59. Von Neumann, “Die Formalistische Grundlegung der Mathematik” (1931). 60. La validité de la logique repose sur son bon fonctionnement en mathématiques et dans les sciences factuelles, et la validité de la mathématique consiste dans son obéissance aux lois logiques. Ceci ne constitue pas un cercle vicieux, mais un processus d’approximations successives, comme le signale Bôcher, “The Fundamental Conceptions and Methods of Mathematics” (1905). Voir aussi Goodman, Fact, Fiction and Forecast (1954). 61. Beth, “Semantic Construction of Intuitionistic Logic” (1956). 62. Hilbert, “Über das Unendliche” (1925). 63. Heyting, Intuitionism: An Introduction (1956), p. 89: “La caractéristique de la pensée mathématique est le fait que celle-ci ne fournit pas de vérités sur le monde extérieur; elle s’occupe seulement de constructions intellectuelles”. Par contre, Brouwer considère les lois mathématiques comme des lois de la nature; voir son “Intuitionism and Formalism” (1913). 64. Voir Carnap, Foundations of Logic and Mathematics (1939), et Bunge, La investigación científica (1983). 65. Heyting, Intuitionism: An Introduction (1956), p. 6. 66. Dieudonné, L’axiomatique dans les mathématiques modernes (1951), p. 51.
67. Baldus, Formalismus und Intuitionismus in derMathematik (1924), pp. 31-32. Les idées de Hilbert se trouvent dans son Grundlagen der Geometrie, appendices aux dernières éditions. 68. Hilbert, “Über das Unendliche” (1925). 69. Hilbert et Cohn-Vossen, Anschauliche Geometrie (1932). 70. Hilbert, “Über das Unendliche” (1925). 71. Ceux qui s’occupent d’objets abstraits atteignent une “intuition” de ceux-ci. Voir Dieudonné, op. cit. 72. Heyting, “Some Remarks on Intuitionism”, dans Heyting (dir.), Constructivity in Mathematics (1959), p. 70. 73. Bridgman, Reflections of a Physicist (1955), pp. 101 et ss. 74. Weyl, Philosophy of Mathematics and Natural Science (1926-1949), pp. 50-51. 75. Voir Andrzej Grzegorczyk, “Some Approaches to Constructive Analysis”, dans Heyting (dir.), Constructivity in Mathematics (1959), p. 43. 76. Heyting, “Some Remarks on Intuitionism”, dans Heyting (dir.), Constructivity in Mathematics (1959), p. 70. 77. Heyting, “La conception intuitionniste de la logique “(1956), p. 223. 78. Voir Black, The Nature of Mathematics (1933), p. 190. 79. Kant, Kritik der reinen Vernunft, pp. 741 et ss. 80. Weyl, Philosophy of Mathematics and Natural Science (1926-1949), p. 51. 81. Heyting, “Die intuitionistische Grundlegung der Mathematik” (1931), p. 113. 82. La constante d’Euler-Mascheroni peut se définir de diverses manières dont celle-ci: c est la limite lorsque n tend vers l’infini de la suite 1 +1/2 +1/3+... +1/n – Ln(n), où Ln désigne le logarithme népérien (à base e); elle est environ égale à 0, 57721566... 83. En d’autres termes, nous proposons de considérer la fonction de vérité, attribuant des valeurs de vérité aux propositions, comme une fonction partielle (qui n’est pas définie pour les propositions non encore mises à l’épreuve). Voir notre Treatise on Basic Philosophy, vol. 2, chap. 8 (1974).
Pour ma défense de la distinction entre la vérité et la connaissance de la vérité, cf. Baylis, “Are Some Propositions Neither True Nor False?” (1936). 84. Heyting, “La conception intuitionniste de la logique” (1956), p. 288. 85. Voir Bunge, The Myth of Simplicity (1963), chap. 8, et Treatise on Basic Philosophy, vol. 2 (1974), chap. 8, où sont exposées deux théories mathématiques de la vérité partielle, bien entendu toutes deux défectueuses. 86. Nagel et Newman, Gödel’s Proof (1958), p. 101. 87. Voir Courant et Robbins, What is Mathematics? (1941). 88. Hilbert, Grundlagen der Geometrie, Appendice VI (1900). 89. Dieudonné, L’axiomatique dans les mathématiques modernes (1951), pp. 47-48. 90. Heyting, Intuitionism: An Introduction (1956), p. 102. Le caractère ambigu et vague des signes, y compris des signes logiques élémentaires comme le “non”, a été signalé par l’éminent logicien B. Russell dans “Vagueness” (1923). Mais la conséquence signalée par Heyting ne semble pas avoir été prise en compte. 91. Voir Carnap “Die logizistische Grundlegung der Mathematik” (1931). 92. Waissmann, Introduction to Mathematical Thinking (1951), p. 196. 93. Curry, Outlines of a Formalist Philosophy of Mathematics (1951), p. 61. 94. Voir Suppes, To Logic (1957), p. 41. 95. Heyting, Intuitionism: An Introduction (1956), p. VIII. 96. Heyting, Intuitionism: An Introduction (1956), p. 102. 97. Bishop, Foundations of constructive Analysis (1967). 98. Voir Wilder, The foundations of Mathematics (1932), pp. 246-247. 99. Tarski, Logic, Semantics, Metamathematics (1956), chap. XVII. 100. Black, The Nature of Mathematics (1956), section 3, insiste particulièrement sur ce point, mais il néglige la naïveté de la psychologie du travail mathématique, qui fut entrevue par les intuitionnistes. 101. Voir Struik, “Mathematics”, dans Sellars, Mc Gill et Farber (dir.), Philosophy for the Future (1949).
102. Voir Dewey, Essays in Experimental Logic (1916). 103. Bôcher, “The Fundamental Conceptions and Methods of Mathematics” (1905), et Denjoy, “Rapport général” (1949). Ce dernier constitue une attaque particulièrement violente contre le formalisme bourbakiste. La critique des bourbakistes ne fut pas moins virulente; on en trouve le témoignage dans les doléances de Weil dans “L’Avenir des mathématiques” (1948), p. 318, au sujet de l’état des mathématiques modernes vers le milieu du siècle en France, où “l’extrême rigidité d’un mandarinat, fondé sur des institutions académiques anachroniques, condamne à l’échec toute tentative rénovatrice, sauf si elle est purement verbale”. Les mathématiciens post bourbakistes, et particulièrement ceux qui se consacrent à la logique et aux fondements des mathématiques, se plaignent du fait qu’une fois arrivés au pouvoir, les anciens révolutionnaires se sont érigés en nouveaux mandarins, entravant le progrès des mathématiques par de nouvelles voies. 104. Heyting, Intuitionism: An Introduction (1956), p. 13. 105. Freudenthal, “Le développement de la notion d’espace depuis Kant” (1959), p. 8. 106. Le professeur Heyting a manifesté son accord avec cette conclusion dans une conversation avec l’auteur en 1960. 107. Contre cette distorsion, voir les protestations de Bernard, Introduction à l’étude de la médecine expérimentale (1865), pp. 85-86; Bôcher, “The Fundamental Conceptions and Methods of Mathematics”(1905); Klein, Elementarmathematik vom höherem Standpunkte aus (1911-14), I; Poincare, Science et méthode (1908), livre I, chap. III; Polya, Mathematics and Plausible Reasoning (1954) – œuvre complète et admirable destinée à détruire le mythe selon lequel la déduction suffit en mathématique. 108. La plus vigoureuse mise en accusation de l’inductivisme se trouve dans Popper, The logic of Scientific Discovery (1935, 1959). 109. Dans La valeur de la science (1906), pp. 20 ss., Poincaré distinguait quatre classes d’intuition: a) l’appel aux sens et à l’imagination (cette dernière étant fondamentalement la capacité de représentation visuelle); b) la généralisation inductive; c) l’intuition du nombre pur susceptible de donner le principe de l’induction mathématique, principe qui, disons-le en passant, peut être démontré; d) la vision d’ensemble.
110. Voir Schlick, Allgemeine Erkenntnislehere (1925), p. 77. 111. Russel, Mysticisms and Logic (1918), chap. X. 112. Reichenbach, The Philosophy of Space and Time (1928, 1958), p. 107. 113. Pour un examen des diverses interprétations hétérodoxes de la mécanique quantique ayant été proposées dans les dernières années, voir Bunge, Metascientific Queries (1959), chap. IX. Pour une interprétation réaliste, voir Bunge, Foundations of Physics (1967); Filosofía de la Física (1978), et Controversias en Física (1983). 114. Cette interprétation des graphiques de Feynman est défendue dans Bunge, Metascientific Queries (1959), note 7. 115. Frank, Modern Science and its Philosophy (1949), p. 148. 116. Bartlett, “The Relevance of Visual Imagery to the Process of Thinking” (1927), p. 29. 117. Hadamard, La Psychologie de l’Invention dans les Mathématiques (1945), chap. VI. 118. Pour une critique des abus de la métaphore dans la littérature cybernétique, voir Bunge, Metascienific Queries (1959), pp. 148 et ss. L’abus des analogies en mécanique quantique est critiqué dans Bunge, Filosofía de la Física (1978), chap. 6. 119. Pederson-Krag, “The Use of Metaphor in Analytic Thinking” (1956), où l’on affirme que la psychologie nécessite l’expression analogique. 120. Le rôle de l’imagination dans la programmation d’expériences fut souligné par March dans Erkenntnis und Irrtum (1905), chap. IX. 121. Voir l’âpre polémique de Borel contre Couturat dans “Logique et intuition en mathématiques” (1907). Ce fut en partie un dialogue de sourds, parce que Borel défendait l’intuition sensible, alors que Coutourat s’attaquait fondamentalement à l’intuition métaphysique de Bergson 122. Par exemple, Wertheimer, dans Productive Thinking (1945), consacre tout le chapitre VII à la genèse de la théorie spéciale de la relativité d’Einstein, sans dire quoi que ce soit que l’on ne puisse trouver dans une bonne histoire de la science. 123. Ceci constitue l’un des principaux arguments de Peirce contre l’intuitionnisme dans “Questions concerning certain faculties claimed for Man” (1868), reproduit dans Values in a Universe of Chance. Le point de
vue opposé, selon lequel il y a des ruptures radicales ou des révolutions qui effacent le passé, est défendu par Kuhn dans sa célèbre Structure des révolutions scientifiques (1962). Voir une critique de cette thèse catastrophique et une défense de l’évolutionnisme dans Bunge, Treatise on Basic Philosophy (1983), 6e tome, chap. 15, et dans Racionalidad y Realismo (1985). 124. Cette thèse est défendue par Springett, Dark et Clake dans: “An aproach to the measurement of Creative Thinking” (1957). 125. Freud, A General Introduction to Psychoanalysis (1924), p. 305. 126. Taylor, Berry et Block, “Does group participation when using Brainstorming facilitate or Inhibit Creative Thinking?” (1958). 127. Apud Libby, “The Scientific Imagination” (1922). Voir aussi le livre de Selye, découvreur du stress physiologique, From Dream to Discovery (1964). 128. Un psychologue pourrait dire que l’imagination scientifique s’ajuste à la réalité, tandis que l’imagination non scientifique est autiste. Cf. McKellar, Imagination and Thinking (1957). 129. Couturat, “Logistique et Intuition” (1913), p. 266. Voir aussi le livre du Prix Nobel Yukawa, Creativity and Intuition (1973), en particulier le chapitre III sur la créativité et l’originalité. 130. Dans Foundations of Neuropsychiatry de Cobb (1952), p. 250, nous trouvons la définition suivante: “L’intuition peut être définie comme le raisonnement qui part des prémisses et suit des processus qui sont ensuite oubliés. Ceci est un exemple extrême de ce qui arrive dans la plupart des raisonnements”. 131. Couturat, op. cit., p. 267. 132. Pour une discussion du concept de systématicité conceptuelle, voir Bunge, “The Weight of Simplicity in the Construction and Asaying of Scientific Theories” (1961), section 1. 2, La investigación científica (1983), chap. 7. 133. Hadamard, The Psychology of Invention in the Mathematical Field (1945), pp. 65-66. 134. On peut obtenir un aperçu de la rareté des études dans ce domaine en examinant les Psychological Abstracts, index de référence internationale. La section sur “Pensée et Imagination” est l’une des plus brèves. Entre les
années 1957 et 1959 ont été enregistrés un total de 26.416 livres et articles, parmi lesquels seulement 277, c’est- à-dire environ 1 %,traitaient de cette question. Si nous considérons seulement les travaux strictement scientifiques, c’est-à-dire si nous ne tenons pas compte des articles littéraires et des interprétations oniriques arbitraires, le pourcentage est encore plus faible. 135. Les études de Poincaré, Science et méthode (1908), Livre I, chap. III; Hadamard, The Psychology of Invention in the Mathematical Field (1945); Platt et Baker, “The Relation of the Scientific Hunch to Research” (1931); Cannon, The Way of an Investigator (1945); Dubos, Louis Pasteur (1950);Bartlett, Thinking: An Experimental and Social Study (1958); Skinner, “A Case History in Scientific Method”, dans Koch (dir.), Psychology: A Study of a Science (1959), vol. II; Medawar, Induction and Intuition in Scientific Thought (1969); Mikulinskij et Jarosevskij, “Psychologie des wissenschaftlichen Schaffens und Wissenschaftslehre” (1970). 136. Bernard, Introduction à l’étude de la médecine expérimentale (1865), p. 66. 137. Platt et Baker, “The Relation of the Scientific Hunch to research” (1931). Pour des études plus récentes, voir Martindale, Cognition and Consciousness (1981), et Gilhooly, Thinking (1981). 138. Voir Bunge, La causalidad (1961), chap. 1, section 1. 5. 2. 139. Osgood, Method and Theory in Experimental Psychology, (1953), p. 613. 140. Whewell, Novum Organum Renovatum (1858), p. 59. Pour une défense de Whewell, voir Schiller: “Hypotheses”,dans Singer (dir.), Studies in the History and Method of Science (1921), pp. 426 et ss. Schiller corrige à juste titre: au lieu de dire l’hypothèse correcte, nous devrons dire la meilleure. 141. Poincaré, La valeur de la science (1906). Cette lapalissade est ignorée aussi bien par les positivistes, seulement attentifs au processus de vérification, que par Popper et ses continuateurs, qui sont seulement préoccupés par la critique des hypothèses et abandonnent la recherche de leurs origines (tout comme les positivistes) entre les mains des psychologues. 142. Whewell, History of Inductive Sciences (1858), I, p. 45.
143. Whewell, Novum Organum Renovatum (1858), p. 65. 144. Diesel, Die Entstehung des Dieselmotors (1913), dans Klemm, A History of Western Technology (1959), p. 342. 145. Diesel, Die Entstehung des Dieselmotors (1913), dans Klemm, A History of Western Technology (1959), pp. 342-46. 146. Voir Bartlett, Thinking: An Experimental and Social Study (1958), p. 65. 147. Voir Beth “Cogito ergo sum, raisonnement ou intuition?” (1958). 148. Dans sa lutte néfaste contre la logique moderne, Poincaré eut la faiblesse de reconnaître que celle-ci constituait un “instrument de recherche”. En réalité, une démonstration rigoureuse sans une vision globale et préalable du processusest rare, de même qu’il n’y a pas d’invention étrangère aux rapports logiques; l’étincelle ne surgit pas dans le vide. 149. Même les preuves dites sans prémisses, que l’on trouve dans le domaine de la logique, exigent la nécessité de trouver les prémisses adéquates de la proposition que l’on doit prouver. On devrait plutôt les appeler “des preuves sans autres prémisses que celles fournies par le demonstrandum”. Par exemple, pour prouver “(∃ x) F(x) (x) F(x)” nous pouvons choisir comme prémisses l’antécédent et la négation du conséquent de cette même implication. 150. Bartlett, Thinking: An Experimental and Social Study (1958), pp. 156-57. 151. Couturat, Les principes des mathématiques (1905), p. 288. 152. Quine, Word and Object (1960), p. 36. 153. Voir Pap, The Elements of Analytic Philosophy (1949), p. 468. 154. Le terme “explication” fut introduit dans ce sens par Whewell dans le Novum Organum Renovatum (1858), p. 30, et a été réintroduit indépendamment par Carnap dans Logical Foundations of Probability, (1950), chap. I. 155. Le néologisme théorification, qui désigne l’incorporation d’une hypotèse à une théorie ou son élargissement en une théorie, est introduit et précisé dansBunge, “The Place of Induction in Science” (1960). 156. Bôcher, “The Fundamental Conceptions and Methods of Mathematics” (1905), p. 135.
157. Eady, “Climate”, dans bates (dir.), The Earth and its Atmosphere (1957), p. 64. 158. Rey Pastor, Introducción a la matemática superior (1916), p. 64. 159. Le Roy, La pensée intuitive (1929), vol. I, pp. 147-8. 160. Voir Weill, “L’avenir des mathématiques”, dans Le Lionnais (dir.), Les grands courants de la pensée mathématique (1948), p. 317. 161. Pour une caractérisation de la notion de structure mathématique, voir Bourbaki, “L’architecture des mathématiques”, dans Le Lionnais (dir.), Les grands courants de la pensée mathématique (1948). 162. On raconte que le grand mathématicien anglais Hardy affirma au cours d’une de ses leçons qu’un certain lemme était évident. Lorsque l’un des étudiants présents osa affirmer que ça ne l’était pas pour lui, Hardy s’excusa et sortit de la salle. Au bout d’un quart d’heure, il rentra dans la salle et affirma sans ambages: “le lemme est évident”. 163. Pour l’examen de nombreuses croyances semblables, voir Evans, The Natural History of Nonsense (1946). 164. Voir J. W. Forrester, “Counterintuitive behavior of social systems” (1971).
NOTES DE L’ÉDITEUR I. Ici ds2 représente la somme dx12 + dx22 +..., c’est-à-dire le carré d’une longueur élémentaire; cette formule permet de calculer des longueurs sur une surface ou tout autre objet géométrique où on peut établir une telle relation. II. Il s’agit de théories non intuitives, qui ne peuvent pas se résumer dans le langage ordinaire. D’autres exemples en sont les explications des réactions chimiques, de la désintégration radioactive, de la chute de l’empire soviétique, etc. III. Les nombres décimaux, c’est-à-dire, les nombres réels qui peuvent s’écrire sous la forme d’un nombre entier, suivi, éventuellement d’une virgule et d’un nombre fini de chiffres après la virgule (les décimales) forment tout comme les entiers un ensemble infini (il y en a évidemment plus que d’entiers), mais, à la différence des entiers qui semblent “bien ordonnés “,rangés l’un près de l’autre, formant une “file indienne “infinie, les décimaux forment un ensemble “tassé sur lui-même “, de telle sorte que l’on ne peut pas les considérer comme rangés en “file indienne “. En effet, si l’on considère deux nombres décimaux qui nous semblent très proches, comme par exemple 1 et 0,9, on peut découvrir qu’il y a entre eux une infinité d’autres décimaux, comme 0,91 puis 0,911, puis 0,9111... Ceci ne signifie pourtant pas que l’ensemble des décimaux possède plus d’éléments que celui des entiers; en fait il existe une autre manière de classer les décimaux qui permettrait de les concevoir comme alignés “en file indienne”. Par contre les ensembles qui sont infinis nondénombrables, par exemple, l’ensemble des réels, ne peuvent pas être “classés” ainsi. C’est en fait sur cette propriété que se fonde l’idée de la démonstration de Cantor. Cf. aussi démonstration de Cantor. IV. A priori une courbe se conçoit comme une ligne sans épaisseur et l’espace, ici le plan, comme un ensemble de dimension deux. Pourtant Peano et Hilbert ont fourni des exemples de courbes qui “remplissent un carré”. Ces deux mathématiciens firent leurs découvertes presque de manière concomitante (1890 et 1891).
Bien sûr, la démarche suivie ne pouvait être traditionnelle: au lieu de définir une fonction dont la courbe serait la représentation graphique, il propose une construction progressive de la courbe, comme une fractale, par retouches successives, dont la courbe recherchée est le résultat “à l’infini”. V. On connaît assez le ruban de Möbius qui est une surface qui n’a ni intérieur, ni extérieur; les enfants apprennent rapidement à construire ce ruban à l’aide d’une bande de papier, coupée puis recollée après un demitour en l’air, de telle sorte que l’ex-intérieur et l’ex-extérieur se “suivent”: un doigt qui court sur l’intérieur se retrouve à mi-course à l’extérieur, puis à nouveau à l’intérieur. VI. Il est surprenant a priori qu’un segment, intervalle sans épaisseur marqué sur une droite, et un carré dont l’épaisseur ne fait aucun doute, puissent être mis en relation au moyen d’une bijection; c’est pourtant ce que réalise par exemple la courbe qui remplit un carré, évoquée dans le texte. VII. Par exemple, il est légitime de supposer que la logique aristotélicienne est née grâce aux mathématiques et au droit naissant, lequel, à son tour, ne se serait pas développé sans les premières institutions démocratiques, comme les assemblées et les tribunaux. Et nous savons aussi que la logique moderne fut bâtie par des mathématiciens intéressés par la philosophie. VIII. Épistémologue argentin contemporain. IX. Un théorème dû à Gauss montre que les équations algébriques se divisent en deux catégories, celles de degré inférieur ou égal à 4, pour lesquelles existent des algorithmes de résolution exacte, du même genre que les fameuses formules que les lycéens apprennent pour résoudre l’équation du second degré, et celles de degré supérieur à 4, pour lesquelles il n’existe pas de formules de ce type; certaines équations, exceptionnellement simples, peuvent être résolues par des méthodes spécifiques, mais pour la plupart d’entre elles il n’y a pas de méthode, ni de résolution. Les “pauvres algorithmes” dont parle M. Bunge sont des algorithmes numériques, c’est-à-dire des algorithmes approchés, sans plus. X. Au cours des âges la géométrie a été amenée à résoudre de nombreux problèmes de construction d’ensembles ou de points admettant des propriétés spécifiques. Les anciens avaient développé à cette fin diverses méthodes, allant de la simple géométrie (constructions de droites et de
cercles, intersections de droites et de droites, de droites et de cercles, de cercles et de cercles) à la mécanique, c’est-à-dire des méthodes consistant en des mouvements d’objets, spirales, hélices, surfaces... Mais le statut des constructions mécaniques, qui consiste à imaginer des mouvements de points sur des courbes ou des surfaces, dont il est possible de parler mais qu’il est impossible de construire de manière parfaite, ne pouvait être le même que celui des constructions parfaites comme la droite ou le cercle, fondées l’une sur la conservation de la direction, l’autre sur celle de la distance. D’où l’apparition en géométrie de l’exigence de constructions réalisées uniquement au moyen de la règle (la droite) et du compas (le cercle). XI. Ceci est en effet arrivé aux États-Unis d’Amérique. XII. Exemple de ces systèmes: la logique intuitionniste. axiomes de la logique intuitionniste: A1: A (BA) A2: (A((BC)) (((AB) (AC)) A3: Modus ponens (séparation) MP Démonstration de AA 1. (A((AA) ((A(AA) (AA) Exemple de A2 2. A(((AA) A) Exemple de A1 3. (A((AA)) (AA) De 1 et 2 et MP4. A((AA) Par A1 5. AA Par 3,4 et MP Par contre en logique classique: 1. A v ~ A (théorème du tiers exclu) 2. AB =~A v B (par définition) 3. AA Par 1 et 2 XIII. La mathématique classique connaît de nombreux résultats d’ “existence”, qui affirment que, dans tel ou tel cas, il existe forcément un élément qui possède telle propriété, sans pouvoir exactement affirmer lequel, ni donner de formule de calcul qui le détermine; de telles affirmations sont vides de sens pour la mathématique intuitionniste pour laquelle on ne peut dire “a ou b est vrai” que lorsqu’on est sûr que a est vraie ou que b est vraie et qui ne connaît pas de cas intermédiaire qui consisterait à dire que l’on sait déjà que l’une des deux propositions est vraie et qu’il ne resterait éventuellement plus qu’à déterminer laquelle.
XIV. Pour élargir ce point on pourra voir Le système de Descartes de Octave Hamelin, éditions Vigdor, le chapitre XX de l’œuvre de Hamelin, consacré à la physique de Descartes. XV. Il s’agit de Wolfgang Pauli. XVI. La prémisse cachée de cet enthymème étant: “Je me réjouis lorsque Un-tel se trompe”. XVII. Étant donnée une famille infinie (dénombrable) de nombres (entiers, réels, complexes...) que l’on désignera par (x0,x1,x2,...), il est impossible d’en effectuer la somme, car le processus d’addition, qui se décomposerait en une infinité d’additions de deux termes entre eux, n’aboutira jamais; on convient alors d’appeler “somme” de cette série (de nombres) la limite, si elle existe, de la suite des sommes progressives: x0,x0+x1,x0+x1+x2,... Il s’agit donc d’une convention permettant de proposer un sens à une somme d’une infinité de termes, qui jusque là n’avait pas de sens. Ainsi la somme de la série 0+0+0+0+... est trivialement égale à 0 tandis que la série 1+1+1+... n’a pas de somme (on dit éventuellement que sa somme est infinie) ou est “divergente”. La plupart des cas sont bien entendu plus complexes. L’idée de série ou de somme infinie se trouve déjà dans le fameux “paradoxe d’Achille et la tortue” de Zénon; il s’agit de la série 1+1/2+1/4+... qui a pour somme 2. La notion exacte (ou actuelle) de série date de la fin du XVIIIe siècle (Gauss, Cauchy, Fourier, etc.) et a été précédée par des errements célèbres (par exemple la série 1+(-1)+... +(-1)+... a donné lieu à bien des bizarreries: on lui a parfois attribué pour somme 0 ou ½). Quelques exemples: 1+1/2+1/4+... =2 1+1/2+1/3+1/4+1/5... a une somme infinie (ou tend vers l’infini). XVIII. On appelle tangente en un point M d’une courbe (C) la position limite, si elle existe, d’une droite qui passe par M et par un autre point P de (C), lorsque le deuxième point P tend vers M en suivant la courbe (C). Visuellement la tangente à (C) en M est la droite la plus “proche” de (C) au voisinage de M, tandis que mathématiquement la tangente en M est la droite passant par M et dont la direction se calcule au moyen de la dérivée.
En général, une courbe possède une tangente en la plupart de ses points. Cependant, Weierstrass, Van der Waerden, etc., ont construit des courbes continues sur un intervalle qui ne possèdent en aucun point de tangente. Ces exemples se rattachent en fait à des courbes dont le contour serait une fractale.
GLOSSAIRE abstrait: un terme est gnoséologiquement abstrait lorsqu’il ne désigne pas un objet sensible, par exemple “nombre” ou “dialectique”. Un terme est sémantiquement abstrait s’il manque de signification précise, par exemple les termes de la théorie abstraite des groupes. accélération: notion relevant de la mécanique; l’accélération d’un objet en mouvement, entre les instants t1 et t2, est le quotient de la variation de vitesse v(t2) -v(t1) par le temps écoulé t2 -t1. Un mouvement d’accélération nulle est donc un mouvement dont la direction et la vitesse sont constantes. On parle aussi d’accélération instantanée; dans ce cas l’accélération instantanée en l’instant t1 est la limite de ce quotient lorsque t2 tend vers t1. En termes mathématiques, on dira que l’accélération instantanée est la dérivée de la vitesse instantanée ou, si l’on préfère, la dérivée seconde de la position par rapport au temps. La notation utilisée est d2s/dt2. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. algèbre, analyse, géométrie: une division élémentaire des mathématiques les partage en algèbre, analyse et géométrie. Ainsi l’algèbre se consacre à l’étude d’ensembles, munis de structures opératoires (comme l’addition, la concaténation...), l’analyse étudie les fonctions et leurs variations, la géométrie porte sur les configurations de points ou d’éléments d’un ensemble. Les développements de la mathématique ont enrichi les centres d’intérêt de ces trois branches et créé de nouveaux domaines, les ramifiant ou les combinant (topologie algébrique, espaces fonctionnels, géométrie algébrique, d’une part, algèbre géométrique d’autre part). Aujourd’hui, il n’est pas toujours simple de préciser à quel domaine appartient tel ou tel secteur de travail ou de recherche. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978
algorithme: suite d’opérations à effectuer pour résoudre une classe particulière de problèmes, par exemple pour résoudre une équation ou calculer un nombre ou une valeur d’une fonction. Ainsi la division entière (ou algorithme d’Euclide), la méthode classique d’extraction des racines carrées... Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 allégorie de la caverne: afin d’illustrer et d’expliciter la démarche de la connaissance, Platon utilise dans le livre VII de La République, l’image que voici: les hommes sont comparables à des prisonniers enchaînés au fond d’une caverne, tournant le dos à la lumière. Derrière eux, il y a un feu allumé dont ils sont séparés par une route escarpée; par cette route et derrière un mur circulent d’autres hommes libres qui portent toutes sortes d’objets, qu’ils laissent dépasser du mur et dont les prisonniers n’aperçoivent donc que les ombres; mais les prisonniers, ne percevant que ces ombres, prennent celles-ci pour la réalité elle-même. Cette image illustre notre propre condition; la caverne est notre monde des perceptions, que nous prenons pour des connaissances, alors que la vraie connaissance se trouve à l’extérieur, c’est-à-dire dans un monde intelligible. Pour accéder à celui-ci, les hommes doivent donc commencer par se libérer de leurs chaînes, c’est-à-dire de leurs préjugés, et pouvoir percevoir les vrais objets éclairés par la lumière du jour pour contempler finalement la source même de cette lumière: le soleil, c’est-à-dire l’idée du Bien, fondement de toutes choses et de leur connaissances. Pur élargir: J. Brun, Platon et l’Académie, Paris, PUF, 1960. analogie: dans son sens le plus général, il s’agit de la ressemblance d’une chose avec une autre. Plus précisément, c’est la corrélation entre les termes de deux ou plusieurs systèmes, c’est-à-dire l’existence d’un rapport entre chaque terme d’un système et chaque terme de l’autre. En tant que raisonnement, il s’agit d’une forme d’induction; on tire une conclusion concernant un fait ou un phénomène de sa ressemblance avec un autre. Il s’agit donc de conclusions qui ne pourront avoir de valeur scientifique qu’après avoir réussi l’épreuve des tests empiriques. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
analyse pragmatique: branche de la sémiotique qui s’occupe de l’utilisation des termes et des circonstances et motifs de leur emploi. On peut dire pragmatique tout court. Voir pragmatique. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. anthropologie: du grec anthrôpos, homme, et logos, science. On peut distinguer une anthropologie scientifique et une anthropologie philosophique. L’anthropologie scientifique étudie l’homme en tant qu’entité biologique, relativement aux autres êtres animés et, en dernière instance, relativement à la nature. Il s’agit donc d’une branche de la biologie, qui nécessite cependant le concours d’autres sciences, notamment la psychologie et la sociologie. L’anthropologie philosophique limite et étend à la fois son étude à la question de l’essence de l’homme, de sa différence spécifique ou qualitative, de sa place dans le monde. Martin Buber se situe dans cette ligne de pensée. On peut distinguer une troisième forme d’anthropologie, l’anthropologie culturelle, qui s’intéresse tout particulièrement à la compréhension des cultures autres que la culture occidentale, par exemple à travers les recherches de Lévy-Bruhl, de Margareth Mead, de Lévi-Strauss, sur les sociétés dites primitives. Pour élargir: J. Poirier, Histoire de l’Ethnologie, PUF, 1969. B. Grœthuyssen, Anthropologie philosophique, Gallimard, 1953. antipode: du grec podos, qui a les pieds opposés aux nôtres. Endroit de la Terre diamétralement opposé à un autre lieu. aperception: voir conscience. apodictique: du grec apodeiktikos, démonstratif, démontrer; se dit de ce qui a une valeur d’une manière nécessaire et inconditionnée. On trouve déjà cette notion dans la philosophie d’Aristote pour désigner les syllogismes dans lesquels les prémisses sont vraies ou évidentes. Kant utilise cette notion pour désigner une certaine catégorie d’énoncés. arbres, arbres de Beth: en mathématiques, on désigne sous le nom d’arbres des représentations graphiques formées de points (appelés sommets) et de segments reliant certains des points (appelés arêtes), comme par exemple dans un arbre généalogique; le logicien Beth a choisi cette forme de représentation pour décrire des schémas de démonstrations
logiques, les sommets représentant les formules logiques, et les arêtes représentant les liens. Ceci lui permit d’étendre ses résultats, portant sur des chaînes finies de propositions, au domaine des prédicats, qui pouvaient comporter une infinité d’interprétations (attribution de valeurs à des variables logiques). Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 argument ad hominem: argument qui fait dépendre l’acceptation ou non d’une théorie non pas de ce que cette théorie affirme, mais de l’opinion que l’on a de la personne qui la défend. Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. arithmétique ou théorie des nombres: il s’agit de la branche des mathématiques qui s’intéresse aux nombres entiers et à leurs propriétés, comme la divisibilité, la possibilité de les représenter comme sommes ou produits d’éléments de types particuliers... Par exemple, la recherche des nombres premiers et le fameux “théorème de Fermat” relèvent de l’arithmétique. On parle aussi d’arithmétique (par opposition à l’algèbre) pour désigner la manipulation de grandeurs numériques positives comme la longueur des segments, l’aire des figures géométriques... Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 arithmétiques non-canoniques: l’auteur entend par là des règles nonclassiques de calcul sur les nombres entiers ou des parties de l’ensemble des nombres entiers; il décrit ainsi les règles suivant lesquelles nous ajoutons les heures sur un cadran d’horloge, où tout multiple de 12 se traduit simplement par un tour d’horloge complet; un tel calcul est désigné sous le nom de “calcul modulo 12”... On peut bien entendu calculer aussi “modulo 2”, “modulo 5”... Ce calcul “modulo p” s’effectue de la manière suivante: pour ajouter deux nombres modulo p, on les ajoute normalement, puis si celle-ci dépasse la valeur de p, on lui retranche p. Ainsi, modulo 12, la somme de 9 et de 10 est 7, puisque 9+10=19, si on lui retranche 12, le résultat final est 7.
Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 arithmétisation de l’analyse: il s’agit de la démarche suivie, entre autres, par Weierstrass et qui permit de donner un cadre plus rigoureux à l’analyse. Voir calcul infinitésimal. atomes de Dalton: il s’agit de la première théorie atomique moderne, pour laquelle les corps purs sont formés d’atomes tous identiques; ceci lui permit d’énoncer des lois concernant les combinaisons chimiques, connues aujourd’hui sous le nom de lois de Dalton. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. auto-référence: il s’agit de la propriété d’un énoncé de se définir par rapport à lui-même; cette propriété est à la base de nombreux paradoxes de la théorie des ensembles. Russell écrivait: “il apparaît que tous les paradoxes logiques présentent une sorte de référence à soi réflexive qui doit être condamnée pour la même raison: à savoir qu’elle comprend, comme membre d’une totalité, quelque chose qui se réfère à cette totalité, qui ne peut avoir un sens défini que si la totalité est déjà fixée” (Histoire de mes idées philosophiques, p. 103). axiologie: science ou théorie des valeurs morales. Elle concerne non seulement l’établissement des valeurs morales mais la recherche de la nature même de la valeur morale et des jugements de valeur. Nous trouvons ce type de réflexion déjà chez les anciens, notamment Platon. La réflexion axiologique acquiert une importance particulière dans les philosophies de Nietzsche et de Max Scheler. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. axiomatique, méthode axiomatique: en épistémologie il s’agit d’un système formel, vidé de tout contenu empirique. La méthode axiomatique est la méthode de raisonnement propre aux systèmes formels. Pour les éléments de cette méthode, voir systèmes formels.
axiomatisation ou formalisation: voir formalisation. axiome (souvent synonyme de postulat): l’une des significations du mot axiome est dignité, valeur ou prix. Par dérivation, axiome signifie “ce qui est digne d’être pris en compte”. C’est dans ce sens qu’il est utilisé par Aristote; pour celui-ci, il s’agit de principes évidents qui constituent le fondement de toute science. Il s’agit également de principes irréductibles, auxquels se réduisent toutes les autres propositions et sur lesquels cellesci reposent nécessairement. Les mathématiques et la logique modernes introduisent un changement fondamental: l’abolition de l’exigence d’évidence des axiomes. Il s’agit désormais d’énoncés primitifs dont la validité est présupposée ou convenue. Voir géométries non-euclidiennes. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. background: mot anglais utilisé en sciences humaines pour désigner le bagage qui entoure ou précède une création: théorie, œuvre d’art, etc. béhaviorisme: du mot anglais behaviour, comportement. Doctrine élaborée aux États Unis, notamment par John Watson. Réagissant contre l’introspectionnisme dans lequel elle voit une forme de subjectivisme et donc la négation même de la psychologie de la science, cette école est motivée par un souci d’objectivité. Elle s’en tient à ce qui peut être observé et qui est susceptible d’être enregistré, c’est-à-dire le comportement extérieur des individus. Ces comportements sont étudiés à leur tour d’après le schéma de base stimulus-réponse. Cet aspect du béhaviorisme rapproche celui-ci des études de Pavlov. Observant d’abord le comportement des animaux et ensuite celui des enfants à la lumière de ce schéma, le béhaviorisme étendit ensuite cette méthode à l’ensemble du comportement humain. Le comportement est conçu comme une accumulation de réflexes s’enchaînant les uns aux autres: une excitation entraîne une réponse, qui devient l’excitation de la réponse suivante et ainsi de suite. L’apprentissage et l’adaptation obéissent à ce mécanisme, mais aussi le langage, conçu alors comme une simple réaction motrice, et la pensée elle-même qui devient une sorte de langage. Malgré sa réaction contre la psychologie traditionnelle, le béhaviorisme rejoint par certains aspects la psychanalyse dans sa façon de concevoir la structure de l’appareil psychique.
Pour élargir: Pierre Naville, La psychologie, science du comportement: le béhaviorisme de Watson, Gallimard 1963. benzène: corps chimique découvert en 1826 par Faraday; il fut d’abord produit à partir de la houille puis par synthèse à partir de l’acétylène. Kékulé proposa en 1866 la première formule du benzène, qui supposait la coexistence de deux structures hexagonales symétriques; plus tard, sur la base de l’analyse radiocristallographique, sa formule fut corrigée: les deux structures envisagées par Kékulé furent fondues en deux hexagones concentriques, l’un contenant des atomes de carbone, l’autre plus petit formé d’atomes d’hydrogène. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. bi-unité: Pour Brouwer, notre expérience prend la forme de la succession du temps (ceci le rattache au point de vue de Kant); deux éléments consécutifs d’un ensemble sont ainsi “réunis par le temps”, formant ce qu’il appelle donc une bi-unité. Dès qu’un élément est conçu, son “successeur” se retrouve ainsi “à l’autre pôle de la bi-unité” et donc aussi à notre portée; à partir de 0, la répétition de cette démarche permettra de construire l’ensemble des entiers naturels. bien formé: en logique formelle, une proposition est bien formée quand elle respecte les règles de formation. Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. Brainstorming: en français, “remue-méninges”. Technique de recherche d’idées originales, née dans les années 30 aux États-Unis; elle est censée lever les obstacles psychologiques dus au poids de l’autorité hiérarchique, à l’éducation et à l’habitude. ça, moi, surmoi: dans sa deuxième théorie du psychisme, Freud décrit celui-ci comme étant formé de ces trois instances. Le ça correspond aux pulsions inconscientes innées ou acquises qui cherchent à être satisfaites selon le principe du plaisir. Le moi correspond à la partie consciente et responsable, le surmoi peut être défini en quelque sorte comme l’instance morale de l’appareil psychique: il se forme dans l’enfance par l’assimilation (inconsciente) des interdits parentaux et se prolonge par l’assimilation des interdits sociaux. L’intériorisation des interdits agissant
comme un principe d’autocensure, il y a nécessairement une tension conflictuelle entre ces principes. La sublimation est l’accomplissement détourné, par le surmoi, des exigences du ça et du moi, et la source des réalisations supérieures de l’homme. calcul des classes: partie de la logique qui étudie les classes (ensembles d’éléments définis à partir de caractères communs); la notion de classe a été introduite par Bertrand Russell pour tenter de surmonter certaines des difficultés qu’a rencontrées la théorie des ensembles. On utilise parfois l’expression “calcul des classes” pour celle de “calcul des ensembles”, moins utilisée; dans certains cas, l’analyse d’un prédicat se ramène à l’étude d’ensembles à un calcul sur ceux-ci, c’est-à-dire à leurs réunions et intersections. Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. calcul des probabilités: partie des mathématiques qui s’occupe de calculer les probabilités des événements en les décomposant en événements élémentaires, et en utilisant des principes comme celui des probabilités composées, pour étudier des successions d’événements, ou celui des probabilités conditionnelles, lorsque la réalisation d’un événement est subordonnée à celle d’un autre qui lui est préalable et nécessaire. Pour élargir: P. Deheuvels, La probabilité, le hasard, la certitude, PUF, 1982; Albert Jacquard, Les probabilités, PUF, 1974. calcul effectif: notion que l’on rencontre dans la théorie constructiviste mais aussi chez une partie des mathématiciens qui, ne se satisfaisant pas de résultats de type “abstrait”, d’une généralité trop grande, ou ne se réduisant pas à des théorèmes d’existence, s’intéressent à la possibilité effective de calculer des objets et les propriétés qu’ils possèdent. Par exemple, après que les spécialistes de géométrie aient établi de grands théorèmes généraux concernant les surfaces, éventuellement de dimension assez grandes car celles de petites dimension présentaient des difficultés particulières, on vit les recherches porter sur des surfaces spécifiques, de petites dimensions, exigeant des calculs particuliers, ou sur les méthodes permettant d’étudier de manière générale des surfaces spécifiques.
On distinguera les notions de calcul numérique, qui consiste à rechercher des résultats de type approché et de calcul effectif, qui a comme objectif de cerner et déterminer des valeurs exactes. Alors que les limitations du papier et du crayon représentaient un obstacle au calcul et une incitation à la recherche de propriétés formelles, les progrès de l’informatique, permettant l’utilisation d’outils de calcul formel (ou symbolique), ont été propices au développement de ces démarches. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 calcul infinitésimal: branche des mathématiques constituée par le calcul différentiel (fondé sur l’étude des infiniment petits et des limites) et le calcul intégral (qui cherche à calculer des grandeurs que l’on peut rapprocher de la notion d’aire). Le calcul différentiel permet, par exemple, grâce à l’étude des dérivées, de définir la notion de vitesse instantanée (ou vitesse à un moment donné). Le calcul intégral permet non seulement de calculer des aires et des volumes, mais de donner un sens à des notions comme le travail d’une force lors du déplacement de son point d’appui, ou des moments d’inertie nécessaires pour étudier l’équilibre d’un solide. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 calcul numérique et calcul formel: la mathématique connaît deux types d’algorithmes; certains sont exacts, comme par exemple les formules permettant de résoudre une équation du second degré, et qui sont formels, car indépendants des données numériques spécifiques et dépendants seulement du rôle des différents paramètres; les autres sont des mécanismes de calcul approchés, qui par répétition d’opérations numériques, fournissent des valeurs approchées, de plus en plus précises, mais jamais exactes. Pour de nombreux problèmes il n’existe pas d’algorithmes formels et exacts mais seulement des algorithmes approchés, relevant de cette partie des mathématiques que l’on appelle calcul numérique ou analyse numérique. math
calcul propositionnel: une proposition est un énoncé déclaratif, par exemple “il pleut”. Le calcul des propositions étudie la validité de propositions complexes en fonction de la vérité ou de la fausseté des propositions élémentaires qui les composent, et sans se soucier de leur contenu. Afin de procéder à ce calcul, il faut (au moins): des signes (pour faire totalement abstraction du contenu des propositions, le moyen le plus approprié est de les remplacer par des signes). des connecteurs, qui sont des signes désignant les divers rapports possibles entre les propositions. Soient, par exemple, les propositions Il pleut et Il fait froid. Elles peuvent se combiner de multiples façons: Il pleut et il fait froid, Il pleut ou il fait froid, Il pleut alors il fait froid, etc. Le calcul des propositions remplace “Il pleut” par p et “Il fait froid” par q. Ensuite les liens sont remplacés par des connecteurs: “et” par “.”, “ou” par “∪ ”, et “alors” par “». Ainsi “Il pleut et il fait froid” sera transcrit sous la forme p. q. On peut ensuite établir la table suivante, dite table de vérité, où les deux colonnes à gauche indiquent les quatre combinaisons possibles des valeurs de vérité (vrai ou faux) de p et de q, et la colonne de droite les valeurs de vérité correspondant, ligne par ligne, à la colonne de gauche: p V F V F
q V V F F
p.q V F F F
Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. Ceci constitue l’exemple le plus élémentaire du calcul propositionnel. catalyse, catalytique: du grec katalusis, dissolution. Action par laquelle une substance modifie la vitesse d’une réaction chimique. Par extension on parle de catalyse dans un sens large pour désigner le fait de provoquer par sa seule présence ou intervention une réaction d’ensemble.
catégories: au sens large, ensemble dont les membres sont liés par une même qualité. En philosophie, les catégories ont été l’objet d’un traitement systématique, notamment dans les philosophies d’Aristote et de Kant. Aristote définit les catégories comme “les genres les plus généraux de l’être” et en reconnaît dix: la substance, la quantité, la qualité, la relation, le lieu, le temps, la situation, la possession, l’action, la passion. Pour Kant, les catégories ne sont pas des attributs des choses mais de la pensée. Il les classe ainsi: d’après la quantité (unité, diversité, totalité), d’après la qualité (réalité, négation, limitation), d’après la relation (substance ou accident, cause ou effet, réciprocité), d’après la modalité (possibilité, existence, nécessité, réalité). La notion de catégorie a une signification particulière en mathématiques. Voir théorie des catégories. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. causalité: le problème de la causalité est une préoccupation constante tout au long de l’histoire de la philosophie. Ce problème est déjà traité de manière systématique par Aristote; celui-ci reconnaît plusieurs formes de causalité: la cause matérielle (par exemple, dans une sculpture, la matière dont elle est faite), la cause formelle (dans notre exemple, le modèle, ou l’idée, que le sculpteur veut imprimer à la matière), la cause motrice (par exemple, la main qui réalise la sculpture) et la cause finale (c’est-à-dire le but vers lequel les choses tendent). Ce qui caractérise cette théorie est la prédominance de la cause finale sur les autres. Le finalisme caractérise également la philosophie scolastique médiévale. Le problème de la causalité revêt une importance particulière dans la modernité, où s’affrontent deux tendances: rationaliste et empiriste. La première est représentée par des philosophes comme Descartes, Leibniz, Spinoza; on peut résumer cette position par le principe selon lequel rien ne se produit sans une raison, de sorte que la cause d’un fait ou d’un phénomène est en même temps sa raison. L’empirisme, représenté essentiellement par Hume, procède quant à lui à une dissolution de la notion de causalité, en affirmant que celle-ci n’est qu’une extension abusive de certaines régularités perçues par nous dans la nature, et nullement un lien ontologique entre les phénomènes. Kant essayera de concilier dans son système rationalisme et empirisme: la causalité n’est pas pour lui une propriété des faits ni une pure création de l’esprit, mais une catégorie de l’entendement, c’est-à-dire un élément transcendantal: un composant de
la structure de notre entendement lorsque nous abordons la connaissance de la réalité. Le principe de causalité sert de fondement à la mécanique classique; cette position s’est modifiée dans les développements ultérieurs de la physique, notamment la physique quantique. Bunge fait une analyse détaillée de la causalité dans Causality: the Place of the Causal Principle in Modern Science, 1959. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. Centaure: dans la mythologie grecque, être fabuleux, moitié homme moitié cheval, ayant donné lieu à diverses légendes. Cercle de Vienne: voir néopositivisme. champ: notion mathématique établie pour comprendre des faits comme l’attraction magnétique, qui s’exerce à distance et se manifeste en faisant dévier l’aiguille de la boussole, ou l’attraction terrestre, qui attire les corps pesants vers le centre de la Terre. Un champ est une grandeur physique définie en tout point d’une région de l’espace; il se manifeste lorsqu’un objet qui lui est sensible est placé en l’un des points de cette région. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. champ de forces: lorsque une force s’applique potentiellement en tout point qui serait placé dans un certain domaine, on parle du champ de cette force. Par exemple, le fait de placer en un certain point un aimant crée un champ de forces magnétiques, c’est-à-dire que tout objet qui se trouverait placé dans un domaine entourant cet aimant se trouverait immédiatement soumis à une telle force; il en est de même pour le champ électrostatique créé par la présence de charges électriques et qui se traduirait par l’application immédiate d’une force sur tout objet qui se trouverait placé dans son domaine d’activité. Le concept de champ permet de concevoir cette action potentielle. Voir champ. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971.
champ de gravitation: voir champ et champ de forces. Il s’agit ici de la force de gravitation. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. chaos: on a l’habitude de parler de chaos, ou plutôt de chaos déterministe, dans le cas de phénomènes révélant une dépendance dite “sensible” par rapport aux conditions initiales, c’est-à-dire des phénomènes pour lesquels des conditions initiales extrêmement voisines, mais cependant distinctes, peuvent causer à la longue des effets extrêmement distants. La notion de chaos a été proposée par le mathématicien Edward N. Lorenz, qui travaillait dans les années cinquante au MIT; il a décrit cette imprédictibilité dans le domaine de la prévision du temps dans un article désormais célèbre intitulé “Le battement des ailes d’un papillon au Brésil peut-il causer une tornade au Texas?”, in The essence of chaos, 1993. Pour élargir: Ivar Ekeland Le chaos, Flammarion, Paris, 1995. charge: ici, la charge électrique d’une particule, c’est-à-dire la quantité d’électricité emmagasinée dans cette particule. Les électrons et les protons possèdent des charges électriques, alors que l’autre constituant de base de l’atome, le neutron, n’en possède pas. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. circuit d’intégration ou contour d’intégration: arc fermé au long duquel on effectue le calcul d’une intégrale. clarté et distinction: la première des règles de la méthode est, pour Descartes, de ne rien admettre pour vrai qui ne se présente à l’esprit avec les caractères de la clarté et de la distinction. La connaissance claire est celle “qui est présente et manifeste à un esprit attentif” (Principes de Philosophie). La notion de clarté s’oppose à celle d’obscurité. La connaissance distincte est définie comme celle “qui est tellement précise et différente de toutes les autres qu’elle ne comprend en soi que ce qui paraît manifeste à celui qui la considère comme il faut” (Principes de Philosophie); distinct s’oppose à confus. La connaissance peut être claire sans être distincte, mais elle ne peut pas être distincte sans être claire.
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. classes infinies: la théorie des ensembles a donné lieu à des paradoxes concernant souvent les ensembles (classes) infinis. En général, les paradoxes découlent de la notion d’ensemble, et de la définition de certains ensembles par des propriétés. Russell écrivait: “il apparaît que tous les paradoxes logiques présentent une sorte de référence à soi réflexive qui doit être condamnée pour la même raison: à savoir qu’elle comprend, comme membre d’une totalité, quelque chose qui se réfère à cette totalité, qui ne peut avoir un sens défini que si la totalité est déjà fixée” (Histoire de mes idées philosophiques, p.103). C’est à partir de la volonté de surmonter ces paradoxes, et des voies diverses qui ont été proposées dans ce but, que se sont développées les différentes écoles mathématiques: logicisme, constructivisme, formalisme... classes ouvertes: il s’agit, dans le langage de l’auteur, d’ensembles dont la liste des éléments n’est pas fixée, c’est-à-dire pas connue définitivement. Par exemple: si on écrit “0,1,2,3...”, on désigne ainsi l’ensemble des entiers naturels, mais si on considère l’ensemble défini par la relation de récurrence suivante “x0=1 et, pour tout n, xn+1 =sin(xn)” ne peut être décrit par une liste; chaque exécution de l’algorithme “crée” un nouvel élément de cet ensemble. classification des énoncés: parmi les nombreux critères possibles pour la classification des énoncés figure celui de l’inclusion ou non du prédicat dans le sujet. D’après ce critère, les énoncés peuvent se diviser en analytiques et synthétiques, division due notamment à Kant. On peut également classer les énoncés selon leur généralité: énoncés universels et énoncés particuliers. Les énoncés existentiels sont une forme spéciale de ces derniers. classification des sciences: il y a eu tout au long de l’histoire de la philosophie de nombreuses classifications des sciences. Dans La science, sa méthode et sa philosophie, page 30 et ss., Bunge passe en revue et critique diverses formes de classification des sciences: sciences naturelles et culturelles, sciences empiriques et sciences de raison, sciences inductives et déductives, sciences formelles et factuelles.
cogito ergo sum: principe fondamental de la philosophie de Descartes et point de départ de la construction de son système. Cherchant un principe indubitable qui puisse servir de fondement à l’ensemble de la connaissance, Descartes entreprend d’éliminer tout ce que nous pouvons mettre en doute dans notre savoir et dans la réalité. La conclusion à laquelle il parvient est le caractère indubitable de la pensée, d’où il déduit l’existence d’une première réalité: celle de l’être pensant. Ce principe, je pense donc je suis, est en lui-même une déduction d’une forme particulière: il s’agit d’un enthymème, qui supprime la prémisse majeure du syllogisme “Tout ce qui pense existe, je pense, donc j’existe”. Pour élargir, Octave Hamelin, Le système de Descartes éd. Vigdor, chapitre consacré au cogito. commutateur: dans un ensemble muni d’une loi de composition interne (par exemple un groupe) on appelle commutateur de deux éléments a et b, l’élément aba-1b-1 dont l’intérêt est que si les deux éléments a et b commutent entre eux il est tout simplement égal à l’élément neutre. Dans un anneau, ce qui est le cas dans l’exemple du texte, on considère ab-ba, qui sera nul si a et b commutent entre eux. Dans la théorie quantique on a recours à des opérateurs, lorsque ceux-ci ne commutent pas, apparaissent naturellement leurs commutateurs. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. comprendre, compréhension: déjà présente dans les philosophies romantiques, c’est Dilthey qui élabore une conception systématique de la compréhension. Selon ce philosophe, la compréhension est l’acte par lequel nous appréhendons le psychique à travers ses manifestations. Il s’agit du mode de connaissance qui convient au psychique aussi bien qu’au culturel. Ce qui caractérise la compréhension est sa capacité à saisir une signification à l’intérieur d’une réalité plus large, et à procurer ainsi une forme de connaissance qui échappe à l’explication, c’est-à-dire la connaissance des causes. Dans ce sens, “compréhension” s’oppose à “explication”. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
concept, conceptualisme: idée abstraite et générale, résultat de l’opération par laquelle l’esprit isole, parmi certaines réalités données dans l’expérience, un ensemble de caractères communs, généralement formulables par un mot; par exemple, “animal” est un concept tiré de l’observation des caractéristiques communes à l’ensemble des individus des diverses espèces particulières. Le conceptualisme est la position qui affirme (contre le nominalisme et le réalisme des idées) que les concepts contrairement aux individus, ont une forme de réalité seulement idéale. Dans cette ligne se situe la pensée d’Abélard et sous certains aspects celles d’Aristote et de Kant. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. conception du monde: en philosophie, on appelle conception du monde ou cosmovision, une philosophie, plus tacite qu’explicite, variant avec les individus, les peuples et les différents moments historiques, par laquelle la réalité toute entière acquiert une représentation particulière. La conception du monde de l’homme moderne (laïque) est, par exemple, profondément différente de celle de l’homme médiéval (imprégnée de religiosité); la conception du monde (dite rationaliste) de l’homme occidental est très différente de celle (dite magique) des peuples primitifs. Une conception du monde est aussi une idée générale implicite qui se dégage d’une philosophie: il y a par exemple une cosmovision propre au marxisme ou à l’existentialisme. Plusieurs philosophes se sont intéressés à cette notion, ainsi qu’à celui de la classification et de la typologie des conceptions du monde, notamment Dilthey, Scheler, Spranger, Jaspers, etc. L’image du monde propre à la science ne coïncide pas toujours avec la conception du monde propre à la vie spirituelle ou psychologique des hommes. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. conception ludique des mathématiques: conception d’après laquelle le travail mathématique est un jeu de combinaison des signes ou des marques dont les lois sont arbitraires.
conception naturaliste de l’esprit: voir naturalisme. conjecture de Goldbach: le mathématicien Goldbach (1690-1764) a conjecturé que tout entier pair supérieur à 4, est la somme de deux nombres premiers impairs. Cet énoncé, bien qu’ancien, n’a pu être démontré, et certains se demandent même s’il ne serait pas indécidable dans le cadre de l’arithmétique (comme certains l’avaient pensé pour le fameux théorème de Fermat qui fut enfin démontré, il y a quelques années). Le mathématicien Vinogradov a pu montrer que, si cette conjecture était vraie, tout entier impair, supérieur à 7, serait la somme de trois entiers premiers, et il a montré que ce dernier résultat est certainement vrai pour les entiers premiers suffisamment grands; d’autre part on sait montrer que la conjecture de Goldbach est vraie pour “presque tous les entiers pairs”, ce qui signifie que, si elle n’était pas vraie, la mesure de l’ensemble des entiers pairs qui ne la vérifieraient pas, serait négligeable devant la mesure de ceux qui la vérifieraient. conscience: dans un sens général, la conscience est la perception plus ou moins claire que l’esprit a de lui-même; certains philosophes parlent d’aperception et établissent la différence entre les perceptions dont nous sommes conscients et celles qui sont inconscientes. La notion de conscience occupe une place importante dans l’histoire de la gnoséologie: la connaissance est, en même temps qu’une découverte, une prise de conscience. Ce mot a également une acception psychologique. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. conscience comme notion psychologique: nous avons distingué entre une acception psychologique de la conscience et une autre gnoséologique. En psychologie, cette notion préoccupe notamment la psychanalyse. La conscience est pour la psychanalyse plus un concept ou une hypothèse de travail, permettant l’application d’une thérapie, qu’une réalité pourrait observable; l’efficacité de cette thérapie représente toutefois, dans une certaine mesure, une vérification des idées de Freud sur la conscience, en tant que faculté déterminée par des facteurs inconscients dont le sujet ne conserve pas le souvenir. consistance: un système est consistant s’il est non contradictoire. constante de Planck: il s’agit d’une constante physique qui permet d’expliquer les niveaux d’énergie liés aux orbites des électrons.
Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. constructivisme: Bunge explicite cette notion notamment pp. 127 et 137. contexte de découverte et contexte de justification: il convient en effet de distinguer dans l’activité de la science ces deux contextes: le premier concerne la genèse d’une théorie, et le second la structure logique d’une théorie achevée. Le premier contient tous les éléments heuristiques qui concourent à l’élaboration d’une théorie. Le deuxième est purement logique; il se réfère aux méthodes ou aux critères qu’une théorie se donne pour pouvoir affirmer sa validité. contingence, contingent: ce qui est conçu comme pouvant être ou ne pas être, ou être autre qu’il n’est, par opposition à ce qui n’aurait pas pu être autrement, c’est-à-dire à ce qui est nécessaire. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. continuité, discontinuité: une fonction f définie sur un intervalle contenant le réel a est dite continue en a si, lorsque t tend vers a, la valeur de f(t) tend vers f(a). Dans le cas contraire, la fonction f est dite discontinue en a. Visuellement, si une fonction est continue sur tout un intervalle, on peut tracer son graphe sans lever le crayon du papier. convention: accord tacite ou explicite entre deux ou plusieurs parties (individus, groupes, États), en vertu d’un intérêt commun, pour unifier les critères et faciliter la communication servant à une pratique déterminée (mesurer, parler, se gouverner, etc.); son choix est en même temps nécessaire (pour unifier les critères) et arbitraire, parce qu’il y a toujours d’autres choix possibles. Toute convention est en effet arbitraire en ce sens qu’elle est échangeable ou interchangeable, non parce qu’elle serait le fruit d’un choix capricieux; si son caractère arbitraire indique qu’elle est échangeable (à condition que celle qui la remplace soit capable de remplir les mêmes fonctions), il indique aussi qu’elle ne relève pas de la nature ou de la réalité, mais d’une élaboration par l’homme. Le système métrique décimal, le langage, la Constitution sont des exemples de conventions.
convergence d’une intégrale: la théorie classique de l’intégrale (Riemann, Cauchy...) ne concerne que le cas de fonctions définies sur des intervalles bornés; lorsqu’il s’agit d’un intervalle infini, comme par exemple l’ensemble des réels positifs, on considère les intégrales sur des intervalles bornés [0, b], puis faire tendre b vers l’infini, si les intégrales considérées tendent vers une limite réelle L, on dit que l’intégrale sur l’ensemble des réels positifs converge et admet comme valeur L. cordes vibrantes: le problème des cordes vibrantes consiste en l’étude des vibrations d’une corde sous l’action d’une force; il s’agit de l’un des problèmes de base de l’étude des mouvements ondulatoires. L’étude des cordes vibrantes précéda les connaissances sur les ondes et ouvrit la voie à leur développement. corpus: ensemble d’œuvres relatives à un domaine particulier du savoir et regroupées en vue de la conservation de ce savoir. correspondance biunivoque: relation entre les éléments de deux ensembles telle qu’un élément du premier ensemble correspond à un et un seul élément du second, et réciproquement; par exemple, la correspondance entre l’ensemble des citoyens français et l’ensemble des numéros de carte d’identité est biunivoque; on dit aussi bijective. cosmologie: du grec kosmos, univers, et logos, connaissance. Dans un sens général il s’agit de toute doctrine ayant pour objet la connaissance du monde dans sa totalité. Ainsi, par exemple, la question de l’origine du monde, ou la question de savoir si le monde existe par soi-même ou par création, sont les questions fondamentales de la cosmologie. Mais cette question peut être traitée de différents points de vue: religieux, métaphysique ou scientifique. Nous trouvons des recherches philosophiques sur l’origine du monde à partir de l’un des éléments fondamentaux (l’eau, le feu,...) dans les philosophes présocratiques et dans le système de Platon. Le christianisme possède également une cosmologie créationniste. De nos jours, la cosmologie est surtout considérée comme une discipline théorique ou expérimentale. Elle est très proche de l’astronomie, de la physique théorique et de la mathématique. Son but consiste en la construction de “modèles de l’univers” à la fois logiquement cohérents et compatibles avec les données observées. Parmi les modèles proposés on peut citer celui d’Einstein (statique et fini) et celui de Friedman et Lemaître (dynamique et ouvert).
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. courbes empiriques: courbes qui, au lieu d’être décrites à partir d’une formule comme, par exemple, un cercle ou une droite, seraient constituées à partir d’un choix a priori de points dans le plan; on conçoit aisément que, si ce choix est aléatoire, il paraisse peu vraisemblable qu’une formule permette de décrire tout cet ensemble de points. Les développements récents des mathématiques dans la direction des fractales et du chaos peuvent permettre de rencontrer de nombreux ensembles susceptibles d’illustrer cette idée. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 courbure, rayon de courbure: On appelle courbure d’une courbe en un point une grandeur numérique dont la valeur permet de savoir dans quelle mesure la courbe “tourne rapidement” au voisinage de ce point. On désigne de même par rayon de courbure le nombre inverse de la courbure. Visuellement, le rayon de courbure est le rayon d’un cercle qui serait le plus proche de la courbe au voisinage de M; mathématiquement, la courbure est la dérivée de l’abscisse curviligne (qui mesure la chemin parcouru sur la courbe) par rapport à la direction de la tangente. Sur une surface (S) et en un point M, la courbure est une grandeur numérique qui est d’une certaine manière la moyenne des courbures des courbes planes passant par M et dessinées sur la surface; ce qui compte, c’est le signe de cette courbure qui permet d’informer sur l’allure de la surface au voisinage du point M (d’où les points elliptiques, hyperboliques, paraboliques). critère ou critérium de la vérité: il convient de distinguer entre le concept, ou la définition de la notion de vérité, et le critère d’après lequel nous évaluons les propositions. Par exemple le critère de vérité des propositions formelles (la cohérence) est différent du critère de vérité requis par les sciences factuelles (la vérification empirique). L’évidence
(voir évidence pour Descartes) et l’efficacité (voir pragmatisme) sont d’autres exemples de critères de vérité. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. critères de convergence (d’une série): règles qui permettent de décider si une série infinie converge vers une valeur finie. critique: la notion de critique prend diverses significations en philosophie. Elle prend une importance particulière dans la philosophie de Kant où elle désigne la description du mécanisme de la connaissance. La critique de la raison pure est l’examen de la raison. De nos jours, la critique n’est pas une étude sur la faculté de connaître mais en elle-même une forme de connaissance; elle prend cette signification notamment dans la philosophie de Popper. Certains aspects de la philosophie de Popper réduisent en effet l’activité scientifique à l’activité critique. cybernétique: du grec kubernètiquè, art de la timonerie, terme introduit par Ampère pour désigner, par extension, toute manière de diriger, conduire et gouverner. La cybernétique devint une science avec Norbert Wiener; elle s’occupe de thèmes très divers, parmi lesquels les systèmes de contrôle, notamment d’autocontrôle ou d’autorégulation, aussi bien dans les organismes que dans les machines, en particulier sur la base du concept de “rétroaction” (feed back). La cybernétique s’intéresse tout particulièrement aux techniques de transformation par lesquelles les informations peuvent être conservées et rappelées à volonté, favorisant le développement de machines “intelligentes”. Pour élargir: L. Couffignal, La cybernétique, PUF, 1963. cyclotron: type d’accélérateur de particules, il fut inventé à l’université de Berkeley; il est basé sur l’idée que si une particule chargée électriquement est soumise à un champ magnétique perpendiculaire, sa trajectoire sera être circulaire, ce qui permet de guider et dévier des particules. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. déduction: raisonnement ou inférence qui consiste à tirer, d’une ou plusieurs propositions données, une autre proposition qui en est la
conséquence nécessaire. Une telle inférence n’est qu’un passage de l’implicite à l’explicite. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. définitions nominales: il s’agit de définitions qui ne portent pas nécessairement sur la nature de ce qu’elles tentent de définir, mais sur des précisions nécessaires à l’utilisation d’une notion. Descartes emploie par exemple la définition nominale (ou quid nominis) quand il veut s’adresser au sens commun ou éclaircir quelques points de sa méthode par une série de définitions. Ainsi, dans l’Abrégé géométrique des deuxièmes réponses, il commence par une suite de définitions nominales: “Par le nom de pensée je comprends...”, “Par le nom d’idée je comprends...”, “Par réalité objective d’une idée j’entends...”, etc. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. degré de confirmation: nous pouvons situer l’origine du problème du degré de confirmation des théories dans la philosophie de Hume. La science, se fondant sur des procédés inductifs pour la confirmation de ses hypothèses, n’annonce pas des certitudes mais des probabilités. À partir du XVIIe siècle, l’étude des probabilités atteint un niveau important avec les travaux de Bernoulli et Laplace; ceux-ci s’intéressent alors à la probabilité en tant que degré d’admissibilité d’une hypothèse, sur la base des données empiriques. À côté de ces recherches, il se développe par la suite une autre conception de la probabilité: celle de la probabilité statistique, soutenue par Von Mises et Reichenbach, et construite sur la notion de fréquence. La différence essentielle entre la conception ancienne et la conception moderne est que cette dernière se fonde sur des phénomènes objectifs, alors que la probabilité inductive se réfère à des prédictions sur les phénomènes. Cette différence est examinée par Carnap. Celui-ci élimine la probabilité comme fréquence relative, pour se fixer sur l’étude de la probabilité comme degré de confirmation. Popper critiquera à son tour la réponse de Reichenbach, et cette critique semble avoir été décisive, dans la mesure où il n’y a pas eu par la suite d’autres tentatives pour interpréter les lois en termes de fréquences d’événements; mais Popper met également en évidence les insuffisances de la réponse de
Carnap. Chaque théorie a, pour ce dernier, un degré de probabilité différent en fonction des évidences observationnelles qui la fondent. Popper manifeste à l’égard de ce point de vue une violente opposition. Il signale, par exemple, le paradoxe qui résulte de cette conception probabiliste de la science, selon laquelle les lois universelles auraient une probabilité tendant vers zéro, en vertu de l’infinité temporelle de l’univers. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. démontrer, démonstration: procédé de preuve ou de vérification. Dans certains cas, elle peut s’effectuer par des moyens empiriques et est alors synonyme de vérification empirique; mais dans son sens originel, il s’agit de la démarche qui procède par des enchaînements de raisonnements, afin de rendre évidente une théorie ou une affirmation. La démonstration est pour Descartes le fondement des mathématiques. En mathématiques, il s’agit d’un raisonnement constructif qui procède par un enchaînement déductif de propositions. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. dénombrable: un ensemble (fini ou infini) est dit dénombrable s’il existe une bijection entre lui et une partie de l’ensemble des entiers naturels. Intuitivement, un ensemble est dit dénombrable s’il existe un moyen de numéroter ses éléments (n°1, n°2,...); par exemple: l’ensemble des nombres rationnels (c’est-à-dire les quotients d’entiers comme ½, 3/12,...) est dénombrable, tandis que l’ensemble des réels ne l’est pas (c’est la démonstration de Cantor àlaquelle il est fait allusion dans cet ouvrage). dérivée: en mathématiques, on appelle dérivée d’une fonction F en un point la limite, si elle existe, du taux d’accroissement (F(a+h)-F(a))/h de cette fonction, lorsque l’accroissement h tend vers 0. La dérivée de F en a est notée F’ (a) et représente le coefficient directeur de la tangente en ce point au graphe de la fonction. Si F représente la position d’un mobile en fonction du temps, la dérivée F ‘(t 0) représente sa vitesse instantanée à l’instant t 0. On appelle dérivée seconde d’une fonction la dérivée de sa dérivée et ainsi de suite.
desiderata: terme latin désignant le fait de regretter l’absence de quelque chose, et possédant un sens très proche de “souhaits” ou de “vœux”. déterminisme: de façon générale il s’agit de la doctrine qui affirme que tout les faits répondent à une cause. L’exemple célèbre de la position déterministe à outrance se trouve dans la préface de la théorie des probabilités de Laplace: “Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvement des plus grands corps de l’univers et ceux du plus léger atome; rien se serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux”. Une position plus nuancée est celle de Kant pour qui le déterminisme relève du monde des phénomènes, mais non pas du monde des noumènes ou de celui des actions humaines. Dans certains cas le déterminisme est une hypothèse métaphysique, dans d’autres une hypothèse scientifique; c’est dans ce sens que Claude Bernard affirme qu’il y a un déterminisme absolu dans les conditions d’existence des phénomènes, aussi bien dans les corps vivants que dans les corps bruts. La mécanique classique répond à cette même forme de déterminisme scientifique ou méthodologique. La mécanique quantique introduit par contre un principe d’indéterminisme, dont l’illustration par excellence est représentée par le principe d’incertitude de Heisenberg. deuxième loi de la thermodynamique: le deuxième principe de la thermodynamique peut s’exprimer ainsi: “l’entropie d’un système isolé tend à augmenter”, ou bien “l’énergie libre d’un système isolé tend à diminuer”. Il est aussi connu sous le nom de “principe de Carnot” et met clairement en évidence l’irréversibilité des processus macroscopiques spontanés. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. diagrammes d’ Euler-Venn: auxiliaires visuels de l’algèbre des classes, au moyen desquels les classes sont représentées par des cercles sur un plan et le produit de deux classes comme la région commune aux cercles correspondants. Par exemple:
De tels outils permettent donc à la fois d’étudier des ensembles et la validité de propositions représentées par ces ensembles. diagrammes de Feynman: dans le cadre de ses recherches en électrodynamique quantique, où il étendit les résultats de Maxwell et Lorentz (1853-1928) au niveau quantique, le physicien Richard Feynman fut amené à développer un mode de représentation graphique des processus élémentaires, connu depuis sous le nom de diagrammes de dispersion de Feynman. Ces diagrammes permettent de suivre l’évolution dans le temps et l’espace d’un processus physique concernant des particules; on y représente à la fois les trajectoires de celles-ci et les interactions qui se manifestent. dialectique: ce terme a une grande importance dans l’histoire de la philosophie. À l’origine il signifie seulement l’art de dialoguer, mais il prend par la suite une signification de connaissance, notamment chez Platon, chez qui ce terme désigne la méthode que suit la pensée, soit pour aller du concret au principe suprême, l’idée du Bien (dialectique ascendante), soit pour aller du principe suprême aux choses (dialectique descendante). Pour Aristote, cette notion prend un sens négatif, comme le raisonnement élaboré à partir de notions simplement probables, c’est-àdire de propositions approuvées par celui avec lequel on discute. La connotation que cette notion prend chez Kant, est aussi négative; chez lui, sont “dialectiques” les raisonnements illusoires fondés sur une apparence. Cette notion acquiert un sens philosophique nouveau avec Hegel, pour qui la dialectique est la loi même de la pensée en même temps que la loi du réel: celle-ci, progressant par négations progressives – thèses et antithèses -, se résout dans des synthèses, qui deviennent à leur tour des thèses auxquelles s’opposent des antithèses, et ainsi de suite. Ce travail du négatif anime pour Hegel aussi bien l’histoire de la nature que celle des hommes. Affirmant que ce n’est pas l’esprit qui détermine la matière,
mais l’inverse, Marx proclame la nécessité de changer le sens de la dialectique hégélienne – qui s’applique dès lors à l’étude de la société, et plus particulièrement aux phénomènes économiques. Pour élargir: Paul Foulquié, La Dialectique, PUF, 1949. Dichtung: terme allemand qui désigne la poésie, et la littérature en général. discontinu ou discret: en mathématiques, une grandeur discontinue ou discrète est une grandeur qui varie par sauts d’une valeur à une autre, par opposition à une grandeur continue, qui varie par différences infiniment petites en plus ou en moins. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 discursif: contrairement à la pensée intuitive directe et médiate, le raisonnement discursif est le type de connaissance qui procède par étapes, c’est-à-dire par inférences successives. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. disjonction: en logique, il y a deux formes de disjonction: non exclusive et exclusive. Exemple de disjonction non exclusive: “Paul parle ou fume”. Exemple de disjonction exclusive “Ou Paul court ou Paul marche”. distribution statistique: on appelle distribution statistique d’une grandeur (ou variable) l’ensemble des différentes valeurs possibles pour cette variable, en précisant pour chacune d’entre elles la fréquence avec laquelle elle a été rencontrée. dogmatisme, dogmatique: dans un sens général, cette notion désigne l’absence d’exercice de la faculté critique, soit dans les affirmations que l’on formule, soit dans les propos ou les théories que l’on accepte. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. donnée ou donnée sensible: ce qui se manifeste à la perception, avant toute interprétation philosophique ou élaboration scientifique, et qui en constitue le point de départ.
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. dynamisme: par opposition à statique, désigne en philosophie l’attitude selon laquelle la réalité substantielle se construit. La philosophie dynamiste ou dynamiciste par excellence est celle de Hegel. écoles russe et polonaise constructiviste: à la différence des autres constructivistes, les constructivistes russes, et à leur tête Markov, fondaient la légitimité des notions et des raisonnements sur la notion d’algorithme et de récursivité; un objet mathématique se résumait pour eux à une information finie (en informatique on dirait “une liste finie de caractères”) et toute la signification des mathématiques résidait pour eux dans l’effort pour rendre plus précise la notion d’algorithme; celui qui arriverait à déterminer de manière plus précise ce qu’est un algorithme, pourrait donner, selon eux, une définition de la validité constructive d’une expression analytique et même logique. Un problème classique qui permet de différencier les divers types de mathématiciens constructivistes est le suivant: on considère une suite (an) de 0 et de 1, dans laquelle il est impossible qu’il n’y ait que des 0. L’école russe constructiviste admet qu’il y aura forcément un indice n tel que an=1, tandis que la plupart des constructivistes réfutent ce principe qu’ils désignent sous le nom de “principe d’omniscience”. eidétique: cette notion a une importance particulière dans la philosophie de Husserl. Reprenant les principes platoniciens de la connaissance comme étant la connaissance des idées ou essences, Husserl réaffirme la notion d’essentiel ou eidétique comme opposé à factuel. La réduction eidétique a pour objet, justement, de mettre entre parenthèses ou de suspendre la question de l’existence des choses pour considérer leur essence. L’adjectif eidétique s’applique ainsi aux énoncés qui se réfèrent aux essences et aux sciences de ces essences. Voir Sciences eidétiques. élan vital: voir Bergson. électrodynamique quantique: l’électrodynamique quantique (ou théorie quantique de champs) étudie d’un point de vue relativiste les interactions entre matière et rayonnement, c’est-à-dire entre électrons et photons; ce point de vue, a permis d’expliquer des phénomènes que la simple mécanique quantique ne parvenait pas à expliquer. L’origine de cette démarche peut être attribué à Fermi (1932), mais ce n’est qu’après la
guerre que les difficultés théoriques qu’elle posait furent surmontées, notamment grâce aux travaux de Feynman. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. électrolyse: il s’agit de la décomposition chimique que provoque le courant électrique; elle s’explique par le mouvement des particules chargées électriquement (ions) vers les électrodes, en fonction des lois de l’électricité. électrostatique: partie de la physique qui s’intéresse aux problèmes liés à la présence de charges électriques sur des corps. électron (et spin): il s’agit d’une des particules constituant l’atome (avec les neutrons et les protons); l’électron porte une charge électrique, et on peut décrire le courant électrique comme un déplacement d’électrons. Depuis de Broglie, on a appris à considérer l’électron tantôt comme une particule, tantôt comme un phénomène ondulatoire. Dans la théorie quantique, l’électron possède, outre sa charge et sa masse, un moment angulaire (c’est-à-dire une “prédisposition à la rotation”) appelé “spin”, qui peut prendre deux valeurs opposées correspondant aux deux rotations de sens opposés. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. émergence, émergent: ce vocable a été utilisé surtout en anglais (emergent) pour désigner une des théories générales de l’évolution, défendue notamment par C. Lloyd Morgan et Samuel Alexander, selon lesquels chaque niveau de la réalité est émergent à l’égard du niveau précédent et inférieur. Autrement dit, chaque niveau de la réalité possède par rapport à celui qui le précède une qualité irréductible. D’après Lloyd Morgan, le concept d’émergence avait déjà été développé par J. S. Mill, lorsque celui-ci affirmait l’existence de changements qualitatifs dans les effets produits par une même loi. L’un des problèmes épistémologiques qui se pose aux philosophies de l’émergence est celui de pouvoir concilier la légalité et le déterminisme (qu’en aucun cas ils ne nient) avec l’émergence de couches inédites de la réalité. La réponse à cette question se situe au niveau de la combinaison des lois. Les mêmes lois produisent toujours les mêmes effets, mais la combinaison de ces lois peut varier.
Lloyd Morgan distingue à son tour les effets prévisibles et les qualités nouvelles et imprévisibles. La conception de la vie comme une évolution émergente s’oppose selon Morgan à celle qui en fait une simple addition de phénomènes physico-chimiques, c’est-à-dire à la conception mécanique. La philosophie de Lloyd Morgan s’applique notamment aux rapports entre la matière, la vie et la conscience. Des exemples pris dans la chimie du carbone servent à démontrer sa théorie. La vie biologique est, dans ce système, une synthèse dont les éléments ne s’altèrent pas mais ont leur qualité modifiée, du fait que leur place dans cette structure varie de la même manière que la valeur et le sens d’une note de musique varient selon la place occupée par celle-ci dans une composition. Ces réflexions sont poussées plus avant par certains aspects de la philosophie de Bergson. La simple combinaison du hasard avec le hasard n’explique pas encore le phénomène de la vie. En examinant le passé, le philosophe s’aperçoit que la vie, depuis ses origines, est la continuation d’un seul et même élan qui s’est partagé entre des lignes d’évolution divergentes. La fonction de cet élan est de susciter des espèces nouvelles en assurant la transmission régulière des variations qu’il a produites. Bergson est ainsi amené à voir dans l’élan vital une poussée intérieure qui porte la vie vers des destinées de plus en plus hautes, par la médiation de formes de plus en plus complexes et de plus en plus adaptatives, jusqu’à la naissance de l’homme. En se développant, l’activité vitale s’est scindée en trois directions divergentes: la vie végétative, la vie instinctive et la vie rationnelle, qui sont autant de royaumes distincts. En parvenant à l’homme, l’évolution cosmique a engendré une espèce tout à fait originale, l’espèce des créateurs. Ainsi l’élan vital prolonge-t-il l’histoire naturelle par l’histoire culturelle, celle des hommes capables, à leur tour, d’initiatives créatrices, permettant à l’espèce humaine, seule entre toutes, de franchir de nouveaux seuils dans l’ordre de la connaissance comme dans celui de l’action. empathie: compréhension du comportement d’autrui par un effort d’imagination qui nous met à la place de celui que nous voulons comprendre. Synonyme de compréhension sympathique. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. empiriocriticisme: voir Avenarius.
empirique: du grec empeirikos: qui se dirige d’après l’expérience, ou qui a sa source dans l’expérience. Ce mot peut avoir un sens positif lorsqu’il signifie: primat des résultats de l’expérimentation sur la théorie préconçue. Pris au sens péjoratif, il décrit un savoir qui est une simple pratique sans théorie; la notion de médecine empirique, par exemple, renvoie à l’état obscurantiste dans lequel se trouvait la médecine, lorsqu’elle n’était pas encore devenue scientifique. Voir Claude Bernard, La Méthode expérimentale, version Lector, éditions Vigdor, où il peut être utile d’appliquer la fonction de recherche au mot “médecine”. Ici, “empirique” est utilisé dans son sens positif en tant que savoir soumis à l’épreuve de l’expérience. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. empirisme: il s’agit de la conception philosophique selon laquelle la source de nos connaissances réside moins dans la raison que dans l’expérience. Toute connaissance se réduit à des données d’expérience et se forme par l’addition de celles-ci. L’empirisme explique la connaissance par une théorie particulière de la formation des idées ou théorie des idées: selon cette conception, la conscience qui connaît ne possède, en principe, aucun contenu propre ou autonome, mais tire ce contenu des représentations qui relèvent de l’expérience. C’est sur la base de représentations concrètes de la réalité que la pensée forme, graduellement, des représentations générales et des concepts. Nous trouvons déjà dans l’Antiquité des idées allant dans ce sens, notamment chez les sophistes, mais le développement systématique de cette philosophie est l’œuvre de la modernité, et trouve sa naissance chez John Locke. Celui-ci combat fermement l’idée qu’il puisse y avoir dans l’esprit des idées innées. L’âme est un “papier blanc” qui se couvre peu à peu de traits d’écriture, qui sont ceux des données apportées par l’expérience. Locke distingue toutefois une expérience externe (sensations) et une expérience interne (réflexion). Les contenus de l’expérience sont des idées ou des représentations, soit simples, soit complexes, composées d’idées simples. Les qualités sensibles, primaires et secondaires, appartiennent à ces idées simples. Une idée complexe, comme par exemple celle de chose ou de substance, est le résultat de l’addition des
propriétés sensibles des choses. Mais lorsqu’il s’agit de préciser la façon dont les idées s’ “inscrivent”, s’ “enregistrent” ou se “reflètent” dans notre esprit, aucun empirisme ne se résoudra à admettre la passivité absolue de celui-ci; en fait, pour un empirisme outrancier, niant tout innéisme, il y a ici un paradoxe d’où il est impossible de sortir; une certaine dose d’innéisme semble inévitable. En ce qui concerne les mathématiques, l’empirisme est obligé également de reconnaître qu’elles constituent une connaissance indépendante de l’expérience et dont le fondement est indépendant des données sensorielles. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. énergie: notion physique désignant la possibilité d’effectuer un travail. La loi fondamentale qui “gouverne tous les phénomènes naturels connus à ce jour” (Feynman) est celle de la conservation de l’énergie. On distingue divers types d’énergie: l’énergie cinétique que possède un solide en mouvement et qui dépend de sa masse et de sa vitesse, l’énergie potentielle que peut posséder un système de corps soumis à un certain type d’interaction (gravitation, force électrostatique, élasticité...). La discipline qui étudie les formes de la conservation de l’énergie (et de sa transformation) est la thermodynamique; celle-ci utilise la notion d’entropie pour distinguer les transformations possibles et celles qui ne le sont pas. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. énoncé apodictique: énoncé logiquement nécessaire exprimé sous la forme “S est nécessairement P” et dont la négation “S n’est pas P” est absolument impossible. Le caractère apodictique d’un énoncé relève soit de l’évidence qu’il possède en lui-même, soit du fait qu’il est le résultat d’une déduction. Ainsi, toutes les vérités des mathématiques sont apodictiques. Le contraire d’un énoncé apodictique est un énoncé assertorique ou contingent. Kant définit trois catégories d’énoncés dans la Critique de la raison pure (A 75 B 100): énoncés problématiques qui expriment une probabilité logique, les énoncés assertoriques qui expriment une réalité logique et les énoncés apodictiques qui expriment une nécessité logique; dans ce sens ils se confondent avec les lois mêmes de la pensée. Ils sont, autrement dit, nécessaires et a priori.
énoncés analytiques et synthétiques: un énoncé analytique est un énoncé dans lequel le prédicat est contenu dans le sujet, ou, plus précisément, un énoncé dans lequel le rapport entre le sujet et le prédicat est un rapport d’identité. En d’autres termes, le prédicat n’ajoute rien au sujet, mais simplement le décompose ou l’explicite. Des exemples de ce type d’énoncé sont: “les corps sont étendus” (dans la mesure où la notion d’étendue est impliquée dans celle de corps) ou “le triangle a trois angles”. Ces énoncés sont des énoncés a priori, autrement dit indépendants de l’expérience. On dit aussi que ce sont des énoncés tautologiques ou des tautologies. Un énoncé synthétique est un énoncé dans lequel le prédicat introduit une information non contenue dans le sujet, comme lorsqu’on affirme que “la chaleur dilate les corps”; on aurait beau analyser le concept de “chaleur”, on ne trouverait pas en lui celui de “dilater les corps”. La validité de ces énoncés réside donc dans l’expérience sensible; seule peut les valider ou les invalider la perception (directe ou indirecte) du fait qu’ils annoncent. énoncés existentiels ou propositions existentielles: énoncé ou proposition qui se formule avec l’expression “il existe...”: “il existe au moins un x qui est P”, etc. La forme logique la plus simple d’énoncé existentiel est (x) P(x), que l’on lit: il existe au moins un x tel que x possède la propriété P. énoncés particuliers ou énoncés individuels: énoncés de la forme “quelques S sont P”, “S est P”. S’opposent aux énoncés universels. Voir classification des énoncés. énoncés protocolaires: énoncés qui expriment des impressions sensibles ou des observations élémentaires. Voir Carnap. énoncés universels ou énoncés généraux: énoncés de la forme “tout S est P”, “Aucun S n’est P”. S’opposent aux énoncés particuliers. Voir classification des énoncés. ensemble (triadique) de Cantor: il s’agit d’un ensemble de type fractal, construit de la manière suivante: on part de l’intervalle [0,1], on le divise en trois parties égales et on retire celle du milieu; il reste donc deux intervalles disjoints; on recommence avec chacun d’entre eux, c’est-à-dire on les découpe en trois parties égales et on retire celle du milieu et ainsi, indéfiniment. enthymème: il s’agit d’un syllogisme incomplet dans lequel on énonce seulement deux des trois parties. On appelle enthymème de premier ordre
celui où manque la prémisse principale (il manque de forces, il a besoin de nourriture), enthymème de deuxième ordre celui où manque la prémisse mineure (tous les Français sont gourmands, les Parisiens sont gourmands) et enthymème de troisième ordre celui où la conclusion est omise (aucun vrai chrétien n’est présomptueux, mais certaines personnes qui fréquentent les églises le sont [exemple de I. M. Copi, Introduction to Logic]). Dans le langage courant et même en science, les inférences s’expriment souvent par des enthymèmes. Ceci s’explique par le fait que la partie supprimée est évidente et va de soi. Un exemple classique d’enthymème est le cogito de Descartes, dont la forme complète serait “tout ce qui pense existe, je pense, donc j’existe”. entiers naturels: on appelle entiers naturels les nombres 0,1,2,... Cet ensemble est désigné par le symbole N. C’est aux mathématiciens Dedekind et Peano que l’on doit les premières descriptions (donc constructions) axiomatiques de N. Celles-ci sont fondées sur: la donnée d’un premier élément 0; sur celle de la notion de successeur qui, à tout entier naturel, associe son “successeur”; sur la propriété suivant laquelle deux entiers différents ne peuvent avoir le même successeur; sur l’axiome selon lequel 0 n’a pas de successeur; sur la propriété de 0 comme élément neutre de l’addition (x+0=x) et absorbant pour la multiplication (x.0=0); et (ce qui alimentera le principe de récurrence ou induction mathématique) sur le principe suivant lequel toute propriété possédée par 0 et transmise par l’opération de succession est vraie pour tous les entiers naturels. entité: Lalande définit ce terme comme désignant soit un objet concret qui n’a pas d’unité ou d’identité matérielle (tels une vague, un courant d’air), soit comme désignant un objet de pensée que l’on peut concevoir mais qui est dépourvu de toute détermination particulière. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. entropie: Il s’agit d’une notion de la physique; l’entropie est une fonction numérique qui caractérise le “désordre” d’un système. Le deuxième principe de la thermodynamique affirme qu’un système isolé (c’est-à-dire sans influence extérieure) tend à évoluer dans le sens d’une entropie croissante.
Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. épiphénomène: Phénomène secondaire qui accompagne un phénomène donné sans intervenir sur lui. On peut, par exemple, interpréter la douleur comme un épiphénomène d’un dysfonctionnement biologique. epistèmè et doxa: Dans La République (V, 477 A- 480 A), Platon établit la différence entre ce qui a une existence absolue (les idées) et ce qui a une existence intermédiaire entre l’être et le non-être (les choses sensibles). À chacune de ces entités correspond une forme de connaissance différente: l’epistèmè ou science pour les premières, la doxa ou opinion pour les secondes. La doxa est pour Platon une faculté propre qui nous permet de “juger sur les apparences”. En tant que premier mode d’approche du monde, de ce qui est changeant ou sujet au devenir, elle n’est pas sans valeur, car elle est la source d’une connaissance intermédiaire entre la certitude et l’ignorance. Au niveau scientifique par contre, la doxa est à bannir; la forme de connaissance qui convient est alors l’epistèmè. Ce qui caractérise en effet le vrai savoir est qu’il ne pas dépend pas de l’opinion mais est fondé sur ce qui est éternel et immuable. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. épistémologie: branche de la philosophie qui se consacre à l’éclaircissement de la conceptualisation scientifique, (telle qu’elle se manifeste dans la science moderne) et explore les exigences syntaxiques et sémantiques des théories. Ses centres d’intérêt sont par exemple la notion de lois, d’hypothèse, de vérification. Bunge et Karl Popper se situent dans cette ligne de pensée. On ne doit pas confondre cette discipline avec des disciplines voisines, telles la gnoséologie, la philosophie de la science, etc. Cf. sciences de la science. épistémologie génétique: Piaget fonde cette discipline dans le but de constituer une méthode “apte... à remonter aux sources, donc à la genèse même des connaissances, dont l’épistémologie traditionnelle ne connaît que les états supérieurs, autrement dit certaines résultantes”. (Piaget, L’épistémologie génétique, p. 6).
L’épistémologie génétique se donne un but nouveau par rapport à l’épistémologie traditionnelle: celui d’explorer la construction et l’évolution de l’univers mental de l’individu. Pour l’épistémologie génétique la pensée ne possède pas de structure, mais une dynamique. Par l’intelligence l’individu appréhende la réalité; celle-ci lui oppose une résistance, en raison de laquelle un processus d’adaptation se révèle nécessaire. Cette méthode ou méthode génétique est appliquée pour saisir la spécificité de la pensée enfantine, mais aussi pour déterminer la nature de la pensée scientifique. En effet, à la lumière de cette épistémologie, Piaget a examiné la pensée mathématique (en tant que construction opérationnelle du nombre et de l’espace), la pensée physique (et les concepts fondamentaux tels que le temps, la force, la vitesse), la pensée biologique, psychologique ou encore sociologique. Pour élargir: Piaget L’épistémologie génétique, PUF, 1979. équation algébrique: on appelle équation algébrique toute équation définie au moyen d’un polynôme; par exemple l’équation 3x² + 2x + 1 =0 est algébrique, alors que l’équation sin(x) + 2x =5 n’est pas algébrique parce que le terme sin(x) n’est pas polynomial. On appelle degré de l’équation le degré du polynôme, c’est-à-dire la plus grande puissance apparaissant dans l’équation. Un théorème célèbre, dû à d’Alembert, assure que toute équation algébrique de degré n, à coefficients complexes, possède exactement n racines (distinctes ou confondues); ceci est en fait la raison d’être de l’ensemble des complexes. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 équation différentielle: équation dont l’inconnue n’est pas un nombre mais une fonction et qui porte sur une relation entre cette fonction recherchée et ses dérivées; l’étude de nombreux phénomènes physiques, se traduisant par des changements d’état, de température, etc.. se traduit par des équations différentielles. équations de champ: formules mathématiques qui permettent de définir les propriétés du champ considéré; par exemple, les équations dites “de Maxwell” régissent le champ électromagnétique.
équivalents de l’axiome du choix: on désigne sous le nom d’axiome du choix, l’axiome suivant lequel étant donnée une famille d’ensembles (Et)t (non vides, il existe une fonction c (fonction de choix) qui permet d’associer à chaque indice t un élément et un seul c(t) dans Et; ce résultat permettrait de montrer que le produit des ensembles Et n’est pas vide. Bien qu’en apparence évident, puisqu’on se voit bien en train de “piocher” dans chacun de ces ensembles un élément, il faut comprendre que ce résultat signifie que la fonction “est capable de choisir simultanément” tous les éléments et non pas d’effectuer cette tache, pas à pas. Les Mathématiques classiques considèrent cette affirmation comme un axiome. La théorie des ensembles connaît des axiomes (ou théorèmes) qui sont équivalents à l’axiome du choix, ce qui signifie que, si l’un d’entre eux est vrai, il en est de même de l’axiome du choix et réciproquement. Il s’agit d’abord de l’axiome de Zermelo (ou du bon ordre) suivant lequel tout ensemble peut être muni d’une relation d’ordre, pour laquelle toute partie non vide admet un plus petit élément. Ce résultat peut être décrit de la manière suivante: l’ensemble des rationnels strictement positifs n’est bien entendu pas vide mais il n’admet pas de plus petit élément; cependant, le fait qu’il est dénombrable permet de dire qu’il existe une relation d’ordre, autre que la relation d’ordre classique, pour laquelle il aura un plus petit élément. Un autre axiome, équivalent à celui du choix, est l’axiome de Zorn, suivant lequel, dans tout ensemble muni d’une relation d’ordre partiel, où toute chaîne croissante admet une borne supérieure, il y a un plus grand élément. espace et temps absolus: il s’agit de l’espace et du temps considérés dans un repère (ou référentiel) galiléen, c’est-à-dire un système où la loi de l’inertie de Galilée ( “tout corps persévère dans son état de repos ou de mouvement uniforme en ligne droite sauf s’il est amené à changer cet état par des forces agissant sur lui”). La notion de référentiel galiléen est centrale dans la mécanique classique, puisqu’elle permet de décrire par une propriété les systèmes dans lesquels les principes classiques de cette mécanique restent vrais. Un exemple approché (car un exemple parfait ne peut exister) de référentiel galiléen dans lequel on pourra considérer espace et temps comme absolus, est celui imaginé par Copernic, dont le centre se confond avec le centre de gravité du système solaire et dont les
axes sont repérés par les directions de trois étoiles de référence que l’on considérera comme fixes. espace homogène: en physique, un espace est dit homogène lorsque tous ses points ont les mêmes propriétés physiques. espace isotrope: en physique, un espace est dit isotrope si, quel que soit le point considéré, toutes les droites issues de ce point ont les mêmes propriétés physiques; les particularités d’un phénomène parcourant cet espace sont alors indépendantes du parcours choisi (à condition que sa longueur reste la même); la vitesse de la lumière sera par exemple indépendante de sa trajectoire, la chaleur s’y propagera de la même manière dans toutes les directions, etc. espace vectoriel (vecteurs et scalaires): en mathématiques, on appelle espace vectoriel un ensemble E d’éléments, muni de lois de “composition” telles que la somme de deux éléments de E appartient à E, et que le produit d’un élément de E par tout nombre (appelé scalaire) appartenant à un ensemble de nombre donné (en général les nombres complexes ou les nombres réels) appartient à E. On appellera donc scalaires les nombres par lesquels on peut multiplier les éléments de E, eux-mêmes désignés sous le nom de vecteurs. La notion d’espace vectoriel est née de la physique. En effet, les forces qui peuvent s’appliquer à un solide forment un espace vectoriel, puisqu’on sait les additionner (c’est-à-dire trouver la force résultante lorsque deux forces sont appliquées) et les multiplier par des réels (c’està-dire trouver la force résultante lorsqu’une force est multipliée par un réel). La notion d’espace vectoriel permet d’essayer d’étendre des démarches et des concepts issus de la géométrie classique. espaces euclidiens et espaces hilbertiens: ces dénominations concernent des espaces vectoriels munis d’un produit scalaire; on réserve le nom d’euclidien aux espaces réels et de dimension finie tandis que la dénomination d’hilbertien (suivi éventuellement de l’épithète “réel” ou “complexe”) désigne un espace, éventuellement de dimension infinie, qui, outre un produit scalaire, possède une autre propriété extrêmement importante, la complétude; les espaces de fonctions qu’utilise l’analyse sont souvent des espaces hilbertiens, ce qui permet d’y employer les notions d’orthogonalité, de produit scalaire, de distance...
espaces fonctionnels: il s’agit tout simplement d’espaces vectoriels dont les éléments (les vecteurs) sont des fonctions. Leur usage est très répandu dans diverses parties des mathématiques pures, des mathématiques appliquées et de la physique mathématique. essence: ce qui fait qu’une chose est ce qu’elle est, et qui constitue sa nature, par opposition à ses modifications superficielles ou temporaires (accidents). Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. essentialisme: appliqué à la connaissance, ce qui vise à l’intelligence de l’essence d’une chose, c’est-à-dire de sa nature profonde, identique dans les différentes configurations particulières. Dans certains cas, cette notion peut prendre un sens péjoratif, par exemple lorsqu’un philosophe recherche la définition ou l’essence de “l’art” ou de “la science”, sans souci des particularités ou des différences, qui pourraient même faire qu’une telle définition générale soit impossible; une telle démarche est essentialiste dans le mauvais sens du terme. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. esthétique: en tant que substantif, ce terme désigne la discipline philosophique ou la théorie de l’art et de la beauté, ainsi nommée par Alexandre Baumgarten, et dont le but est d’élucider l’essence du beau et de la création artistique. En tant qu’adjectif, ce terme s’applique à tout ce qui concerne l’art et la beauté, telle qu’on peut la déceler dans une création humaine ou dans la nature. Pour élargir: E. Souriau, Clefs pour l’esthétique, Seghers, 1970; D. Huisman, L’esthétique, PUF, 1954. état (en physique): on appelle état d’un corps la caractérisation de sa cohésion (état solide, liquide, gazeux), qui peut s’affiner par la description de l’arrangement de ses atomes ou molécules (état cristallin, etc.). état stationnaire: en physique on dit qu’un système possède un état stationnaire si lorsqu’il atteint cet état, il ne le quitte plus; on distinguera des états stables, tels que si le système en est proche, il aura tendance à
s’en rapprocher encore, et des états instables, qui ont la particularité que l’on peut partir d’un état proche d’un état stationnaire instable et s’en éloigner. éthique: en tant qu’adjectif, ce terme désigne ce qui se rapporte aux valeurs morales. En tant que substantif, il désigne la discipline philosophique qui a pour objet l’étude du comportement humain à la lumière des catégories du bien et du mal. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. évidence apodictique: la recherche de la caractérisation de la notion d’évidence est particulièrement importante dans les philosophies de Descartes et de Husserl. Le style de ce dernier rend difficilement exprimable une définition d’évidence: on peut en revanche citer Husserl lui-même lorsqu’il dit dans les Investigations logiques que l’évidence est “l’acte de la synthèses qui s’accomplit parfaitement, qui donne à l’intention la totale plénitude du contenu, celle de l’objet lui-même”. Dans ce même ouvrage, Husserl distingue plusieurs sortes d’évidence dont les plus importantes sont l’évidence assertorique et l’évidence apodictique; la première est l’évidence tout court, et relève des choses individuelles, la deuxième concerne les essences; elle est en conséquence la forme la plus élevée d’évidence, celle qui saisit le nécessaire. évidence comme critère de vérité chez Descartes: pour Descartes, en effet, toute connaissance doit se présenter à l’esprit avec le caractère de l’évidence. Les idées qui possèdent cette particularité sont les natures simples et leur connaissance est atteinte par un acte direct de l’esprit. D’où la nécessité de décomposer toute question en éléments ultimes et évidents. Toute vérité complexe se compose, en conséquence, d’évidences primaires, simples, irréductibles. évolutionnisme: ce nom est utilisé pour désigner le lamarckisme et le darwinisme, ainsi que des systèmes philosophiques comme celui de Spencer (1820-1903) et de Bergson. L’évolutionnisme de Spencer définit l’évolution comme la manifestation d’un être absolu et inaccessible. Ainsi l’évolution a une portée non seulement scientifique mais métaphysique. Cet évolutionnisme précède celui de Darwin. Par contre celui de Bergson s’inspire de ce dernier.
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. existentialisme: courant philosophique qui donne à l’existence un sens spécifique: seul l’homme existe, cette notion étant définie comme le sentiment angoissant d’une solitude fondamentale, au sein de laquelle l’homme se construit, afin de se donner un contenu, c’est-à-dire une essence. L’existence devient, dans ce système, prépondérante par rapport à l’essence, ce qui s’exprime dans la formule “l’existence précède l’essence”. D’autres sujets communs permettent de caractériser l’existentialisme, tels que: le problème de la contingence de l’homme (c’est-à-dire la gratuité de son existence et la liberté nécessaire dont l’homme ne peut pas se soustraire et qui est source d’angoisse, celle-ci étant entendue non pas comme un sentiment psychologique, mais comme ayant une portée ontologique), l’aliénation, la situation, la décision, le choix, la solitude. Mais sur cette base commune des différences importantes s’établissent. On eut reconnaître par exemple un existentialisme chrétien, défendu par Karl Jaspers ou Gabriel Marcel, un existentialisme athée comme ceux de Heidegger, Sartre, Merleau-Ponty. Pour élargir: Sartre, L’existentialisme est un Humanisme, Nagel, 1970. expérience: il convient de distinguer deux sens principaux du mot expérience: a) du point de vue gnoséologique, l’expérience représente un mode d’appréhension immédiate de la réalité, par les sens ou par l’intuition, distinct du raisonnement qui est médiat. Pour les empiristes, il s’agit du facteur déterminant de la connaissance, dans la mesure où l’expérience est non seulement la source de toute connaissance, mais le critère auquel doit répondre toute connaissance qui se veut scientifique; b) expérience s’utilise aussi comme synonyme d’expérimentation, c’està-dire de manipulation des faits ou des phénomènes en vue d’une observation, pouvant servir soit pour vérifier une hypothèse, soit pour découvrir le mécanisme caché d’un phénomène. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. expérience de Köhler: dans une série d’expériences entreprises pour étudier la résolution de problèmes par l’homme (après des études menées sur les chimpanzés par Köhler), Ruger a proposé à des individus des
casse-têtes formés d’anneaux imbriqués, de clous tordus, etc., et il a fait noter intégralement les actions et les paroles des individus étudiés; en général on pouvait remarquer que l’individu trouvait vite le point central du casse-tête et l’exprimait par une phrase du type: “Hum...Il doit y avoir un moyen de faire passer cela par cette boucle...”. expérience (ou sens) externe et interne: voir Kant. expérimentation: voir expérience. explicandum, explicans: explicans =phénomène que l’on veut expliquer; explicandum =explication proposée. explication scientifique: dans La science, sa méthode et sa philosophie, Bunge définit l’explication scientifique comme la recherche des lois. À la page 54 on peut lire que “la science est explicative: elle tente d’expliquer les faits en termes de lois, et les lois en termes de principes. Les chercheurs ne se contentent pas de descriptions détaillées; outre leur recherche sur le comment des choses, ils tentent de répondre au pourquoi: pourquoi les faits se produisent d’une certaine façon et pas autrement? La science déduit des propositions relatives à des faits singuliers à partir de lois générales, et déduit les lois à partir d’énoncés nomologiques encore plus généraux (les principes). Les lois de Kepler, par exemple, expliquaient un ensemble de faits observés au sujet du mouvement des planètes; et Newton expliqua ces lois en les déduisant de principes généraux; ceci permit par la suite à d’autres astronomes de rendre compte des irrégularités des orbites des planètes, qui étaient ignorées de Kepler. On croyait autrefois que fournir une explication c’était déterminer une cause, mais, de nos jours, on considère que l’explication causale n’est qu’une forme d’explication scientifique parmi d’autres. L’explication scientifique s’effectue toujours en termes de lois, les lois causales n’étant qu’un sous-ensemble de l’ensemble des lois scientifiques. Il y a divers types de lois scientifiques et, en conséquence, une diversité de types d’explications scientifiques: cinématiques, dynamiques, probabilistes, téléologiques, etc. L’histoire de la science enseigne que les explications scientifiques sont sans cesse corrigées ou rejetées. Cela signifie-t-il qu’elles sont toutes fausses? Dans la science factuelle, la vérité et l’erreur ne sont pas complètement incompatibles entre elles: il y a des vérités partielles et des erreurs partielles; il y a de bonnes approximations et il y en a de mauvaises. La science n’œuvre pas comme Pénélope, mais se sert de la
trame tissée la veille. Les explications scientifiques ne sont pas définitives, mais elles sont perfectibles”“. Pour élargir: voir La science, sa méthode et sa philosophie, éditions Vigdor, page 54 et ss. expressions douées de signification: avant de constituer un problème d’épistémologie, la signification des expressions ou des propositions constitue un problème pour la logique, telle que celle-ci se développe à partir de Frege et en passant par Russell et Wittgenstein, préoccupés du problème de l’ambiguïté du langage. Reprenant ces préoccupations dans le contexte du langage de la science, le néopositivisme établit une classification tripartite des propositions en: vraies, fausses ou dénuées de sens. Les seules propositions admissibles ou ayant une signification sont les propositions analytiques et les propositions empiriques. Le critère de validité des énoncés analytiques réside dans leur forme logique: les tautologies sont toujours vraies et les contradictions sont toujours fausses. La valeur de vérité d’un énoncé empirique réside dans sa capacité à être vérifié par l’expérience. D’un énoncé qui n’est ni analytique ni réductible d’une façon ou d’une autre à des données d’expérience, on dit qu’il est dénué ou dépourvu de sens ou de signification. Dans cette catégorie se classent, pour les néopositivistes, la plupart des énoncés de la métaphysique. Pour élargir: P. Jacob, L’empirisme logique, Éditions de Minuit, 1980; L. Vax, L’empirisme logique, PUF, 1970. extrapolation: déduction ou généralisation hâtive à partir de données incomplètes; dans le domaine scientifique, il s’agit souvent d’une démarche qui consiste à prolonger la validité d’un savoir au-delà du domaine d’origine dans lequel il est établi, ce qui est bien entendu sans légitimité. factuel: ce qui est de l’ordre ou relève des faits et de l’expérience. Le mot est utilisé ici par opposition à formel, c’est-à-dire à ce qui relève du raisonnement pur ou de la logique; mais factuel peut aussi s’utiliser par opposition à ce qui relève de l’ordre du droit. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
faillibilisme: conception selon laquelle aucun savoir scientifique n’est définitif et toute proposition est perfectible et corrigible. Voir faillible. faillible: qui est susceptible d’erreur ou sujet à l’erreur. Par exemple: “la justice est faillible”. La science, pour ne pas se figer et pouvoir progresser, doit être faillible, c’est-à-dire qu’une théorie doit pouvoir être surmontée, dépassée ou améliorée par d’autres théories. La connaissance scientifique est un savoir faillible. On doit notamment à Popper une conception faillibiliste de la science. fallacieux: un raisonnement fallacieux ne respecte pas les lois logiques. Synonyme de sophisme, c’est-à-dire de raisonnement qui bien que logiquement incorrect est psychologiquement convaincant. Il y a eu au long de l’histoire de la pensée diverses classifications des sophismes. finalisme: attitude ou caractère des philosophies pour lesquelles la réalité ou le monde a un but. L’explication par les fins s’oppose à l’explication par les causes. Les explications finalistes sont pertinentes dans certains domaines, tels la biologie ou la psychologie, où il est impossible d’isoler un élément de la totalité à laquelle il appartient. Toutefois ces disciplines ne proposent pas exclusivement des explications finalistes, mais aussi causales. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. fission: la fission nucléaire est la division d’un noyau atomique; celle-ci produit, outre les éléments qu’elle sépare, une énergie qui fut mise à profit dans le principe de la bombe atomique; la fission fut découverte par Hahn à la veille de la seconde guerre mondiale, à la suite des travaux de Joliot et Fermi, dans le cas de l’uranium. La fission est obtenue à partir d’un bombardement du noyau par des neutrons. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. flatus voces: bruit sans signification. Le nominalisme affirme que toute notion générale de classe est un terme sans référence aucune et donc sans signification, par exemple “humanités”. fluxions: terminologie utilisée par Newton, qui considérait que les grandeurs variables étaient engendrées par des flux. Ainsi il désignait ce
que l’on appelle maintenant en mathématique par fonctions sous le nom de “fluentes” et leurs dérivées sous le nom de “fluxions”. fonctions: en mathématiques, on appelle fonction une relation entre deux ensembles qui associe à chaque élément de l’ensemble de départ un élément unique de l’ensemble d’arrivée. Par exemple, sinus, cosinus, etc., sont des fonctions reliant l’ensemble des réels et lui-même (on dit “de l’ensemble des réels vers lui-même”). Une fonction sera dite “numérique” ou “réelle” si elle est “à valeurs dans l’ensemble des réels”. Les fonctions sont un élément fondamental des mathématiques, tant en algèbre qu’en analyse; elles sont un point de passage nécessaire lors de l’application des mathématiques à d’autres domaines, puisque déterminer la répartition dans le temps ou l’espace d’une grandeur physique (température, pression, etc.,), c’est étudier une fonction associant au temps ou à la position, cette même grandeur physique. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 fonctions orthogonales, orthogonalité: dans un espace vectoriel muni d’un produit scalaire (espace vectoriel euclidien), deux vecteurs sont dits orthogonaux lorsque leur produit scalaire est nul; il s’agit donc d’une extension à un tel contexte d’une notion connue dans les espaces usuels (le plan et l’espace de dimension 3). Dans un tel espace, on cherche parfois à décomposer un vecteur en somme de vecteurs orthogonaux entre eux, ce qui signifie intuitivement qu’ils sont le plus possible indépendants les uns des autres. Dans les espaces fonctionnels utilisés par exemple pour les phénomènes ondulatoires, cette décomposition en éléments orthogonaux entre eux, possède une signification physique; il s’agit, dans le cas de la lumière, de la décomposition du spectre lumineux. fonction propositionnelle: par analogie avec les fonctions numériques appelées à prendre des valeurs numériques lorsque sont fixées les valeurs de leurs variables, il s’agit de fonctions appelées à prendre comme valeurs des propositions. “X est humain”, par exemple, est une fonction propositionnelle; elle devient une proposition (susceptible de vérité ou de
fausseté) lorsque nous attribuons une valeur à X, par exemple “Socrate”: elle devient alors la proposition vraie “Socrate est humain”. Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. fonctions numériques: voir fonctions. fondamentalisme: croyance selon laquelle tout savoir doit se construire sur des bases (fondements) inamovibles. force: la notion de force est essentiellement due à Newton. On peut appeler force toute cause pouvant déformer un corps ou modifier son mouvement. Newton a aussi défini les propriétés des forces: loi de l’action et de la réaction, principe de superposition (qui détermine en fait la structure mathématique dans laquelle on considérera l’ensemble des forces appliquées à un même objet). Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. formalisation: réduction d’un ensemble de connaissances à son ossature logique, c’est-à-dire à sa structure, en faisant abstraction de son contenu empirique ou intuitif, et organisation de celui-ci en un système dans lequel on fait dériver toutes les assertions ou théorèmes d’un certain nombre de principes ou axiomes; ceci se réalise au moyen de règles de déduction et de procédés de démonstration rigoureusement déterminés. Ce qui caractérise plus particulièrement la science moderne est sa formalisation mathématique. La formalisation mathématique a dans la science moderne un rôle aussi important que celui de l’expérimentation. On peut situer dans les travaux de Galilée le début de la démarche qui consiste à réduire ou interpréter la réalité physique en termes de propriétés géométriques et mécaniques, considérant les qualités sensibles comme relevant de la subjectivité. “La philosophie (qui comprend la science) est écrite dans ce très vaste livre qui, constamment, se tient ouvert devant nos yeux – je veux dire l’univers – mais on ne peut le comprendre si d’abord on n’apprend pas à comprendre la langue et à connaître les caractères dans lesquels il est écrit. Or, il est écrit en langage mathématique et ses caractères sont les triangles, les cercles et autres figures géométriques, sans lesquels il est absolument impossible d’en comprendre un mot, sans lesquels on erre vraiment dans un labyrinthe obscur”. (Galilée, L’Essayeur).
La nature est donc comparée à un livre et la connaissance à la lecture de ce livre, ou plutôt à son déchiffrage. Mais le langage qui permettrait de saisir ce qui y est inscrit, et de s’approprier les secrets de l’univers, est constitué par les mathématiques. Faire de la physique, saisir les lois de la nature, c’est d’abord calculer, faire des mathématiques. Cette imbrication de la physique et des mathématiques qui va de soi pour la science actuelle, était impensable dans la conception ancienne pour laquelle la physique s’occupe des corps concrets et naturels avec leurs imperfections, alors que les mathématiques s’occupent des objets abstraits et parfaits. La physique mathématique est impossible parce qu’on ne trouve pas sur terre de sphère parfaite, de même qu’on ne trouve pas dans ce monde à trois dimensions de cercles ou de carrés; on doit à Galilée la découverte du fait que ce monde est accessible à l’abstraction mathématique. Connaître devient alors non pas classer, décrire ou chercher les causes premières ou finales, mais trouver des formules, des équations, des identités exprimant des rapports entre différentes grandeurs significatives. Galilée est, par exemple, le premier à avoir calculé le rapport de la distance parcourue par un objet qui tombe au temps de la chute et à sa vitesse. Bunge nuance l’exigence de mathématisation. Voir La science, sa méthode et sa philosophie, page 35. formel: par opposition à factuel ou à matériel, ce qui concerne la forme, c’est-à-dire qui est abstrait. Voir formalisation. fractal: le mathématicien Benoît Mandelbrot a donné le nom de fractales à des ensembles qui conservent leur apparence, une fois agrandis et observés comme à l’aide d’un zoom; ce que l’on traduit mathématiquement par la propriété d’ “auto-similarité”. La nature fournit de nombreux exemples de fractales: feuilles d’arbres, la côte bretonne (que Mandelbrot a décrits dans son ouvrage The fractal geometry of nature) etc. Les mathématiciens eux-mêmes avaient inventées des fractales dès la fin du siècle dernier: tapis de Sierpinski, ensemble de Cantor... Mais la notion de fractales est passée du stade de création intellectuelle à celui d’outil pour la recherche dans un domaine très actif des mathématiques: l’étude des systèmes dynamiques. Pour élargir: B. Mandelbrot Les Objets fractals, forme, hasard et dimension. Flammarion, 1975. fréquence: la fréquence d’un événement est le rapport de son nombre d’occurrences au nombre total des cas considérés; si par exemple on lance
un grand nombre de fois une pièce “non truquée”, la fréquence du résultat “pile” sera (d’après la loi probabiliste dite “loi des grands nombres”) proche de ½. La fréquence est donc un concept statistique, lié à la compilation après coup des résultats obtenus, alors que la probabilité est un nombre énoncé a priori et qui prédit la chance d’obtenir lors d’une action (ici un lancer de la pièce) tel ou tel résultat. Bien entendu, le calcul de la probabilité est fonction des lois et des formules appropriées, fournies par la théorie des probabilités, et des informations qui peuvent être fournies par l’étude empirique (ici celle de la pièce, d’une roulette au casino, etc.) et qui se traduisent, entre autres, en termes de fréquences, écarts-types, etc. Dans le cas d’un phénomène ondulatoire on parlera de fréquence pour décrire le nombre de répétitions du phénomène par unité de temps. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. généralisation newtonienne ou synthèse newtonienne: Newton réunit le premier en une théorie scientifique complète et rigoureuse les acquis antérieurs les plus importants, mais en les rectifiant partiellement et en leur donnant toute leur généralité; il les complète principalement par la notion de gravitation universelle qu’identifie quant à leur nature la pesanteur terrestre et les attractions entre les corps célestes. La mécanique de Newton exposée dans ses Principes mathématiques de la philosophie naturelle (1687) est fondée sur trois principes: 1) le principe d’inertie, déjà ébauché par Galilée et Descartes; 2) la proportionnalité de la force à l’accélération, entrevue également par Galilée; 3) l’égalité de l’action et de la réaction, aisément perceptible dans les actions de contact, mais que Newton étend aux actions à distance. Newton, qui défendait l’héliocentrisme, applique sa mécanique à l’explication des mouvements des planètes et de la Lune, qui n’avait été que partiellement établie par Kepler. La mécanique de Newton est, sans modification de fond, la base de tous les développements ultérieurs de la mécanique, notamment la mécanique des fluides et la mécanique céleste, jusqu’à l’avènement de la théorie de la relativité d’Einstein. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. génétique: en tant que nom, partie de la biologie qui étudie les lois de l’hérédité. Dans ce sens elle remonte à Mendel. En tant qu’adjectif, le
terme génétique désigne toute méthode, définition, classification ou théorie qui tient compte de la genèse des objets qu’il étudie. En philosophie, relatif à la succession logique, à la filiation des idées entre elles. Voir épistémologie génétique. géométrie analytique: née des idées de Descartes, la géométrie analytique utilise le calcul algébrique pour déterminer des propriétés géométriques; pour cela, elle associe aux points leurs coordonnées, aux droites et aux courbes leurs équations, qui sont l’expression de conditions d’appartenance à ces courbes (un point appartient à une telle courbe si et seulement si ses coordonnées vérifient une certaine équation),etc. Appuyant la géométrie sur le calcul, elle se traduit dans un premier temps par la substitution de calculs “mécaniques” à des raisonnements “difficiles”, puis ensuite par l’accumulation de calculs qui exigent une organisation et une méthode accrues. Avec le développement des ordinateurs et des outils de calcul formel, la géométrie analytique a acquis une nouvelle vie. Indépendamment de cela, la géométrie analytique est indispensable à l’ingénieur. géométrie euclidienne et géométries non euclidiennes: les Éléments d’Euclide représentèrent durant plus de vingt siècles la seule géométrie possible, celle qui était censée décrire l’espace réel. Cette géométrie s’édifie 1) sur des axiomes (dont le nombre est variable selon les textes qui sont parvenus jusqu’à nous), par exemple: deux grandeurs égales à une troisième sont égales entre elles; si, à deux grandeurs égales, on ajoute des grandeurs égales, les sommes sont égales; le tout est plus grand que la partie; 2) sur vingt-trois définitions (par exemple, un point est ce qui n’a pas de parties, une ligne est une longueur sans épaisseur, etc.); 3) sur cinq postulats I) Par deux points on peut tracer une ligne droite; II) Toute droite limitée peut se prolonger indéfiniment dans la même direction; III) Avec n’importe quel centre et n’importe quel rayon on peut tracer une circonférence; IV) Tous les angles droits sont égaux entre eux; V) Le postulat connu sous le nom de postulat des parallèles, suivant lequel, par un point, on peut faire passer une parallèle et une seule à une droite donnée. La particularité de cette géométrie réside dans le fait que, parmi les cinq postulats sur lesquels elle s’édifie, les quatre premiers traduisent des
propriétés plus ou moins évidentes pour notre intuition, alors que le cinquième n’a pas l’évidence intuitive des autres. Les efforts consacrés à tenter de le démontrer furent innombrables, jusqu’à ce que l’idée mûrisse au début du siècle dernier, chez plusieurs mathématiciens à la fois, de remplacer cet effort de démonstration du cinquième postulat par la décision de lui en substituer un autre, non pas descriptif mais conventionnel. Le mathématicien Lobatchevsky procéda de la manière suivante: il contredit le postulat en question; on peut, dit-il, mener par un point plusieurs parallèles à une droite donnée. Il conserve par contre les autres postulats et obtient une géométrie rigoureuse et cohérente, bien que très différente de celle d’Euclide. Un pas de plus fut franchi par le mathématicien Riemann; celui-ci poussa, en effet, encore davantage la relativisation de la géométrie. Il inventa un monde sphérique entièrement imaginaire ainsi que la géométrie qui le décrit. Pour cela il abandonne l’idée de démontrer non seulement le cinquième postulat d’Euclide, mais aussi le troisième; il définit ces deux postulats de façon entièrement conventionnelle et procède à partir d’eux à des inférences rigoureuses qui aboutissent à une géométrie cohérente. À partir de ce moment, une quantité indéterminée de géométries s’avérèrent possibles: des géométries qui possèdent, outre la vertu de la cohérence, celle de la fécondité, et qui se sont révélées susceptibles d’applications concrètes et utiles. Dans cet éclatement des géométries, celle d’Euclide n’apparaît donc plus comme la seule possible ni la seule utile, mais comme celle qui répond le mieux à notre perception immédiate, c’est-à-dire comme la convention la plus intuitive. Pour élargir: H. Poincaré, La science et l’hypothèse, Flammarion, 1968. L. Santalo, Les géométries non euclidiennes, éditions Vigdor, 2000. géométrie métrique: partie de la géométrie qui étudie les distances; les relations entre les angles et les longueurs des côtés d’un triangle font, par exemple, partie de la géométrie métrique, alors que certaines propriétés des parallélogrammes n’étant liées qu’au parallélisme des côtés, se rattachent à la géométrie affine, qui se préoccupe des notions de direction. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 géométrie projective: branche de la géométrie qui étudie les propriétés conservées par projection et qui intègre de ce fait des “points à l’infini”,
des “droites à l’infini”, etc., ceci étant le seul moyen d’assurer l’existence de ces projections dans tous les cas de figure; lorsque les professeurs de mathématiques parlaient il y a encore 30 ans de “passage à l’infini”, etc., il s’agissait d’un emploi des notions de la géométrie projective qui était encore enseignée au niveau du premier cycle universitaire. L’usage d’éléments “à l’infini” permet de généraliser et simplifier des résultats de la géométrie euclidienne. En revanche, la géométrie projective n’intègre par les notions de distance. géométries hyperbolique et elliptique: il s’agit des géométries noneuclidiennes, nées de la négation du fameux postulat d’Euclide, qui peut se faire de deux manières: soit poser que d’un point extérieur à une droite on peut mener plusieurs parallèles à cette droite – cela donne la géométrie hyperbolique; soit décréter que, d’un point extérieur à une droite, on ne peut pas mener de parallèle à celle-ci – cela donne la géométrie elliptique. Le mathématicien Félix Klein justifie la terminologie par une allusion, d’une part, aux différents types de coniques à centre – hyperboles et ellipses – et, d’autre part, au fait que l’existence des deux asymptotes à l’hyperbole correspond à deux parallèles “concourantes”, et l’absence d’asymptotes à l’ellipse à l’absence de parallèles. Le mathématicien Beltrami a donné une représentation d’une géométrie hyperbolique qui consiste à considérer comme “espace” l’intérieur d’un cercle, à considérer comme “points” les points de l’intérieur de ce cercle, comme “droites” les cordes de ce cercle, et comme “parallèles” des cordes qui se rencontrent en un point du cercle; ainsi, d’un point A de cet espace on peut mener deux “parallèles” à une “droite” donnée. De même, une représentation d’une géométrie elliptique peut être obtenue de la manière suivante: on considère comme “espace” une sphère (S), comme “points” les points de cette sphère (précisons que le terme de sphère désigne la surface et non le volume), comme “droites” les cercles portés par la sphère, et comme “parallèles” deux cercles qui se rencontrent à l’infini (ici, l’ensemble étant borné et ne possédant pas de frontière, deux cercles ne peuvent se rencontrer qu’à “distance finie”). géométries non représentatives: il s’agit pour l’auteur de décrire les géométries définies de manière abstraite comme des ensembles vérifiant des règles; une description “axiomatique” de la géométrie plane donnée par G. Choquet commence par exemple ainsi:
- il y a des éléments appelés “points”, des sous-ensembles appelés “droites”; - les règles peuvent être les suivantes: i) Le plan contient au moins deux droites, et toute droite contient au moins deux points; ii) Pour tout couple (x, y) de points distincts, il existe une droite et une seule contenant x et y (axiome d’incidence); iii) À toute droite sont associées deux structures d’ordre total opposées (axiome d’ordre) etc. Ceci est analogue à ce que l’auteur appelle ailleurs “groupe abstrait” ou “groupe pur”. Gestalttheorie ou Gestaltpsychologie ou Gestaltisme ou Psychologie de la forme: du mot allemand gestalt, forme. Théorie du psychisme due notamment à Koffka (1886-1941) en Allemagne, introduite en France par P. Guillaume. Cette école propose une approche du psychisme centrée sur l’étude de la perception chez les animaux et chez l’homme. La perception que le sujet a de la réalité obéit à certaines lois que l’on peut isoler. Un élément change par exemple de signification selon le contexte dans lequel on le place. La psychologie de la forme affirme ensuite que la perception est globalisante et que le tout est perçu avant les parties. Une mélodie est par exemple un tout dans lequel les notes qui la composent n’atteignent pas la perception. On peut réécrire la mélodie avec d’autres notes sans que son caractère soit changé. La forme ou la structure est le facteur dominant de la perception. La valeur de chaque élément est déterminée par sa participation dans l’ensemble. Toutefois changer un élément peut modifier la structure toute entière: une touche de couleur, par exemple, peut modifier totalement le caractère d’un tableau. La gestalt observe que, certaines structures se présentant incomplètes à l’esprit, celui-ci est capable de restituer l’ensemble. Ainsi les formes et les structures sont une synthèse de la réalité, de l’activité du psychisme, et aussi de facteurs tels que l’habitude ou l’éducation. Pour élargir: Paul Guillaume, Psychologie de la forme, Flammarion, 1937. gnoséologie, gnoséologique: du grec gnosis, connaissance. Relatif à la connaissance. La gnoséologie, ou théorie de la connaissance, s’interroge sur l’origine, la nature, la valeur et les limites de la faculté de connaître. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
gravitation (Einstein): la gravitation est l’une des interactions fondamentales de la physique; elle exprime l’attraction de deux corps en fonction de leurs masses et de leur distance; Einstein l’a intégrée dans son système sous la forme d’une modification de l’espace-temps au voisinage d’une masse. gravitation universelle: une des quatre formes fondamentales d’interaction en physique. Cette loi physique fut formulée pour la première fois par Newton: deux masses ponctuelles s’attirent suivant une force dirigée par la droite qui les relie, et dont l’intensité est proportionnelle au produit des masses et inversement proportionnelle au carré de leur distance. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. groupe (en mathématiques): ensemble muni d’une loi de composition qui permet d’associer à tout couple d’éléments un autre élément; l’ensemble des entiers relatifs (positifs et négatifs) est un groupe lorsqu’on considère l’addition. La loi de composition doit être associative, ce qui signifie que la présence de parenthèses pour déterminer l’ordre des opérations est inutile (a£(b£c)=(a£b)£c); l’ensemble doit aussi posséder un élément neutre (comme le 0 de l’addition des entiers ou le 1 de la multiplication), dont l’action laisse invariants les autres éléments; de plus tout élément possède un élément symétrique (c’est à dire tel que la composition de l’élément et de son symétrique soit égale à l’élément neutre). Les groupes se révèlent très utiles pour décrire les “symétries” qui caractérisent un ensemble (par exemple des cristaux) ou des propriétés physiques (le groupe dit de Lorentz est caractéristique du type de symétrie autorisé par la théorie de la relativité). De nombreux problèmes peuvent se concevoir comme relevant de l’action d’un groupe sur un ensemble: par exemple “Rubik’s Cube”, célèbre casse-tête, traduit l’action d’un certain groupe de transformations géométriques sur les éléments du cube; la détermination de l’égalité de triangles est la recherche d’éléments du groupe des isométries planes qui pourraient faire se correspondre deux triangles. Voir aussi structures pures ou abstraites. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978
hermétique: ce terme est utilisé ici dans le sens d’impénétrable à la science. heuristique: ce qui se rapporte à la découverte; dire d’une chose (idée, hypothèse, raisonnement) qu’elle est heuristique équivaut à dire qu’elle a une valeur ou une fonction aidant à la découverte. En tant que substantif, l’heuristique est la discipline qui étudie les différents aspects de la découverte. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. histoire de la science: étudie les découvertes du point de vue de leur chronologie, et souvent du contexte social général dans lequel elles se développèrent. Dans cette ligne se situent par exemple les travaux de A. Koyré. Voir sciences de la science. historicisme: conception selon laquelle les phénomènes sociaux doivent être étudiés avant tout d’un point de vue historique et sans prétendre atteindre des généralisations. hypnagogique: en psychiatrie, se dit de l’état progressif d’endormissement qui conduit au sommeil proprement dit ou qui le précède. hypothèse (ou conjecture): du grec upothesis, mettre par dessous, dans le sens de présupposer, de postuler. Terme apparaissant déjà avec ce sens chez Platon, comme quelque chose que l’on doit démontrer. Dans la science moderne, il possède des connotations particulières: une hypothèse scientifique n’est pas une conjecture fantaisiste, mais une conjecture que l’on peut en principe soumettre à l’épreuve de l’expérience. Une hypothèse scientifique doit énoncer d’emblée les conditions dans lesquelles elle pourrait être vérifiée ou infirmée par des expériences. Synonyme de conjecture. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. hypothèse ad hoc: lorsqu’un système est mis en cause par le résultat d’un test, il est en principe possible d’en “sauver” n’importe quelle partie grâce à des réajustements adéquats, tenant par exemple aux conditions initiales. On trouve dans la philosophie de Popper une étude systématique du
problème de l’adhoccité. Selon Popper, une explication est ad hoc si elle est avancée pour répondre à une objection et pour “sauver la face”; elle n’est donc pas testable indépendamment de ce dont elle est censée rendre compte: elle ne permet d’effectuer aucune prédiction autre que celle du phénomène qu’elle est censée contribuer à expliquer. Les explications circulaires sont de ce type: si l’on explique la tempête par la colère de Neptune, la seule observation favorable à l’explication (explicans) est le phénomène à expliquer (explicandum). La règle d’exclusion des hypothèses ad hoc pourra s’énoncer: l’hypothèse ne doit pas répéter (sauf sous la forme d’une généralisation) l’explicandum ou l’une de ses composantes; mais elle doit avoir un plus grand contenu empirique. Plus celui-ci sera important, plus l’explicans aura de conséquences empiriques différentes de l’explicandum, en particulier des conséquences portant sur des domaines d’objets différents. Il y a donc des degrés d’indépendance, d’audace ou, inversement, d’adhoccité. Une condition suffisante d’indépendance est que l’explicans corrige l’explicandum, par exemple en permettant de l’exprimer de manière plus précise, voire en le faisant apparaître comme décrivant une régularité vraie seulement dans certaines circonstances ( “principe de correspondance”). La méthodologie falsificationniste proscrit alors l’usage de “stratégies immunisantes” parmi lesquelles le recours à des hypothèses ad hoc. Mais elle n’interdit évidemment pas, tout au contraire, l’usage d’hypothèses auxiliaires conservatrices (par exemple l’existence de Neptune), pourvu qu’elles soient testables. La différence entre les deux types d’hypothèses n’est pas toujours claire, et Popper reconnaît qu’il faut se garder d’édicter des règles trop draconiennes, car une conjecture apparemment ad hoc peut devenir testable (par exemple le neutrino). D’un autre côté, il convient de ne pas se satisfaire de leur caractère ad hoc et tenter de l’éliminer. Pour élargir, Popper: Logique de la Découverte Scientifique, §20. hypothèse du spin: hypothèse selon laquelle les particules élémentaires comme l’électron et le proton possèdent une propriété mécaniquequantique, dont l’analogue classique est une rotation angulaire; c’est Pauli ( 1900-1958) qui en suggéra l’existence, dans le cadre d’un principe physique, qu’il dénomma “principe d’exclusion”, en vertu duquel l’état d’un atome est complètement décrit par quatre grandeurs numériques discontinues ( “quantiques”): le niveau d’énergie, le moment cinétique, le moment magnétique et le “spin”.
Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. idéalisme: à la question métaphysique “qu’est-ce qui existe?”, le réalisme répond que la réalité toute entière existe indépendamment du sujet qui la perçoit. Pour l’idéalisme, au contraire, la réalité est, au moins partiellement, l’effet de la conscience qui la connaît et qui, dans un certain sens, la “construit”. La formule de Berkeley esse=percipi exprime la forme la plus extrême de l’idéalisme. La philosophie de Kant représente une forme nuancée et critique de l’idéalisme, l’idéalisme transcendantal. Celui-ci admet l’existence d’une réalité extérieure indépendante de la conscience, réalité qui demeure toutefois inaccessible: ce que nous connaissons est l’ “organisation” que lui impose la conscience. Il faut distinguer entre un idéalisme objectif ou logique et un idéalisme subjectif ou psychologique: le premier (défendu par des philosophes néo-kantiens, notamment Hermann Cohen) part de la conscience en tant qu’organe de la connaissance, le deuxième se fonde dans la conscience individuelle et rejoint le subjectivisme. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. idola: voir Bacon. imitation pythagoricienne: les pythagoriciens appelaient , ou imitation, la relation des choses avec les nombres, qu’ils considéraient comme des réalités essentielles et supérieures imitées par les choses. Cette théorie prépare celle de la participation platonicienne. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. implication ou relation d’implication: il s’agit de la relation logique reliant une notion ou idée à une autre qui la contient. Ainsi, par exemple, la notion de totalité implique celle de parties. De même la proposition “il pleut” implique la proposition “l’herbe est mouillée”, ce qui peut être noté p q, où p désigne la proposition “il pleut” et q “l’herbe est mouillée”; on dira aussi “si p alors q” (s’il pleut, l’herbe sera mouillée).
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. inclusion: une classe (ou un ensemble) A est incluse dans une classe B si et seulement si tous les membres de A appartiennent aussi à B. indéterminisme: de façon générale, position qui affirme l’existence de la spontanéité ou de la liberté dans la réalité. Toutefois, dans la mesure où cette notion s’oppose à celle de déterminisme, elle peut prendre différentes significations selon le déterminisme dont il s’agit. induction: il faut faire la différence entre le procédé et le problème de l’induction. Le procédé inductif est l’inférence logique de généralisation, c’est-à-dire le passage de constatations particulières à des conclusions générales. Le problème de l’induction est celui de la justification du saut inductif, c’està-dire du passage de quelques-uns à tous. Ce problème concerne deux domaines: logique et épistémologique. Logiquement, le problème de l’induction concerne toutes les généralisations; épistémologiquement, il porte sur l’insuffisance des généralisations en tant que connaissances scientifiques. L’induction devient un problème épistémologique lorsqu’on se demande quel type d’énumération intervient dans la science empirique. Cette préoccupation conduit Bacon à établir les célèbres tables de présence et d’absence, destinées à déterminer les conditions dans lesquelles une induction est scientifiquement légitime ou non. Le problème de l’induction a une portée épistémologique également chez Hume, dans la mesure où celle-ci concerne un aspect essentiel de la connaissance: la notion de causalité. En explorant à fond le problème logique de l’induction, Hume s’aperçoit qu’il existe des retombées épistémologiques, en ce sens que, les inductions étant injustifiées, la notion de causalité, pilier de la recherche scientifique, l’est aussi; car celle-ci n’est pas autre chose qu’une généralisation. Ces conclusions conduisent Hume à un désespoir et à un scepticisme épistémologiques. Au XIXe siècle, John Stuart Mill, renouant avec le type de réflexion mené par Bacon, se donne pour objet d’établir les règles précises des procédés inductifs légitimes. Au XXe siècle, les théories de l’induction sont devenues très nombreuses; elles traitent essentiellement le problème en relation avec la question des probabilités. Deux écoles s’opposent à cet égard. D’après l’une d’entre
elles, représentée par Von Mises et Reichenbach, le problème de l’induction doit être traité du point de vue de la théorie fréquentielle de la probabilité; les inférences inductives deviennent alors des inférences statistiques. Selon l’école représentée par Keynes, Carnap, Hempel ou Goodman, le problème de l’induction doit être traité du point de vue de la probabilité, comme celui du degré de confirmation des théories. Pour élargir: R. Blanché, L’induction scientifique et les lois naturelles, PUF, 1975. induction complète: il s’agit de l’induction qui procède par des énumérations ou recensements complets des cas. F. Bacon s’interroge sur le type d’énumération qui doit être considérée comme légitime dans le travail scientifique. En observant que les sciences procèdent à des généralisations à partie d’énumérations incomplètes, il tente d’établir des tables de présence et d’absence, pour déterminer quelles inductions sont scientifiquement légitimes. induction mathématique: appelée aussi “récurrence”. Il s’agit d’une méthode de raisonnement ou de construction mathématique, qu’il ne faut pas confondre avec l’induction rencontrée dans les sciences expérimentales. Fondée sur une propriété des entiers naturels, elle se présente ainsi: pour démontrer qu’une propriété est vraie pour tous les entiers naturels, on montre: i) qu’elle est vraie pour 0; ii) que si elle est vraie pour un entier n, elle est vraie aussi pour son successeur n+1. C’est une méthode extrêmement puissante qui exige une compréhension de la structure d’un problème plus que de son contenu. infaillibilisme: conception selon laquelle une théorie peut atteindre un stade de perfection où aucun fait ne peut la réfuter. Popper utilise cette notion pour caractériser également la particularité de certaines théories de se dérober à la critique, à travers une structure auto-défensive qui les immunise contre la critique. Antonyme de faillibilisme. inférence: opération logique par laquelle la pensée tire à partir d’une ou plusieurs propositions la conséquence qui en résulte; l’induction, la déduction, le syllogisme, le raisonnement par analogie sont des inférences. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
inférence transfinie: l’auteur fait ici allusion à des systèmes axiomatiques dans lesquels il est possible de mener des raisonnements sur des ensembles infinis, éventuellement même des ensembles non dénombrables, par exemple au moyen de l’axiome de Zermelo. infini potentiel et actuel: l’infini potentiel est celui que considéraient les mathématiciens avant Cantor, “une quantité susceptible de croître au-delà de toute limite”; il signifie en fait qu’un ensemble donné peut ne pas être borné. Cantor, quant à lui, a introduit la notion d’infini actuel, c’est-à-dire une quantité qui “a déjà dépassé toutes les autres”. Ainsi, lorsque on dit que l’entier n “tend vers l’infini”, on a recours à un infini potentiel, alors que, lorsque l’on considère le cardinal aleph zéro, qui représente le dénombrable, il s’agit d’un cardinal infini, plus “grand” que tous les cardinaux finis (et le plus “petit” des cardinaux infinis); ce n’est plus un infini potentiel qui sert d’ “indication” sur la direction suivie, mais un infini actuel, intégré dans l’ensemble des cardinaux. infinitésimal: notion utilisée en calcul infinitésimal; un “infinitésimal” est une quantité si petite qu’elle n’est comparable ni commensurable à aucune autre, ce qui permit à Newton et Leibniz d’avancer dans le domaine de l’analyse sans utiliser la notion de limite, qui fut introduite plus tard, par exemple par Cauchy; le symbole dx signifiait, un peu comme à l’heure actuelle dans certains raisonnements en physique, un accroissement infinitésimal de la variable x, les symboles dx², dx3... représentant des accroissements, chacun d’ordre infiniment petit par rapport aux précédents. Ainsi tout en évitant la notion de dérivée, le calcul infinitésimal parvenait à celle de la différentielle telle que nous la connaissons. Cette construction se rapportait à une vision intuitive, métaphysique – disaient certains – mais heurtait les exigences de rigueur qui commencèrent à se faire jour. Il a été affirmé que l’on peut voir ce calcul comme une invention ingénieuse qui fonctionne bien dans la pratique; que c’est un art plus qu’une science; qu’il n’est pas susceptible d’une construction logique et ne découle pas des éléments des mathématiques ordinaires. L’analyse classique chassa donc les infinitésimaux, qu’elle trouva le moyen de remplacer par la notion de limite et une “arithmétisation” de l’analyse, c’est-à-dire une construction logique.
Chassés par l’analyse classique, les infinitésimaux réapparurent dans le cadre de l’analyse non standard, tentative récente (après la seconde guerre mondiale) de donner un statut rigoureux à ces notions (voir Robinson) et qui, sans supplanter l’analyse classique, a acquis un statut universitaire par son aptitude à retrouver les résultats essentiels de l’analyse classique. L’analyse non-standard, évitant le recours à la limite, se rattache au point de vue constructiviste. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette 1987; Jean Dieudonné, (dir.) Abrégé d’Histoire des mathématiques, 1700-1900, Hermann, 1978 inné, innéisme: nom donné aux philosophies affirmant que dans l’acte de la connaissance, les contenus ne nous viennent pas tous de l’expérience, mais que, par nature et de manière innée, nous possédons en nous des idées. Descartes dit par exemple: “que j’aie la faculté de concevoir ce que c’est qu’on nomme en général une chose ou une vérité ou une pensée, il me semble que je ne tiens point cela d’ailleurs que de ma nature propre”. (Méditations métaphysiques). Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. intégrale: il s’agit de l’opération inverse de la dérivation; elle permet des calculs d’aire, de volume, de travail (en physique) etc., et relève du calcul intégral. On intègre en général une fonction réelle sur un intervalle réel, mais on est parfois amené à intégrer un champ le long d’un parcours qui est un morceau de courbe, plane ou non. Voir contours d’intégration. intégrale de Fourier: intégrale dont le calcul permet la décomposition d’un signal périodique en somme de signaux élémentaires de type sinusoïdal; cette décomposition, due à la théorie de Fourrier, se traduit par la mise en évidence dans un signal périodique de ses éléments dominants, un peu comme le fait la décomposition de la lumière dans un prisme. intellectualisme: on utilise ce terme dans plusieurs sens: pour désigner a) les doctrines qui considèrent l’intelligence, l’entendement ou la raison comme les seuls organes légitimes de la connaissance, auxquels tous les autres se réduisent. Dans ce sens, l’intellectualisme est synonyme de rationalisme; b) les doctrines pour lesquelles la réalité est de nature
intelligible, par opposition à celles qui affirment l’opacité de la réalité par rapport à la raison. Dans ce sens, elle s’oppose à intuitionnisme; c) les doctrines qui affirment la supériorité de l’intelligence sur la volonté; on peut situer dans cette ligne les idées de Saint Thomas, par opposition au volontarisme de Duns Scot; d) les doctrines selon lesquelles l’homme est destiné à la connaissance, qui peuvent être illustrées notamment par la pensée d’Aristote. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. intelligible: susceptible d’être connu par l’intellect; la structure de l’atome, par exemple, est intelligible. interprétation: la logique, surtout récente, se détache de tout contenu empirique et même intuitif, et devient un langage abstrait intéressé seulement par la manière dont se combinent ses termes. Ce langage abstrait peut être “interprété” dans la mesure où on attribue un contenu (empirique ou autre) aux symboles. Il en est de même en mathématiques: dire 2 + 3 =5 est une abstraction par rapport à la réalité concrète; on donne une “interprétation” empirique à cette expression lorsqu’elle devient, par exemple, 2 cailloux + 3 cailloux =5 cailloux. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. intrinsèque: du latin intrinsecus, au-dedans, à l’intérieur. Qui fait partie de l’essence ou de la nature d’un objet ou d’un être; la beauté, par exemple, est intrinsèque à l’art. introspection: il convient de distinguer entre un sens philosophique et un sens psychologique de l’introspection. Philosophiquement, on utilise cette notion pour qualifier ou désigner le procédé suivi par certains philosophes dans la construction d’un système. L’exemple par excellence de cette attitude est représenté par Descartes. Dans le sens psychologique, l’introspection est l’attitude ou la méthode qui affirme le regard intérieur comme voie de connaissance du psychisme humain. La psychanalyse se situe dans cette ligne et s’oppose, par exemple, au béhaviorisme. intuition d’essences: voir Husserl.
intuition intellectuelle: pour Bunge ce type d’intuition n’est qu’une inférence rapide dont on ne perçoit pas, en général, le caractère médiat et réfléchi. intuition mystique: voir mystique. intuition pure: voir Kant. intuition sensible: appréhension immédiate par les sens. intuitionnisme: position selon laquelle l’intellect est incapable de pénétrer dans l’essence des choses. Il peut seulement appréhender la forme mathématico-mécanique de la réalité, mais non pas son noyau et son contenu profonds, qui relèvent du domaine de l’intuition. Bergson, Dilthey, Husserl sont des philosophes dont la pensée contient des éléments intuitionnistes. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. intuitionnisme mathématique: conception selon laquelle la mathématique ne se réduit pas à une signification formelle ni à une axiomatique purement hypothético-déductive, mais possède un contenu tel que la logique de ses conclusions est déterminée par une évidence propre. S’oppose à formalisme ou logicisme. Pour élargir: M. Combès, Fondements des mathématiques, PUF, 1971. invariance: propriété de certaines lois physiques de demeurer inchangées, ou invariantes, lors de certaines transformations. Certaines grandeurs restent invariantes lors des transformations considérées par la mécanique newtonienne, d’autres restent invariantes lors des transformations de la mécanique relativiste; on peut considérer que ces deux types de mécanique sont décrits par leurs invariants respectifs. L’invariance traduit aussi des propriétés “géométriques”. Par exemple, un phénomène ondulatoire est invariant par translations égales à son amplitude longitudinale; un champ électrique peut être invariant par des symétries ou des rotations. irrationalisme: terme le plus souvent attribué par les rationalistes à deux types d’attitudes intellectuelles ou d’esprits philosophiques: a) une doctrine qui nie la valeur de la raison, ou la limite en la restreignant à certains domaines: “la dernière démarche de la raison est de reconnaître qu’il y a une infinité de choses qui la surpassent” (Pascal, Pensée 267); b)
une doctrine qui conteste la rationalité du réel, et fait de l’irrationnel et du devenir contingent le fond des choses: “le caractère du monde du devenir est d’être informulable... La connaissance et le devenir s’excluent”; “la vérité, c’est que nous ne pouvons rien penser de ce qui est”. (Nietzsche). Bunge place dans la catégorie d’ “irrationalisme” toutes les formes de pragmatisme et d’utilitarisme. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. isomorphisme: étant donnés deux ensembles E et F, munis de structures du même type (groupes, espaces topologiques, etc.), on appelle isomorphisme de E sur F une bijection entre E et F qui est, en plus, astreinte à “cohabiter” avec les structures communes (c’est-à-dire être un morphisme de la catégorie contenant E et F comme objets, la catégorie des groupes). itération: application répétée. Par exemple, l’application répétée de a a comme résultat an. Certains phénomènes, ou types de calculs, conduisent à itérer certaines opérations, donnant ainsi naissance à des suites. langage observationnel: les néopositivistes distinguent entre langage théorique et langage observationnel. Dans la mesure où, pour expliquer l’observable, nos meilleures théories font appel à des entités non observables (forces, masse, atome), les néopositivistes ont exigé que la théorie qui suppose de tels postulats fondamentaux puisse se référer à une base empirique, c’est-à-dire qu’elle assure un lien avec ce qui est immédiatement observable. Il faudra, en d’autres termes, qu’elle comporte un ensemble de “règles de correspondance” en vertu desquelles on pourra mettre en relation ces termes abstraits avec des faits empiriques. Il faudra que des prédicats comme “être dur”, “être élastique”, “être en colère”, “être rentable”, c’est-à-dire des termes “dispositionnels” (parce qu’ils dénotent un comportement virtuellement observable), soient clairement précisés, pour qu’ils soient purifiés de toute polysémie et dotés dans le langage de la science d’une signification univoque. Ce sont les recherches de Gödel et Tarski sur l’impossibilité de la construction d’un langage unifié qui mirent définitivement fin à ces efforts. Pour élargir: P. Jacob, L’empirisme logique, Éditions de Minuit, 1980; L. Vax, L’empirisme logique, PUF, 1970.
lemme: théorème que l’on démontre pour l’utiliser dans la démonstration d’un autre théorème [Glenn James et Robert C. James, Mathematics Dictionary, Princeton, New Jersey, Van Nostrand, 1959]. limite: notion difficile sans laquelle n’existerait pas l’analyse telle que nous la connaissons. On dit qu’une fonction f admet b pour limite lorsque la variable t tend vers a, si la valeur de f(t) “tend à se rapprocher infiniment près” de b lorsque t se “rapproche infiniment” de a. Cette notion possède, heureusement, une définition mathématique rigoureuse qui permet un calcul et des raisonnements effectifs et fructueux. Notons que le refus d’une telle arithmétisation de l’analyse nous contraindrait à recourir aux infiniment petits (ou infinitésimaux) et que, d’autre part, la définition de limite peut être étendue à d’autres domaines que les réels. linguistique: partie de la sémiologie consacrée à l’étude de la langue et constituée en tant que science à partir des travaux de F. de Saussure. Celui-ci fait la différence entre le langage, comme fonction générale de certains organismes, et la langue, que l’on peut définir comme le langage revêtu de sa composante sociale, c’est-à-dire des conventions nécessaires à la communication. Ainsi conçue, la langue est un système formel et structuré. Nous devons à de Saussure la distinction entre deux dimensions fondamentales: le signifié (le concept) et le signifiant (le son). Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. logicisme et formalisme: conceptions pour lesquelles les mathématiques sont réductibles à des principes logiques. Pour les logicistes (Russell, Withehead), les mathématiques se réduisent à la logique et les propositions mathématiques sont vraies ou fausses en vertu de leur seule forme. Les formalistes (Hilbert) établissent une distinction entre le système déductif (qui suit des règles logiques) et son “application” à des contenus mathématiques spécifiques.
D’où l’origine de la distinction entre démontrable (dans un sens abstrait) et vrai (dans une certaine interprétation mathématique). logique bivalente: logique qui reconnaît deux valeurs de vérité, vrai et faux, et se fonde sur le principe du tiers exclu, par opposition à des logiques polyvalentes qui reconnaissent plus de deux valeurs logiques, par exemple: vrai, faux, impossible, indéterminé; il existe même des logiques floues, attribuant à des propositions des probabilités de vérité. Cette classification n’est qu’une des très nombreuses classifications possibles de la logique. Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. logique de la science: s’en tient exclusivement à la structure formelle de la connaissance scientifique, et met en valeur le système déductif implicite, ou encore la forme que prend dans certaines sciences le système axiomatique. Dans cette ligne se situent Carnap, Nagel, Bunge, etc. logique floue: voir logique non-standard. logique formelle, ou classique, ou aristotélicienne: elle a pour objet de déterminer la validité des raisonnements d’après leur forme, indépendamment de l’expérience. Par exemple, de la proposition “tout A est B”, je peux déduire correctement la proposition “il y a au moins un B qui est A”; en revanche, il serait incorrect de déduire “tout B est A”, même si cette dernière proposition peut s’avérer dans certains cas confirmée par l’expérience. C’est la validité intrinsèque de ces opérations, ou leur nécessité logique, que cherche la logique formelle, régie par les lois universelles de la pensée: principes d’identité, de non-contradiction et du tiers exclu. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. logique non-standard: dans la logique classique il n’existe que deux “valeurs de vérité” pour une proposition: vrai et faux; dans les logiques non-standard, l’ensemble des valeurs de vérité est plus grand et, éventuellement, infini, comme dans le cas des logiques floues où la valeur de vérité est une probabilité de vérité qui peut donc décrire l’ensemble des nombres compris entre zéro et un.
logique symbolique, ou moderne, ou formalisée: due entre autres à Leibniz, Boole, De Morgan, Hilbert, Russell; si elle étudie comme la logique traditionnelle la validité des raisonnements, elle le fait non pas en examinant le langage courant, foncièrement ambigu et équivoque, mais en construisant un langage entièrement artificiel ou axiomatique, composé de symboles et comportant des axiomes, des définitions et des règles de transformation. Ne pas confondre: formelle et formalisée. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. loi: dans Bunge, La science, sa méthode et sa philosophie, on peut trouver la classification suivante: (1) Loi1 ou simplement loi – dénote toute norme immanente de l’être ou du devenir, c’est-à-dire toute relation constante et objective dans la nature, dans l’esprit ou dans la société. (2) Loi2 ou énoncé nomologique ou énoncé de loi – désigne toute hypothèse générale qui se réfère indirectement à une loi1 et qui constitue la version conceptuelle de celle-ci. Tout énoncé de loi possède en réalité deux référents: l’un est la norme d’une certaine catégorie de faits auxquels l’énoncé en question est censé s’adapter (certes jamais parfaitement); nous pouvons l’appeler le référent médiat de l’énoncé de loi. Le référent immédiat d’un énoncé nomologique est, en revanche, le modèle théorique auquel il s’applique exactement. Ainsi, par exemple, la “mécanique analytique” se réfère de manière médiate aux particules matérielles, le référent immédiat étant le concept nommé “système de points matériels”. (3) Loi3, ou énoncé nomopragmatique – désigne toute règle au moyen de laquelle on peut régler (avec succès ou non) un comportement. Les lois3 sont presque toujours des conséquences des lois 2 conjointement avec des éléments d’information spécifiques. Une catégorie privilégiée de lois3 est celle des énoncés nomologiques prédictifs, c’est-à-dire des propositions au moyen desquelles sont faites des prédictions (ou des rétrodictions) d’événements singuliers.
(4) Loi4 ou énoncé métanomologique – désigne tout principe général relatif à la forme et/ou à la portée des énoncés de loi appartenant à une quelconque branche de la science factuelle. Les lois 1 sont des structures nomologiques (normes invariables) au niveau ontique. Les lois2 sont des propositions (prenant souvent la forme d’équations) au sujet de normes objectives: il s’agit de connaissances. Les lois 3 sont des relations invariables de nature pragmatique: elles constituent des guides pour l’action fondée scientifiquement. Enfin, les lois 4 sont des prescriptions méthodologiques et/ou des principes ontologiques (hypothèses concernant les traits saillants de la réalité). Pour élargir: Bunge, La science, sa méthode et sa philosophie, éditions Vigdor, 2001. loi de conservation des éléments: lors d’une réaction chimique, la quantité d’éléments (corps simples) de chaque type dans les produits est la même que dans les réactifs. Par exemple, lors de la combustion du carbone, notée C + O2 CO2, on trouve un élément C avant et après la réaction alors que le corps carbone disparaît pour devenir du dioxyde de carbone. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971. loi de Fechner: Fechner (1801-1887), physicien de formation, s’est intéressé aux relations entre le monde physique et le monde spirituel; il a adopté un point de vue moniste dans lequel la matière et l’esprit sont une même réalité. La loi de Fechner précise les relations entre les énergies physiques et les énergies psychiques. Il suppose l’existence d’un spectre de sensations que l’on peut déterminer à partir de la sensibilité différentielle des sujets. Son postulat fondamental est le suivant: les différences entre des niveaux de stimulus sont subjectivement égales si elles sont détectées avec la même probabilité. Fechner fonde son raisonnement sur la validité de la loi de Bouguer-Weber. Ces auteurs avaient découvert que l’accroissement (dxi) de la valeur d’un stimulus donné (xi) nécessaire pour produire un changement à peine perceptible de sensation, était proportionnel à la valeur de ce stimulus. Autrement dit, le rapport du seuil différentiel (dxi) à la valeur de l’étalon est constant: dxi /xi=k. Il constitue une différence à peine perceptible (jnd=just noticeable difference). Fechner postule alors que des accroissements égaux de sensation (dsi) doivent être aussi proportionnels aux jnd: dsi =c dxi /xi.
On peut alors construire une échelle de sensation à partir de ces propriétés différentielles locales (au sens mathématique); si l’on veut arriver à la loi de Fechner, il suffit alors de traduire la relation précédente sous la forme d’une équation différentielle dont la résolution est immédiate: la sensation (si) croît linéairement avec le logarithme de l’intensité du stimulus (xi): si=a log xi. Cette relation signifie que, pour des accroissements arithmétiques de la sensation, l’intensité du stimulus doit avoir des accroissements géométriques. loi de l’entropie: voir entropie. loi de la conservation de l’énergie: un système isolé a une énergie totale constante. Il ne peut donc y avoir, dans un tel système, ni création, ni disparition d’énergie, mais simplement transformation d’une forme d’énergie en une autre. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. loi de la conservation de la masse: lors d’une réaction chimique, la masse totale des produits est égale à la masse totale des réactifs. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. lois logiques ou lois de la pensée: les tenants de la logique formelle ou traditionnelle ont soutenu qu’il y a trois lois fondamentales ou de base qui sont nécessaires et suffisantes pour que la pensée ne s’égare pas. Ces lois ont reçu traditionnellement les noms de principe d’identité (si un énoncé est vrai, alors il est vrai), principe de non contradiction (un énoncé ne peut pas être en même temps vrai et faux) et principe du tiers exclu (un énoncé est soit vrai soit faux, et il n’y a pas de troisième possibilité). Lycée: en 336 av. J.-C., après avoir quitté la cour de Philippe de Macédoine où il assurait l’éducation du fils de celui-ci, le futur Alexandre le Grand, Aristote fonde une école à proximité de temple d’Apollon Lycien: cette école possédait une bibliothèque et des collections d’animaux et de plantes. Les élèves prirent l’habitude de discuter en se promenant, d’où ils reçurent le nom de péripatéticiens, qui signifie “ceux qui se promènent”. Pour élargir: Brun, Aristote et le Lycée, Paris, PUF, 1961. magnétisme: ensemble des phénomènes que présentent les matériaux aimantés, et aussi branche de la physique qui étudie les propriétés de la
matière aimantée. Le philosophe Thalès de Milet aurait le premier signalé les propriétés d’une pierre trouvée en Magnésie (Thessalie) et appelée de ce fait magnétite, d’où le mot magnétisme. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. masse (en physique): la masse d’un objet peut être définie comme le rapport constant existant entre les mesures d’une force qui s’applique à lui et de l’accélération que celle-ci imprime à son mouvement. La masse d’un objet représente la quantité de matière contenue en lui. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. matérialisme, matérialiste: se dit de toute doctrine qui pose la matière comme substance ou réalité dernière, et aussi comme le fondement de toute réalité, la pensée n’étant qu’une qualité ou un épiphénomène de la matière. Il s’agit d’une théorie que nous trouvons déjà chez Épicure ou Démocrite. Elle s’oppose au spiritualisme, qui pose l’esprit comme source ultime. L’opposition la plus représentative entre ces deux points de vue est contenue sans doute dans le débat entre Hegel, d’un côté, Marx et Engels de l’autre. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. mathématiques finitistes: pour Hilbert, le raisonnement mathématique doit se garder de recourir à un infini actuel; un raisonnement finitiste consistera donc en la donnée d’un nombre fini d’algorithmes portant sur des objets considérés comme concrets dans la théorie donnée. Attention, ce n’est pas un point de vue constructiviste, car il admet clairement la notion de limite: par exemple, ce qui doit être fini n’est pas l’algorithme mathématique de la construction mais le nombre d’étapes du raisonnement, c’est-à-dire en quelque sorte l’algorithme logique. mathématiques pures et appliquées: on divise les mathématiques en mathématiques pures et mathématiques appliquées; les mathématiques pures comprennent les disciplines “classiques” où l’activité est guidée par le désir de progresser dans la connaissance des structures et des propriétés des divers domaines: analyse, géométrie, algèbre, etc. Les progrès y sont
dictés par la résolution de problèmes, par l’invention de notions nouvelles et par la description de problèmes nouveaux. Les mathématiques appliquées sont concernées par le développement de théories et de techniques dont l’intérêt est leur possibilité d’être appliquées effectivement, c’est-à-dire dont les calculs peuvent être programmés, les résultats évalués et utilisés dans des domaines extérieurs (d’autres disciplines comme la physique, l’économie, etc., ou des domaines techniques). En fait, la distinction n’est pas hermétique, et s’il existe des parties des mathématiques considérées comme relevant des mathématiques pures (comme la logique mathématique ou la topologie), et d’autres cataloguées comme des mathématiques appliquées (comme les statistiques), il n’est pas rare de voir des mathématiciens “purs” s’intéresser à des applications de leurs domaines “purs”, et des mathématiciens appliqués faire de longues incursions dans des domaines des mathématiques pures pour y trouver les théories ou les outils nécessaires à leurs propres développements. matrice: tableau d’éléments (par exemple des nombres) de forme rectangulaire, où les éléments sont repérés par le numéro de leur ligne et celui de leur colonne. Les matrices permettent de stocker des listes d’informations numériques, de décrire des fonctions (de type linéaire) dans des espaces vectoriels, elles peuvent avoir d’autres applications (graphes, groupes, etc.). On ne confondra pas les matrices avec les déterminants, qui sont des grandeurs numériques associées à des matrices et mesurent d’une certaine manière le volume occupé dans un espace vectoriel par les vecteurs stockés dans une matrice. mécanicisme ou mécanisme, mécaniciste: il convient de distinguer entre conception mécaniciste et explication mécaniciste. Le mécanicisme comme conception affirme que le fonctionnement de la réalité est comparable à celui d’une machine. On peut mieux comprendre cette notion en l’opposant à celle du finalisme, qui se situe à l’extrême opposé, et selon lequel la réalité se dirige vers un but. Il y a donc dans la notion de mécanicisme une connotation de fonctionnement “aveugle”. Dans cette ligne se trouvent des penseurs comme Descartes (en ce qui concerne sa conception de la nature), Huygens ou Newton. Une explication mécaniciste est une explication selon un modèle mécanique; ce qui semble caractériser celle-ci est le fait de refuser toute idée d’action à distance et de privilégier l’idée d’action par contact pour rendre compte de la production des phénomènes.
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. mécanique (en tant que discipline): branche des mathématiques ou de la physique mathématique ayant pour objet le mouvement, et les forces (causes) qui le déterminent; on la divise généralement en cinématique (étude des propriétés géométriques des mouvements dans leur rapport avec le temps, abstraction faite des notions de masse et de force), statique (étude des forces en état d’équilibre) et dynamique (étude du mouvement dans son rapport avec les forces). On entend par mécanique classique, la mécanique de Newton. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. mécanique analytique: il s’agit de la formalisation mathématique de la mécanique; on peut la rapporter aux efforts d’Euler et de d’Alembert au XVIIIe siècle. Depuis, la mécanique a continué à étendre ses connaissances en conservant cette démarche mathématique. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. mécanique des fluides: il s’agit de la partie de la physique qui étudie les forces et les mouvements; elle a évolué avec le temps: longtemps connue sous le nom de mécanique rationnelle, elle semblait une partie des mathématiques, puis elle prit l’aspect de la mécanique newtonienne (un objet qui n’est soumis à aucune force poursuit son mouvement à vitesse constante, la force est égale au produit de l’inertie par l’accélération, il y a identité entre l’action et la réaction...). Au fil des ans, elle s’enrichit de la mécanique ondulatoire, qui considère l’aspect ondulatoire de la matière (Schrödinger, de Broglie etc.); la théorie quantique donna naissance à une mécanique quantique. Il existe aussi des subdivisions en centres d’intérêt, ou selon la nature des objets d’étude: la mécanique des fluides, comme son nom l’indique, étudie les mouvements de fluides, la statique porte sur les équilibres sous l’action des forces, la cinématique s’intéresse aux mouvements indépendamment de leurs causes. mécanique quantique: partie de la mécanique qui considère certaines quantités physiques non comme continues mais au contraire comme
composées de quanta élémentaires; la mécanique quantique est née des difficultés de la mécanique classique et a permis de mieux comprendre, par exemple, les phénomènes liés à la lumière. Dans un premier temps, on a pensé que la théorie quantique remettait en cause le déterminisme par le caractère probabiliste et non absolu de ses réponses (c’est la cause du débat Einstein – Bohr); cependant, même si le lien entre l’ “infiniment petit”, qui est à l’échelle quantique, et le monde classique des objets, dont la taille est plus grande, n’est pas encore fait, la formalisation mathématique donnée à la théorie quantique est considérée comme satisfaisante, même si elle va parfois contre notre intuition. Cette théorie est née entre autres à la suite des travaux de Max Planck sur le rayonnement du corps noir, et d’un article d’Einstein inventant la notion de photon (particule d’ “énergie lumineuse”). Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot, 1963. mécanique statistique: la mécanique classique étudie le mouvement d’un solide ou d’une particule donnée, donc d’une manière déterministe; la mécanique quantique quant à elle ne donne que des réponses statistiques, portant sur le comportement de groupes de particules, placées dans des conditions données. Dans leur ouvrage de vulgarisation L’évolution des idées en physique, Einstein et Infeld s’expliquent de la manière suivante: N Nous ne demandons pas “Quelle est la vitesse de cette particule en ce moment?”, mais nous demandons “Combien de particules ont une vitesse entre 300 et 400 mètres par seconde?” Nous ne nous soucions pas du tout des individus. Ce que nous cherchons à déterminer, ce sont les valeurs moyennes qui caractérisent l’ensemble... En appliquant la méthode statistique nous ne pouvons pas prévoir quel sera le comportement d’un individu dans une foule. Nous pouvons seulement prévoir... la probabilité qu’il se comportera d’une certaine manière particulière”. méta: du grec meta, avec, parmi, après, ensuite: entre dans la composition de nombreux mots pour exprimer la succession (métacarpe), le changement (métabolisme). Dans les néologismes scientifiques, méta indique ce qui englobe, dépasse l’objet ou la science dont il est question: métalangage, métamathématique, métascience, etc.
métaphysique: le mot métaphysique doit son origine à la classification des œuvres d’Aristote faite par Andronicos de Rhodes (au premier siècle av. J.-C.). Les livres qui traitaient de la philosophie furent placés après ceux qui traitaient de la physique; on donna aux premiers le nom de métaphysique, c’est-à-dire ceux qui sont après la physique. Par la suite, cette dénomination prit un contenu bien particulier et, par métaphysique, on entend tout savoir qui prétend accéder à ce qu’il y a derrière l’apparence ou qui est caché par elle, c’est-à-dire les fondements mêmes de la réalité. Le XVIIe siècle est particulièrement fécond en systèmes métaphysiques: Descartes, Leibniz, Pascal, Spinoza, etc. Parallèlement au développement des théories métaphysiques se développent des systèmes préoccupés par la question de savoir dans quel sens et dans quelle mesure cette discipline constitue un savoir, et si on peut appeler celle-ci une connaissance: dans cette ligne se situent entre autres Bacon, Kant, Comte, les néopositivistes. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. métascience: ce terme est employé pour désigner les recherches ayant la science pour objet. Voir sciences de la science. méthode expérimentale: le savoir scientifique moderne, inauguré, entre autres, par Kepler, Galilée et Newton, n’a pas eu au départ une claire conscience de lui-même. Ce sont les philosophes qui cherchèrent a posteriori à comprendre et à conceptualiser ce que les scientifiques pratiquaient. Dans cette ligne, nous trouvons notamment les noms de Bacon, Stuart Mill, Auguste Comte, Whewell et, particulièrement, Claude Bernard. Nous devons à celui-ci la systématisation et l’organisation la plus achevée des principes et des règles qui guident le savoir scientifique moderne. Celui-ci se construit selon un schéma dans lequel nous pouvons distinguer, analytiquement plus que chronologiquement, trois étapes fondamentales: observation des faits, élaboration d’hypothèses et vérification empirique – chacune d’entre elles étant susceptible de modalités et formes diverses. Pour élargir: Cl. Bernard, Introduction à l’étude de la médecine expérimentale suivi de Claude Bernard et la méthode expérimentale par Mirko Grmek, éditions Vigdor. méthode génétique: voir épistémologie génétique
méthode hypothético-déductive: il s’agit de la méthode qui, dans les sciences expérimentales, part d’une ou plusieurs propositions posées comme hypothèses et en tire des conséquences particulières qui sont ensuite soumises à vérification empirique. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. méthodologie: bien que cette discipline puisse être considérée comme un thème de l’épistémologie, elle peut en être distinguée dans la mesure où elle se donne comme objet l’analyse et l’éclaircissement des différents moments de la démarche de la recherche scientifique, tels que l’observation, l’expérimentation et le raisonnement expérimental. Nous trouvons dans cette ligne certains aspects de la démarche de Galilée et de Claude Bernard. Voir sciences de la science. microscope: l’origine du microscope est due à une application particulière du miroir convexe et des lentilles convergentes; ces éléments étant connus depuis l’Antiquité et le XIIIe siècle respectivement. Son principe consiste à agir sur le faisceau des rayons lumineux afin d’obtenir une image de l’objet située à une distance convenable. Le microscope classique (optique) utilise des lentilles convergentes (loupes) et est apparu pour la première fois en 1523 lorsque Giovanni Rucellai l’a employé pour étudier l’anatomie de l’abeille; mais on considère A. van Leewenhoek (1632-1723) comme l’initiateur de la microscopie, dont il fit un usage systématique qui l’amena à construire un grand nombre de microscopes. La raison du retard dans l’emploi de moyens optiques qui existaient déjà depuis si longtemps doit être recherchée dans les idées philosophiques générales relatives à la confiance que l’on devait avoir dans le sens de la vue; des idées négatives dominèrent en effet jusqu’à Galilée, et furent abandonnées surtout en raison de l’intervention novatrice de celui-ci. Les tout premiers microscopes, comme ceux adoptés par Galilée, par Drebel et par Hoocke, étaient de petites lentilles simples affectées de nombreuses aberrations et soutenues par des supports en bois ou en carton, instables et primitifs. Ils donnaient de mauvaises images, mal définies, observées dans des condition difficiles du point de vue mécanique et photométrique, et n’avaient donc aucune efficacité appréciable du point de vue de la recherche scientifique. Par contre le microscope simple permit d’atteindre bien vite des grossissements de 200 fois et même plus; bien que d’un emploi un peu difficile, il donna d’excellents résultats. De nos jours le
microscope électronique s’est ajouté au microscope optique; il utilise, au lieu de faisceaux lumineux, des faisceaux d’électrons et, au lieu de lentilles optiques, des champs magnétiques. modèle: se dit d’un système servant à l’intelligibilité d’un autre système, comme lorsqu’on examine le passage d’un fluide dans un canal pour comprendre la circulation des liquides. Dans ce cas, l’exemple ayant une valeur heuristique, constitue un modèle. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. modèle des couches nucléaires: théorie (et le modèle correspondant), d’après lesquels les particules du noyau atomique sont disposées dans des couches de manière similaire aux couches électroniques extra nucléaires. modèle mathématique: on dit qu’un problème ou une partie d’une discipline ont un modèle mathématique lorsqu’on a réussi à en représenter les grandeurs caractéristiques et les relations au moyen des seuls outils mathématiques (fonctions, équations, inéquations...). Lorsqu’existe un modèle mathématique, on peut alors utiliser les techniques de calcul et de raisonnement des mathématiques. Un modèle a ses limites; un modèle valable lorsqu’un système est isolé ne le sera plus lorsque des influences externes devront être prises en compte, ou bien lorsque certaines conditions seront modifiées: dans le modèle newtonien, la masse est constante, tandis que dans la mécanique relativiste elle varie avec la vitesse; le choix du modèle est donc primordial. modus ponens: règle d’inférence élémentaire du calcul des propositions selon laquelle si l’on pose un conditionnel et l’on affirme l’antécédent, on peut également affirmer le conséquent: Si p, alors q p alors q modus tollens: il s’agit de la règle d’inférence déductive qui nous permet de refuser une proposition p si elle implique une proposition q qui s’est avérée fausse. Si p, alors q ~ p, alors ~ q morphologique: du grec morphos, forme; relatif à la forme, la structure ou la configuration d’un objet ou d’un fait.
mouvement brownien: doit son nom au botaniste Robert Brown. Mouvement désordonné qu’effectuent des particules de dimension inférieure à quelques microns, en suspension dans un liquide ou un gaz. Ce sont Einstein, dans un article écrit en 1905, et Wiener, dans des travaux mathématiques légèrement postérieurs, qui donnèrent un cadre scientifique à ce qui n’était qu’une description. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. mystique: dans un sens général, la mystique est l’activité spirituelle qui aspire non pas à l’étude de la divinité (théologie), mais à une adhésion totale avec celle-ci. Le but recherché est un contact direct avec la divinité; ce contact produit à son tour dans l’esprit des modifications profondes que l’on peut qualifier d’illumination. Les personnes ayant atteint l’expérience mystique ressentent, quoiqu’elles ne puissent pas l’exprimer, une connaissance parfaite de l’essence et de l’existence de la divinité. Cette expérience peut être spontanée, mais en général est le résultat d’un itinéraire dans lequel l’individu s’adonne volontiers à la contemplation, et adopte des pratiques ascétiques qui le libèrent du poids des sensations ou des exigences des passions. Ces pratiques peuvent être plus au moins légiférées selon les religions. Ainsi dans la religion indienne nous trouvons par exemple le yoga, dans la religion bouddhiste le zen, dans la religion juive la kabbale (citons Abraham Aboulafia et Itzhak Louria). Dans la religion chrétienne, l’acte mystique semble plutôt l’aboutissement de la théologie. Nous pouvons citer les noms de Sainte Thérèse d’Avila ou Saint Jean de la Croix. Nous trouvons des pratiques mystiques dans toutes les religions, mais aussi dans certaines écoles philosophiques comme le pythagorisme (dans la mesure où celui-ci est étroitement lié aux pratiques religieuses). Or l’expérience mystique ne s’inscrit pas nécessairement à l’intérieur d’une religion. On peut parler d’expériences mystiques qui n’atteignent pas nécessairement la connaissance de Dieu, mais de l’être, de la Totalité, de l’Absolu. Dans ce sens il y a des composants mystiques dans diverses philosophies. naturalisme: attitude ou point de vue philosophique estimant que le nature est la seule réalité existante, ou réduisant le surnaturel, le métaphysique ou le spirituel à des réalités de type naturel. On peut distinguer en effet un naturalisme philosophique et un naturalisme réductionniste. Le premier
est une conception du monde qui pose la Nature comme réalité fondamentale. Dans cette ligne se situent l’aristotélisme, l’atomisme, etc. On peut considérer comme naturalistes les systèmes de Diderot ou de Nietzsche. Le naturalisme, comme attitude réductionniste, est le point de vue qui croit que les réalités que nous considérons a priori comme supra naturelles ou surnaturelles, peuvent être expliquées en termes de lois naturelles et étudiées avec des méthodes propres à celle-ci. On peut parler ainsi d’un naturalisme psychologique, sociologique, éthique, etc. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. natures simples: voir Descartes. nécessaire, nécessité: contrairement à contingent, qualité de ce qui ne peut pas être autrement qu’il est, ou qui n’aurait pas pu ne pas être. Pour Bunge, il s’agit également d’une connexité logique. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. néopositivisme ou empirisme logique ou positivisme logique: doctrine du Cercle de Vienne. Fondé par Schlick en 1929, celui-ci rassemble des membres provenant de différentes disciplines: les mathématiciens Gustav Bergman, Kurt Gödel, Carl Menger; les physiciens Philipp Frank et Rudolph Carnap. Les noms d’Alfred Ayer et de Carl Hempel sont aussi associés à ce mouvement. Qu’est-ce que le néopositivisme? Il n’est pas aisé de répondre à cette question. Toutefois, au delà de la diversité des propositions qui se réclament de ce courant, il est possible de trouver quelques traits communs: a) le néopositivisme est un positivisme; héritier de la philosophie d’Auguste Comte, il s’attache à l’idée que nous ne pouvons connaître que les faits et leurs relations, et non le pourquoi profond des choses, dont s’occupe la métaphysique qu’il considère comme une entreprise vaine; on connaît cet aspect du néopositivisme sous le nom d’aversion à la métaphysique, qui constitue l’un des axes du néopositivisme. b) le néopositivisme est un empirisme (également appelé empirisme logique); non pas un empirisme gnoséologique ou traditionnel qui
s’interroge sur l’origine de la connaissance, mais un empirisme épistémologique qui s’interroge sur la justification des connaissances et approfondit de ce fait la notion de vérification empirique. c) le néopositivisme est analytique: si l’empirisme classique met en garde contre les erreurs qui sont le résultat d’un raisonnement détaché de l’expérience, et si le rationalisme dénonce le côté trompeur d’une expérience qui ne fait pas appel à la réflexion, le néopositivisme met l’accent sur l’examen des pièges qui se trouvent non du côté de nos facultés, mais dans le langage à travers lequel elles sont obligées de s’exprimer, dont la nature intrinsèque est problématique et paradoxale car la langue naturelle est fondamentalement ambiguë. Le terme “analytique” résume donc la recherche qui s’attache aux problèmes de l’ambiguïté du langage et à leur résolution. Ces recherches furent logiques avant de devenir épistémologiques. On peut situer leur origine dans les travaux de Frege et ensuite de Russell et Wittgenstein, travaux que les néopositivistes essayèrent de mettre à profit pour la résolution des problèmes posés par la science, particulièrement celui de la vérification. Ces tentatives, dont les plus poussées sont sans doute celles de Carnap, se heurtèrent à des obstacles qui donnèrent lieu à de nombreux remaniements, le résultat final en étant fortement contesté de nos jours. Pour élargir: P. Jacob, L’empirisme logique, Éditions de Minuit, 1980; L. Vax, L’empirisme logique, PUF, 1970. neutron: particule appartenant au noyau de l’atome (formé de neutrons et de protons). Le neutron a été découvert en 1932 par Chadwick (on croyait à l’époque que l’atome se réduisait à des électrons et à des protons). À la différence des électrons et des protons, sa charge est nulle; sa masse, quant à elle, est analogue à celle du proton. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. nihiliste, nihilisme: du latin nihil, rien. Toute doctrine qui nie l’existence de l’absolu, de la vérité ou des valeurs. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
nobélium, transnobélien: dans la classification des éléments, l’élément de numéro atomique 102 est le Nobélium. Avec l’essor de la recherche nucléaire (et en particulier la fission), les physiciens ont recherché l’existence d’éléments transuraniens (c’est-àdire de numéro atomique supérieur à 92) et ainsi furent découverts des éléments de nos 93, 94,...,102 (le Nobélium), 103 (le Lawrencium), etc. Leur composition atomique les rendant très instables, ces éléments ont une durée de vie très courte et sont donc très difficiles à isoler; c’est pourquoi ils n’ont été obtenus que dans des conditions artificielles, en soumettant des noyaux à d’intenses bombardements de particules chargées; ce ne fut donc possible que dans des laboratoires extrêmement bien équipés, c’est-à-dire soviétiques et américains, pendant la période de course intensive à la découverte nucléaire qui accompagna la guerre froide. Ces découvertes donnèrent lieu à de nombreuses polémiques sur le caractère réel des découvertes et des identifications de ces éléments. nombre algébrique: tout nombre qui est solution d’une équation algébrique, par exemple la racine carrée de 2; un nombre réel qui n’est pas algébrique est appelé nombre transcendant. L’ensemble des nombres réels se divise donc en l’ensemble des nombres algébriques et l’ensemble des nombres transcendants. nombre transcendant: nombre qui n’est pas la racine d’une équation algébrique; par exemple e et π sont des nombres transcendants. nombres complexes: les nombres complexes ont été introduits par les mathématiciens de la Renaissance (Cardan, Bombelli...) pour permettre de résoudre des équations algébriques; on raconte que c’est Cardan qui les utilisa le premier dans le cadre de la résolution de l’équation du 3e degré. Un nombre complexe s’écrit sous la forme a + ib, où a et b sont des réels et i un symbole, défini par la propriété i² =-1; les nombres réels sont donc des complexes particuliers (il suffit de prendre b =0), et les règles de calcul sur les complexes découlent des règles de calcul sur les réels, de l’extension des propriétés qu’elles possèdent (commutativité, associativité...) et de la règle i² =-1. Les nombres complexes furent d’abord appelés “imaginaires” et Leibniz écrivit: “(ils) sont un refuge merveilleux pour l’esprit divin, presque un intermédiaire entre l’être et le non-être”.
Gauss, quant à lui, adopta à leur égard un point de vue moins formel; après avoir mis en valeur leur représentation géométrique (plan d’Argand-Gauss), il justifia les opérations sur les complexes par cette représentation géométrique et fut à l’origine de leur nom actuel “complexes” à la place d’ “imaginaires”. L’utilité des complexes vient avant tout du théorème fondamental de l’algèbre (dû à d’Alembert) suivant lequel “toute équation algébrique à coefficients complexes de degré n possède n racines dans l’ensemble des complexes”. Ce qui signifie que s’il a fallu concevoir et construire les complexes pour trouver les racines “manquantes” des équations algébriques à coefficients réels, il ne sera pas nécessaire d’en faire autant pour les complexes; le corps des complexes est “algébriquement clos”. nombres premiers: un entier naturel x (supérieur à 1) est dit premier s’il n’est divisible que par les nombres 1 et x lui-même. Par exemple: 5 est premier, mais 14 =2 × 7 ne l’est pas. Les nombres premiers tirent, entre autres, leur intérêt du théorème fondamental de l’arithmétique affirmant que tout entier naturel est de manière unique le produit de puissances de nombres premiers. Les nombres premiers ont intrigué de tous temps, suscitant des questions comme celles de savoir s’il y a une infinité de nombres premiers (question dont la réponse est affirmative et dont une démonstration est attribuée à Euclide), comment ils sont répartis dans l’ensemble des entiers naturels, etc. Ils continuent à poser des questions théoriques tout autant que pratiques (les méthodes modernes de cryptage de données utilisent par exemple certaines propriétés des nombres premiers). nombres réels: les nombres réels sont les nombres auxquels nous sommes habitués, s’écrivant sous la forme d’une partie entière suivie (éventuellement) d’une virgule et d’une quantité finie ou infinie de décimales. Leur importance est qu’ils permettent de représenter tous les points d’une droite donnée, dès que sont choisis une origine et une unité; leur difficulté provient de ce que de “vrais nombres réels” sont mal commodes, par exemple π, et que nous nous restreignons en général aux nombres décimaux qui s’écrivent avec seulement un nombre fini de décimales.
L’utilisation des ordinateurs nous limite également puisqu’un ordinateur ne peut concevoir, utiliser ou représenter que des nombres décimaux, et encore pas au delà d’un certain nombre de décimales. nominalisme: attitude philosophique qui refuse tout réalisme de l’essence et ne reconnaît d’existence qu’aux individus. Même l’existence des universaux sous la forme d’entités mentales est refusée. On la trouve pour la première fois au XIe siècle dans les travaux de Roscelin, ensuite au XIIe chez Abélard; son expression la plus représentative est atteinte au XIVe dans les travaux de Guillaume d’Ockham. À l’époque moderne, il réapparaît dans les philosophies de Locke et de Hobbes et, actuellement, dans celles de Goodman et Quine. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. noumène: voir Kant. nous: Le terme grec est en général traduit par esprit; il a été utilisé dans la philosophie grecque pour désigner un principe ou une activité supérieurs à la réalité sensible. À la différence de la notion d’âme ou pneuma (qui a une dimension psychologique), le nous est de nature intellectuelle. Cette notion est particulièrement importante dans la philosophie d’Aristote. Celui-ci conçoit le nous comme la partie la plus élevée de l’âme, celle qui est capable d’atteindre une connaissance objective. Pour élargir: G. Madinier, Conscience et Amour. Essai sur le “Nous”, Paris, Alcan, 1938. nuage de probabilité: dans le cadre d’une conception statistique comme la 09gloss.html#gl973, on peut, pour indiquer la position d’une particule, représenter un petit nuage, formé par des points dont la densité correspond à la probabilité que la particule occupe telle ou telle position dans le nuage. objectivisme: à la question “pouvons-nous connaître réellement?”, l’objectivisme répond en affirmant que, quelle que soit l’importance des facteurs subjectifs ou l’intervention de la conscience dans l’acte de la connaissance, l’appréhension que nous faisons de la réalité correspond à ce qu’elle est objectivement.
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. obscurantisme, obscurantiste: relatif à ce qui (personnes ou époques) s’oppose à la diffusion de la connaissance. observation: l’observation scientifique est un type particulier d’observation. Claude Bernard a consacré une attention particulière à ce sujet et mis en évidence des distinctions et des modalités telles que: l’observation avec ou sans idée préconçue, active et passive, directe et indirecte, pour élaborer une théorie ou pour la vérifier, etc. Pour élargir ce point, voir Cl. Bernard, Introduction à l’étude de la médecine expérimentale, éditions Vigdor, où l’on pourra utiliser la fonction de recherche sur le mot “observation”. occultisme: tendance développée notamment au XIXe siècle qui admet l’existence d’entités occultes supra-rationnelles intervenant dans la nature et dans les affaires humaines. On ne peut pas connaître ces entités mais on peut entrer en contact avec elles par des procédés et des méthodes spécifiques (non scientifiques). ondes élastiques: la théorie du son considère celui-ci comme un phénomène ondulatoire se propageant de manière longitudinale dans un milieu suffisamment élastique (ou compressible), comme la déformation d’un ressort que l’on comprime puis relâche, se propage le long de ce ressort. On ne confondra pas ce phénomène avec celui des ondulations concentriques causées par la chute d’une pierre dans l’eau, suivie d’une déformation transversale du milieu (les vagues représentent un mouvement vertical de l’eau, alors que leur propagation est horizontale). Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. ondes électromagnétiques: Faraday avait mis en relation électricité et magnétisme par le principe de l’induction, selon lequel un champ magnétique variable engendre un champ électrique. En affirmant que le phénomène inverse était aussi possible, Maxwell réunit ces deux concepts et énonça sa théorie selon laquelle intensités électriques et magnétiques se propagent toutes sous forme ondulatoire. Comme leur vitesse mesurée à la même époque semblait proche de celle de la lumière, Maxwell assimila
celle-ci à un ensemble d’oscillations du champ électromagnétique. La découverte de la possibilité de produire de telles ondes permit plus tard l’invention de la radio. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot, 1963. ondes lumineuses: Voir théorie ondulatoire de la lumière. ontique: relatif à l’être en tant que tel, par opposition à ontologique, qui désigne l’étude de l’être. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. ontologique, ontologie: étymologiquement, ces mots dérivent de ontos, qui désigne l’être. Son contenu, défini par Aristote comme la science de l’être, varie au long de l’histoire de la pensée d’après la façon dont on considère l’être lui-même: par exemple, l’être comme ce qui est ou comme ce qui existe. Pour élargir: E. Gilson, Constantes philosophiques de l’être, Vrin, réédition 1983. opérationnisme ou opérationnalisme: théorie issue de la réflexion sur les nouvelles méthodes de la pensée physique, notamment la théorie de P. W. Bridgman, selon laquelle la signification de tout concept physique est déterminée par une série d’opérations. Si nous prenons comme exemple, affirme Bridgman, le concept de longueur d’un objet, nous verrons qu’il est possible d’attribuer une signification à celui-ci seulement si nous sommes en mesure de fixer les opérations au moyen desquelles la longueur est mesurée; s’il s’agit d’un concept mental, tel que le concept de continuité mathématique, les opérations seront de nature mentale. Pour cette école toutes les notions qui ne peuvent pas être définies à l’aide d’opérations sont dépourvues de signification, comme par exemple le concept d’absolu ou de temps absolu. Pour élargir: P. Jacob, L’empirisme logique, Éditions de Minuit, 1980. opposition: des propositions peuvent s’opposer de diverses manières a) opposition de contradiction: propositions qui, ayant le même sujet et le même attribut, diffèrent en quantité (universelle ou particulière) et en qualité (affirmative ou négative). Par exemple “Tous les hommes sont
mortels” est la contradictoire de “Socrate n’est pas mortel” b) opposition contraire: les propositions s’opposent en quantité mais pas en qualité; par exemple “tous les hommes sont mortels” est la contraire de “aucun homme n’est mortel” c) opposition subcontraire: les propositions s’opposent en qualité mais non pas en quantité, toutes deux étant particulières; par exemple “Socrate est mortel” est la subcontraire de “Socrate n’est pas mortel”. Aristote et les scolastiques établirent des tableaux d’opposition très complets, dont la forme schématique la plus simple correspond à ces formes. Voir tableau d’oppositions. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. ordre, ordre linéaire: une relation d’ordre est avant tout une relation binaire (c’est-à-dire qui concerne des couples d’éléments); mais pour être une relation d’ordre, une relation doit être réflexive (tout élément est en relation avec lui-même), antisymétrique (si a est en relation avec b et b en relation avec a, alors forcément a =b) et transitive (si a est en relation avec b et b en relation avec c, alors a est en relation avec c). Le modèle de relation d’ordre est la relation “inférieur ou égal” dans l’ensemble des entiers. Cependant, l’étude de la notion d’ordre montre rapidement que l’on peut imaginer des situations plus pauvres, comme par exemple un arbre généalogique: la relation qui désigne le fait d’être un descendant est une relation d’ordre mais, contrairement au cas des entiers, on trouve des couples d’éléments qui ne peuvent se comparer: dans le cas d’un oncle et d’un neveu, l’oncle n’est pas un descendant du neveu et le neveu n’est pas non plus un descendant de l’oncle. Un tel ordre est dit “non total”, par opposition au cas des entiers qui est un ordre total (lorsqu’on considère deux éléments a et b, on a forcément a en relation avec b ou b en relation avec a). La notion d’ordre linéaire décrit ce dernier cas. organique: agencé de façon telle que les parties sont interdépendantes et solidaires, agissant selon une finalité, par opposition à mécanique où l’action des parties est, pour ainsi dire, “aveugle”. paquet d’ondes: faisceau d’une quantité infinie d’ondes monochromatiques avec de légères différences de fréquence. Synonyme: groupe d’ondes. parabole: du grec parabolê, comparaison. Genre littéraire utilisé notamment dans les Écritures pour éclairer un aspect de la doctrine. Dans
un sens plus large, allégorie qui illustre ou qui contient une vérité ou un enseignement. En géométrie ligne courbe dont chaque point est également distant d’un point fixe appelé foyer et d’une droite fixe appelée directrice. paradoxe: étymologiquement, ce mot dérive de para doxos, qui signifie “contre l’opinion”. Il faut distinguer entre le sens général et le sens spécifique de ce terme. Dans son sens très général, un paradoxe est une proposition qui se heurte à une autre, alors que toutes les deux sont fondées. Dans le sens spécifique, les paradoxes constituent un problème logique et philosophique. On peut en distinguer diverses catégories. On distingue traditionnellement a) les paradoxes logiques, comme le paradoxe des classes de Russell: la classe de toutes les classes, qui n’appartiennent pas à elles-mêmes, appartient à elle-même seulement si elle n’appartient pas à elle même; b) les paradoxes sémantiques, dont le plus connu est le paradoxe du menteur ainsi formulable: “je mens”. Cette affirmation est paradoxale car, si je mens, je dis la vérité. Nous trouvons déjà un intérêt logique pour les paradoxes chez Aristote ainsi qu’au Moyen-âge, mais c’est surtout notre siècle qui s’est penché sur cette question. La plus célèbre solution au problème des paradoxes est la théorie des types de Russell, mais il y en a d’autres comme celles de Tarsky, Carnap, Koyré, etc. Pour élargir: N. Falletta, Le Livre des Paradoxes, Belfond éditeur, 1983. parité: en physique atomique, la parité décrit le comportement d’une grandeur lors d’une réflexion (symétrie par rapport à un plan). La règle de la parité veut que les lois de la nature soient conservées dans une telle réflexion; par exemple, dans une réaction dégageant des électrons la règle de la parité veut que tous les électrons aient le même moment angulaire (spin) ou qu’ils se partagent en deux moitiés, chacune ayant un spin donné. En fait, certains phénomènes ne respectent pas cette règle de parité, par exemple lorsque se manifeste l’interaction faible. participation: notion importante dans la philosophie ancienne, plus particulièrement celle de Platon. Par ce concept, Platon désigne en effet le rapport qui relie les choses aux idées. Les choses, par exemple les pierres ou les hommes, existent dans la mesure où elles participent de l’idée de pierre ou de l’idée d’homme respectivement.
perfectible: qui est susceptible d’être amélioré ou perfectionné; contrairement à la philosophie qui contient des affirmations définitives, la science ne comporte que des affirmations perfectibles; ceci fait partie de sa nature. Les philosophies de Claude Bernard, de Popper et de Bunge; insistent particulièrement sur l’aspect perfectible de la science. phénomène: du grec phainomenon, de phainiein, apparaître. Ce qui apparaît, ce qui se manifeste aux sens ou à la pensée, par opposition à ce qui reste voilé ou que l’on ne peut pas saisir. Dans certains cas, le phénomène est considéré comme la seule réalité digne de foi; dans d’autres cas, il est assimilé à superficiel, à ce qui s’oppose à l’être véritable des choses; cette notion revêt alors le caractère d’une pure apparence trompeuse et sans profondeur. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. phénoménisme: dans un sens général, philosophie qui affirme l’existence des seuls phénomènes et non des choses en soi. On peut distinguer un phénoménisme ontologique ou métaphysique et un phénoménisme gnoséologique. Le premier nie l’existence même des choses en soi; le phénoménisme gnoséologique, lui, affirme que s’il y a des choses en soi, elles sont inaccessibles à la connaissance humaine seule susceptible de saisir les phénomènes. Le système de Hobbes est un phénoménisme ontologique, celui de Kant un phénoménisme gnoséologique qui affirme l’existence des choses en soi, noumènes que nous ne pouvons pas connaître. phénoménologie: position philosophique due à Husserl, qui prétend se situer “avant” les positions traditionnelles: réalisme et idéalisme, objectivisme et subjectivisme. La connaissance, mettant entre parenthèses la question de la nature dernière de la réalité (epochè phénoménologique), opère un retour aux choses elles-mêmes et examine les contenus de conscience en tant que tels. La conscience s’en tient à ce qui est donné – le phénomène – et le décrit. Mais contrairement à Kant, pour qui le noumène, ou réalité dernière du phénomène, ne peut pas être connu, pour Husserl, le phénomène dévoile son essence. La conscience, qui est intentionnelle (c’est-à-dire dépourvue de contenu mais dont la nature est de viser son objet), dégage par intuition, l’essence des phénomènes. Pour élargir: J.-F Lyotard, La phénoménologie, PUF, 1954.
philosophie de la science: s’interroge sur les conséquences philosophiques des résultats concrets de la science. Signalons, comme exemple de cette attitude, la réflexion sur les implications philosophiques du principe d’incertitude de Heisenberg. Les réflexions philosophiques autour de l’essence des mathématiques, comme l’intuitionnisme de Brouwer et le logicisme de Russell, appartiennent aussi à cette catégorie. philosophie spéculative: il s’agit d’une forme de recherche sur le réel qui ne se soucie guère de mettre à l’épreuve ses hypothèses. Le hégélianisme et l’existentialisme sont les exemple par excellence de ce type de philosophie. photon: l’hypothèse du photon appartient à la théorie quantique de la lumière, d’après laquelle l’énergie d’une onde lumineuse consiste en un certain nombre d’unités discrètes (quanta); l’énergie d’un photon déterminant la couleur de la radiation associée. Grâce à ce point de vue, des phénomènes comme l’effet photoélectrique, trouvent une explication que ne pouvait fournir la théorie ondulatoire de la lumière. phronesis: En grec . Dans un sens général, intelligence et perception des choses, terme utilisé par Platon dans Le Timée dans le sens de sagesse. Il s’agit pour Bunge de cette forme de la sagesse qui se caractérise par la capacité de discernement face aux problèmes et aux hypothèses proposées, ainsi que par la capacité d’évaluation et de reconnaissance de ce qui est “raisonnable”. Il s’agit d’une forme de sagesse qui est le résultat d’un long exercice dans la recherche et d’une familiarité avec la pratique scientifique. physicalisme: néologisme proposé par Carnap pour caractériser l’idée néopositiviste d’après laquelle la physique doit être considérée comme le modèle par excellence de la science et celle qui doit unifier toutes les autres. Ce terme désigne en outre la croyance selon laquelle le langage de la science se réduit à des protocoles, c’est-à-dire à des comptes-rendus d’expériences. Pour élargir: P. Jacob, L’empirisme logique, éditions de Minuit, 1980. physiologie: partie de la biologie qui étudie le comportement des organes dans les êtres vivants, aussi bien dans le domaine du règne végétal que du règne animal. platonicisme: en métaphysique, attitude (inaugurée par Platon) d’après laquelle les idées précédent les choses, ces dernières n’étant que des
copies imparfaites de celles-là. En philosophie des mathématiques, la conception du logicisme est platonicienne: les propositions existent en elles-mêmes et sont vraies ou fausses indépendamment de leur vérification, de sorte que la démonstration est plutôt une découverte qu’une création. pneuma: Le vocable grec ggrec signifiait souffle, élan. Ce concept joue un rôle important dans les débuts de la philosophie grecque. Certains présocratiques comme Empédocle affirment que la substance qui remplit l’univers, l’air, est une espèce d’âme. Nous trouvons ce principe également dans la philosophie stoïcienne: le pneuma est pour celle-ci une sorte de principe de cohésion de la matière. Ces idées peuvent être interprétées comme la croyance en l’existence d’un principe psychique ou bien spirituel dans la réalité tout comme dans l’homme. point d’accumulation: il s’agit d’une notion mathématique et, plus précisément, topologique. Un élément x est un point d’accumulation d’un ensemble A si dans tout voisinage de x on peut trouver une infinité d’éléments de A. Par exemple, 0 est point d’accumulation de l’ensemble suivant de nombres réels: 0,1; 0,01; 0,001; 0,0001... positivisme: dans son sens philosophique, cette notion désigne la philosophie d’Auguste Comte qui comprend une théorie de la science, une réforme de la société et une religion. La théorie positiviste de la connaissance repose sur la loi des trois états selon laquelle, au cours de leur histoire, les hommes ont traversé un âge théologique, un âge métaphysique et, finalement, un âge positif ou scientifique. Le positivisme déclare recevables seulement les vérités positives, c’est-à-dire empiriques et scientifiques, à l’exclusion de toute investigation axée sur l’essence des choses (métaphysique). Cinq sciences sont privilégiées à cause de leur caractère expérimental: l’astronomie, la physique, la chimie, la physiologie et la sociologie, qui sont parvenues – dans cet ordre en raison de leur complexité croissante – à l’état positif, et permettront d’aborder ensuite des réformes sociales et de construire une politique et une religion positives. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990.
pragmatique: du grec pragma, action. Se dit de quelque chose qui est susceptible d’application pratique, ou qui a une valeur pratique, de ce qui est orienté vers l’action ou vers l’efficacité. En tant que discipline (dans la nomenclature proposée par Ch. Morris), elle étudie les rapports entre le langage et l’agent qui les utilise; dans ce sens elle tient compte des facteurs psychologiques, sociologiques et biologiques qui déterminent l’utilisation des signes. Si la syntaxe est l’étude de la relation entre les signes, et la sémantique l’étude de la relation entre les signes et le monde, la pragmatique est celle de la relation entre les signes et leurs interprètes. Une définition plus complète établit que la pragmatique est la branche de la sémiotique traitant de l’origine, et de l’utilisation des signes. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. pragmatisme: mouvement philosophique développé notamment par William James et Charles S. Peirce, affirmant une conception de la connaissance selon laquelle seul est savoir le savoir applicable et utile, cette utilité n’étant pas toutefois exclusivement pratique, mais aussi théorique. Le pragmatisme n’abandonne pas, cependant, l’exigence empiriste de vérification mais, pour lui, le savoir vérifié est non seulement celui qui réussit l’épreuve de l’expérimentation, mais celui qui “fait ses preuves”, au sens où il réussit dans l’action ou dans la pratique. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. prédiction: dans, La science, sa méthode et sa philosophie p. 56 et ss., Bunge écrit: «La connaissance scientifique est prédictive: elle transcende la masse des faits empiriques en imaginant comment le passé a pu être et comment pourra être l’avenir. La prédiction est, en premier lieu, une manière efficace de mettre à l’épreuve les hypothèses; mais c’est aussi la clé du contrôle ou même des modifications du cours des événements. La prédiction scientifique se fonde, contrairement à la prophétie, sur des lois et sur des informations spécifiques dignes de foi, relatives à l’état de choses actuel ou passé. On ne dira pas “e se produira”, mais plutôt “e se
produira chaque fois que c se produira, parce que les faits du type de c causent ou accompagnent les faits du type de e”. Puisque la prédiction scientifique se fonde sur les lois scientifiques, il y a autant de classes de prédictions que de sortes d’énoncés nomologiques (cf. loi). Certaines lois nous permettent de prédire des résultats individuels, ce qui ne va pas sans risque d’erreur, lorsque la prédiction se réfère à une valeur numérique. D’autres lois, incapables de nous dire quoi que ce soit sur le comportement des éléments (atomes, personnes, etc.), fondent par contre la prédiction de certaines tendances globales et propriétés collectives d’ensembles constitués d’un grand nombre d’éléments similaires: ce sont les lois statistiques. Les lois de l’histoire sont de ce type; c’est pourquoi la prédiction des événements particuliers dans le domaine de l’histoire est presque impossible, le cours général des événements étant seul susceptible de prédiction”. prémisse: on décrit ainsi des propositions qui, assumées ou admises pour une raison ou pour une autre, constituent l’antécédent du raisonnement déductif. Dans un syllogisme, les prémisses, généralement au nombre de deux (majeure et mineure), constituent l’antécédent du raisonnement déductif. La proposition qui en découle est la conclusion. pré-systématique: La pensée pré-systématique est celle qui n’intervient pas dans la structure d’un système conceptuel ou théorie. preuve de Cantor: il s’agit d’une démonstration du caractère non dénombrable de l’ensemble des réels. Elle consiste à: i) supposer que l’ensemble des nombres réels est dénombrable; ii) à considérer ce qui serait la liste exhaustive ordonnée des réels; iii) à exhiber un réel qui n’aurait pas sa place dans cette liste, ce qui prouve donc que la liste n’est pas exhaustive. Cette preuve est due au mathématicien Cantor, qui consacra une grande partie de son œuvre à l’étude des ensembles infinis. C’est un exemple de ce que l’auteur appelle une preuve indirecte. preuve empirique: voir vérification. preuve indirecte: il s’agit d’une preuve qui ne consiste pas à suivre un cheminement direct d’inférences, mais à ajouter à la liste des prémisses une prémisse supplémentaire qui est la négation non-q de la conclusion recherchée et à montrer que le système ainsi obtenu contient une contradiction, pour déduire que, s’il était consistant avant l’ajout de la négation non-q et s’il ne l’est plus, c’est que non-q est inconsistante, ce
qui signifie que non-q est fausse, et donc que q est vraie. Mais ceci n’est possible que si on admet que la proposition q ou non-q est vraie, ce que refusent les constructivistes. principe d’économie de la pensée: Principe ou règle de nature méthodologique et gnoséologique, qui établit que, devant deux méthodes ou deux des formes de pensée visant à une analyse, à une démonstration, ou à une description, on doit préférer celle qui atteint des résultats identiques avec le moins de moyens conceptuels, ainsi qu’avec le moins de présupposés, règles, concepts, etc. La formulation la plus connue du principe d’économie est: Entia non sunt multiplicanda praeter necessitatem. Il s’agit d’une règle presque unanimement acceptée par les philosophes et les scientifiques. Ce principe a été notamment exploré par des philosophes comme Russell (dans le domaine logique), Mach, (dans le domaine de la physique) et Avenarius (dans le domaine de la philosophie). principe d’incertitude de Heisenberg: principe selon lequel on ne peut, en microphysique, déterminer à la fois la position et la vitesse d’un corpuscule; en fait, mieux on connaît l’une, moins on connaît l’autre. Il en découle que l’état futur de tout système ne peut être prévu qu’en termes de probabilités. principe de Maupertuis: “Le chemin que tient la lumière est celui pour lequel la quantité d’action est moindre”. Maupertuis érige ce principe physique en loi universelle de la nature. principe de non-contradiction: deux propositions contradictoires ne peuvent être à la fois toutes les deux vraies, ni toutes les deux fausses. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. principe du tiers-exclu: principe selon lequel, de deux propositions contradictoires, si l’une est vraie, l’autre est fausse, et réciproquement, sans qu’il y ait une troisième possibilité. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. prise de risque et audace dans la pratique scientifique: il s’agit là en effet d’un aspect de la recherche sur lequel les épistémologues modernes
semblent unanimes. Il peut être intéressant de comparer les propos de Bunge sur cet aspect de la science avec ceux de Popper. Celui-ci a en effet particulièrement insisté sur cet aspect de la science, la prise de risque et l’audace des théories lui semblant l’une de ses caractéristiques fondamentales. Voir Popper, Conjectures et Réfutations, Payot, 1985, chapitre I. Voir aussi profusion de théories. probabilité: dans un sens général, la probabilité décrit le caractère d’un fait ou d’une proposition qui semble vraisemblable mais dont on n’a pas la preuve. En mathématiques, “la probabilité est le rapport du nombre de cas favorables au nombre total de cas possibles” (E. Borel). Par exemple, dans un jeu de dés, la probabilité que le dé s’arrête sur une face donnée est de 1/6. On appelle calcul des probabilités la partie des mathématiques qui étudie les règles par lesquelles on mesure la probabilité de réalisation d’un événement futur. Pour élargir: E. Borel, Probabilité et Certitude, PUF, 1963. procédés diagonaux: techniques dues à Cantor qui permirent de démontrer le caractère dénombrable de l’ensemble des nombres rationnels et le caractère non dénombrable de l’ensemble des nombres réels. procédés finitistes: il s’agit de raisonnements ne contenant qu’un nombre fini d’étapes, chacune se rapportant à un calcul effectif et portant sur des objets décrits par leur valeur et pas seulement par leurs propriétés. produit scalaire: on appelle produit scalaire dans un espace vectoriel une application qui permet d’associer, à tout couple de vecteurs, un scalaire dont la valeur dépend de la “grandeur” des vecteurs et de l’ “angle” qu’ils forment. Le produit scalaire se calcule à partir de la connaissance des coordonnées des vecteurs; cette notion étend le produit scalaire connu dans le plan et l’espace de dimension 3. profusion de théories: l’idée que la profusion de théories (proposées, non pas en raison de l’intime conviction du chercheur quant à leur vérifiabilité, mais comme simple œuvre de son imagination) est bénéfique pour la science, apparaît chez Popper; Feyerabend en tirera ensuite les dernières conséquences. Dans Conjectures et Réfutations, page 93, Popper dit: “comment passons-nous d’un énoncé d’observation à une théorie satisfaisante? (...) La réponse à cette question est celle-ci: nous nous
saisissons de n’importe quelle théorie et nous la soumettons à des tests, afin de découvrir si elle est satisfaisante ou non”. Plus loin, p. 157, il ajoute: “pour la conception de la science que j’essaie de défendre ici, cette caractéristique (la force libératrice de la science) tient au fait que les savants (depuis Thalès, Démocrite, le Timée de Platon et Aristarque) ont eu l’audace d’inventer des mythes, des conjectures ou des théories qui s’opposent de manière frappante au monde quotidien de l’expérience commune et étaient cependant en mesure d’en expliquer certains aspects. (...) De semblables théories conserveraient leur importance même si elles ne servaient qu’à exercer notre imagination”. De cet aspect de la philosophie de Popper, celle de Feyerabend reprend la première partie, c’est-à-dire l’idée du caractère bénéfique de la profusion, mais conteste la deuxième partie, qui est la nécessité d’éliminer une partie des théories; dans l’anarchisme épistémologique, tel qu’il s’exprime dans son œuvre Contre la Méthode, p. 20 et 25), Fayerabend avance son affirmation devenue célèbre: “tout est bon” (anything goes). propédeutique: du grec propedeia, de pro auparavant, et paidos, éducation, instruction. En tant que nom, enseignement préparatoire à une discipline. En tant qu’adjectif, concerne ce qui prépare ou introduit à une proposition ou discipline. proposition: ce terme est utilisé dans deux sens très différents: a) ce qui nous est proposé comme un savoir – dans ce cas il est synonyme de théorie; b) le correspondant logique de l’énoncé, qui est à son tour une entité psychologique. Les formalistes et les pragmatistes préfèrent parler de phrases ou d’énoncés. Les conceptualistes affirment que les énoncés constituent les expression linguistiques des propositions. proposition décidable: proposition dont la vérité ou la fausseté peut être démontrée avec les moyens que fournit le système auquel elle appartient, contrairement aux propositions indécidables. proposition indécidable: contrairement aux propositions décidables, une proposition indécidable est une proposition énoncée dans un système donné, pour laquelle le système ne permet pas d’aboutir à une conclusion sur sa vérité ou sa fausseté; par exemple, le fameux cinquième axiome d’Euclide est indécidable dans le cadre des autres axiomes. propositions contradictoires: voir opposition.
proton: particule appartenant au noyau de l’atome (formé de neutrons et de protons). Le proton a une charge opposée à celle de l’électron; sa masse, quant à elle, est analogue à celle du neutron. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. psychanalyse: théorie psychologique et méthode thérapeutique dues à Sigmund Freud, basées sur l’idée fondamentale selon laquelle, derrière notre psychisme conscient, il y a une foule de comportements, qui sont logés dans une dimension inconsciente de notre psychisme, où ils sont refoulés par une censure mais se manifestent dans notre comportement, provoquant souvent des troubles. À travers l’interprétation du discours, du comportement et des rêves, le spécialiste peut induire le malade à amener au niveau de la conscience les causes des troubles (catharsis). Le facteur sexuel (libido) apparaît comme déterminant dans le refoulement vers l’inconscient; ce statut de la sexualité prendra au long de la théorie de Freud des formes plus ou moins nuancées. La découverte par Freud du rôle fondamental des premières années de l’existence dans la constitution du comportement adulte est particulièrement importante. Philosophiquement, la psychanalyse, en attribuant l’essentiel de notre comportement à des facteurs inconscients, a été comparée à une révolution semblable à celles de Copernic et de Darwin. Pour élargir: D. Lagache, La Psychanalyse, PUF, 1982. psychologie animale: étude du comportement des animaux. Deux tendances méthodologiques principales, historiquement distinctes, peuvent être discernées dans cette discipline: la tendance éthologique prône avant tout la valeur de l’observation du comportement d’une espèce animale donnée, dans son milieu naturel de vie; cette observation apparaît alors surtout comme un complément important à l’étude zoologique de l’espèce en question, sans référence nécessaire à la psychologie humaine. La tendance béhavioriste (au sens large) fonde une psychologie comparée des animaux et de l’homme dans des conditions expérimentales contrôlées et pour quelques espèces particulièrement propices à une telle démarche comparative (rat, macaque, chimpanzé notamment). On peut trouver des éléments de définition plus précis dans Maurice Reuchlin, Histoire de la Psychologie, PUF, 1969. psychologie comparée: on doit ranger sous ce nom l’étude psychologique comparée de deux catégories différentes (ou plus) de sujets doués de
psychisme: différentes races d’animaux, ou encore animaux et hommes. La psychologie comparée des individus humains entre eux, prend le nom de psychologie différentielle. psychologie de l’enfance: il convient de distinguer la psychologie l’enfance de la psychologie génétique. On parle abusivement psychologie de l’enfant comme synonyme de psychologie génétique. toute psychologie de l’enfant n’est pas nécessairement génétique inversement, la psychologie génétique ne s’occupe pas seulement développement de l’enfant.
de de Or et, du
On peut trouver des éléments de définition plus précis dans Maurice Reuchlin, Histoire de la Psychologie, PUF 1969. psychologie de la connaissance: le processus de la connaissance peut être abordé de différents points de vue. Lorsque l’on s’interroge, par exemple, sur les formes de la connaissance ou sur ses sources, on fait de la théorie de la connaissance ou gnoséologie. Lorsque l’on étudie les processus de la pensée, on fait de la logique. Lorsque l’on s’intéresse à des questions telles que les motivations individuelles de la recherche ou les phénomènes subjectifs qui y interviennent, ces interrogations relèvent de la psychologie de la connaissance. Lorsque on considère les facteurs sociaux qui entourent la recherche ou la connaissance, les questions traitées relèvent du domaine de la sociologie de la connaissance. Quelques travaux de Piaget se situent dans la ligne de la psychologie de la connaissance. psychologie génétique: voir épistémologie génétique. psychologisme: position qui réduit une réalité (sociale, mathématique, historique, philosophique) à des comportements d’ordre psychologique, ou qui fait appel à des instances psychologiques. psychophysique: méthodologie inaugurée par Gustav Theodor Fechner (1801-1887), dans ses Elemente des Psychophysik, pour mesurer la relation qui s’établit entre un excitant extérieur et la sensation. Dans ce but, Fechner procède à des expériences contrôlées. La réalisation de ces expériences aboutit entre autres à l’établissement de la loi qui porte son nom et qui représente l’avènement de la psychophysique. Pour l’essentiel, la psychophysique étudie les relations quantitatives démontrées entre des événements physiques identifiés et mesurables et des réponses évoquées selon une règle expérimentale avérée. Ces relations sont ensuite interprétées en fonction de modèles implicites ou explicites, pour
contribuer à l’élaboration et à l’approfondissement de nos connaissances sur le fonctionnement des organismes dans leurs relations avec l’environnement. Pour élargir: Claude Bonnet, Manuel Pratique de Psychophysique, Armand Colin, 1986. puissance du continu: on dit qu’un ensemble a la puissance du continu lorsqu’il existe une bijection entre lui et l’ensemble des réels. L’hypothèse du continu, due à Cantor, conjecture qu’il n’y a pas de type d’infini intermédiaire entre l’infini dénombrable et la puissance du continu. quanta (au singulier quantum): désigne, au sens propre, une “quantité déterminée”; en général, ce terme est utilisé pour décrire les quantités élémentaires d’une grandeur qui varie de façon discontinue. En particulier, on a désigné ainsi l’énergie du photon qui est le “grain de lumière” élémentaire. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. quantification, quantificateur: soient les énoncés “Socrate est mortel”, “La Terre tourne autour du Soleil”. Ils sont susceptibles, d’après leur structure, d’être symbolisés par des symboles p et q. Mais si nous décomposons leur structure, cette symbolisation ne suffit pas. Nous trouvons dans nos exemples deux éléments: le sujet et le prédicat. Frege propose comme convention que les sujets soient exprimés en lettres minuscules et les prédicats en lettres majuscules. Ainsi nos deux énoncés s’écrivent sous la forme Fx. Soit par exemple l’énoncé “César fut assassiné par Brutus”; cet énoncé admet deux formulations: Fx, où x désigne César et F désigne le prédicat “fut assassiné par Brutus”, mais aussi Fxy, où x remplace César, y remplace “Brutus” et F remplace “être assassiné par”. Ces schémas s’appellent schémas quantificationnels atomiques. Moyennant l’introduction de connecteurs, ils peuvent être soumis à un calcul qui reçoit le nom de calcul des prédicats. Ce calcul introduit également la différence entre propositions universelles et existentielles, au moyen de quantificateurs spécifiques. La proposition “tous les hommes sont mortels” peut être symbolisée ainsi: (x) Fx, que l’on peut lire “pour tout x, si x est homme, alors il est mortel”. Si je dis par contre “Il existe un objet beau”, cette proposition exige un
quantificateur individuel: (eenversx) Fx, que l’on peut lire “il existe au moins un x qui est F”. Pour élargir: R. Blanché, Introduction à la logique contemporaine, A. Colin, 1968, Ch. 5. rationalisme: position gnoséologique selon laquelle la source et la justification ultime de nos connaissances réside dans la faculté de raisonner, mais postulant aussi la possibilité et la validité des connaissances qui agissent indépendamment de l’expérience (par exemple des connaissances métaphysiques). Le rationalisme fait dépendre les connaissances de principes ou idées a priori qui sont des facultés innées de notre entendement. Nous trouvons chez Platon la version la plus pure du rationalisme; dans la modernité, ce rationalisme sans nuance est représenté par Descartes. À leur côté, nous trouvons des variantes critiques, notamment celle de Kant, selon laquelle la connaissance est le résultat de l’interaction entre des structures de l’entendement existant a priori et une réalité extérieure qu’elles organisent. Hegel représente une forme extrême de rationalisme: pour lui la pensée rationnelle est capable d’atteindre la vérité absolue dans la mesure où ses lois sont également celles auxquelles obéit le réel ( “tout ce qui est rationnel est réel et tout ce qui est réel est rationnel”). Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. réalisme: doctrine métaphysique selon laquelle il existe une réalité extérieure indépendante de notre connaissance. Ce réalisme naïf ou dogmatique est le plus souvent nuancé en philosophie par des éléments critiques, car il est très difficile de ne pas admettre qu’au moins certaines particularités de la réalité dépendent étroitement de la conscience qui les perçoit. Même si ce réalisme (critique) fait la différence entre le sujet et l’objet, il admet que la perception est un reflet fidèle de l’objet et pas une construction “subjectiviste” ou “idéaliste”. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. réalisme des idées: dans le Cratile et La République, ainsi que dans d’autres dialogues, Platon établit ce que nous appelons sa théorie des idées. Platon distingue nettement entre un monde sensible et un monde
intelligible. Le premier est constitué par les objets matériels, le deuxième par les idées qui sont les formes pures de ces objets. Or, pour Platon, les objets eux-mêmes qui sont sujets au changement ne peuvent pas être connus; ce que nous pouvons connaître ce sont les idées dont ils participent, qui sont, elles, immobiles et stables. Or, les idées semblent douées dans le système de Platon non seulement de l’intelligibilité mais d’un “coefficient de réalité” supérieure. À la question qu’est-ce qui existe vraiment? la philosophie de Platon répond en effet que ce ne sont pas les choses sensibles, décrites dans l’allégorie de la caverne comme des ombres des choses réelles, mais les idées, représentées dans cette allégorie comme les vraie choses. Le réalisme des idées désigne ces aspects de la philosophie de Platon qui accordent une existence d’un ordre supérieur aux idées par rapport aux choses sensibles. recherche opérationnelle: partie des mathématiques appliquées dont l’objectif est l’étude scientifique des processus et des méthodes d’un domaine d’activité (souvent industriel et, à l’origine, militaire), afin d’en accroître l’efficacité. La recherche opérationnelle utilise les probabilités, la programmation linéaire, les techniques d’optimisation, etc. Pour élargir: R. Faure, J.-P. Boss et A. le Garff, La recherche opérationnelle, PUF, 1980. récursivité: la récursivité est une méthode de définition de fonctions ou de résolution de problèmes. Décrivons comment une telle méthode opère pour définir une fonction f dont le domaine de définition serait l’ensemble des entiers naturels. La première étape est l’analyse qui consiste à remarquer que, si on sait calculer l’élément f(n) à partir de l’élément précédent f(n-1) et si on sait calculer l’élément f(0), on sait tout calculer. La deuxième étape est la description de la méthode de calcul: soit f(n) à calculer, si n=0, on sait ce que vaut f(0) et on a donc terminé; sinon, on “prend” l’élément n et on le “stocke” de côté, le temps de regarder l’élément précédent n-1 et de faire de même; s’il vaut 0, on connaît f(n-1) et on sait en déduire f(n), sinon, on le “stocke” en attente, ceci jusqu’à ce que l’on rencontre 0; on connaît alors f(0) et on s’occupe de la pile de candidats en attente (1,2,...,n) en calculant au fur et mesure f(1), f(2)... C’est une méthode d’une rare efficacité de calcul, qui n’est pas sans rapport avec l’idée de démonstration par récurrence, bien qu’en apparence
elle opère dans l’autre sens, de haut en bas, en mettant en attente, au lieu d’opérer de bas en haut en accumulant les informations. Un problème classique décrit par les spécialistes de cette démarche est celui des tours d’Hanoi. Il s’agit d’un jeu formé d’une planchette portant trois tiges, numérotées de 1 à 3. Sur la tige n°1 sont enfilés des disques de diamètre croissant, sur les autres il n’y a pour l’instant rien. L’objectif du jeu est de retrouver ces mêmes disques enfilés dans l’ordre croissant sur la tige n°3; les contraintes consistent à ne déplacer à chaque coup qu’un seul disque d’une tige à une autre, et à ne jamais poser de disque sur un disque de diamètre inférieur. La démarche récursive consiste à dire que si on sait le faire pour n-1 disques, il suffit de le faire pour placer les n-1 disques supérieurs sur la tige n°2, de placer le dernier disque (c’est-à-dire le plus grand) sur la tige n°3, puis d’utiliser ce que l’on sait déjà faire (et que l’on a déjà fait) pour déplacer les disques de la tige n°2 à la tige n°3, en les plaçant bien sûr audessus du plus grand qui s’y trouve déjà. Ce que la méthode a de curieux, c’est qu’en l’appliquant on assiste à une sorte de ballet de disques de tige en tige, sans bien suivre ce qui se passe, puisque la méthode récursive applique cette démarche un grand nombre de fois et apparemment de manière incohérente; mais à la fin, tout sera en place comme prévu. réduction, réductionnisme: dans un sens philosophique et général, la réduction est l’acte ou l’opération qui consiste à transformer une chose en une autre chose que l’on considère comme antérieure ou plus fondamentale. Au long de l’histoire de la philosophie on trouve de nombreuses théories réductionnistes; celles-ci se résument à l’idée qu’un objet ou une réalité déterminée se ramène à une autre réalité que l’on considère comme “plus réelle” ou “fondatrice”. On a par exemple interprété la philosophie de Marx comme une réduction de la réalité à l’un de ses aspects: la matière. Symétriquement, on peut interpréter la philosophie de Hegel comme une réduction de la réalité à l’un de ses aspects: l’esprit. Il s’agit dans les deux cas d’un réductionnisme que nous pouvons appeler ontologique. Nous pouvons reconnaître par ailleurs un réductionnisme épistémologique, par exemple la réduction de la psychologie à la physiologie, de celle-ci à la chimie et de cette dernière à la physique.
Pour élargir: C. Hempel, Éléments d’épistémologie, A. Colin éditions, 1972, Ch. 8. référent: en linguistique, ce à quoi renvoie un signe. En épistémologie, ce à quoi se réfère une loi. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. règles de correspondance: voir langage observationnel. règles de désignation: règles sémantiques établissant la signification des signes. Par exemple, p dénote “une variable propositionnelle”. règles de formation: règles syntaxiques établissant les différentes manières possibles de combiner les signes. Par exemple, “le signe qui représente le produit de deux éléments doit apparaître entre ces éléments”. règles de transformation: règles syntaxiques déterminant les inférences que l’on peut effectuer en partant de certains énoncés donnés. Par exemple, la règle de substitution et le modus ponens. réifier: au sens large, transformer en chose, chosifier. Action de convertir une propriété ou un terme abstrait en une chose ou un agent. Dans “l’intuition nous aide à saisir l’essence des choses”, par exemple, l’intuition est considérée comme une chose réelle, séparée, c’est-à-dire réifiée. On peut dire aussi substantialiser. relatif: qui se rapporte à un objet, qui n’est pas absolu, et donc, plus spécifiquement, qui ne se suffit pas à soi-même et dépend d’un autre terme ou objet; est également relatif ce qui constitue ou concerne une relation entre deux ou plusieurs termes distincts. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. relativisme: d’une façon générale, ce terme désigne la position qui soutient le caractère conditionné de la connaissance. À la question pouvons-nous connaître réellement?, on peut répondre affirmativement ou dogmatiquement sans mettre en cause cette connaissance; on peut au contraire nier toute possibilité de connaître, cas dans lequel on adopte le scepticisme. Le relativisme se situe entre ces deux positions extrêmes: pour lui il n’y a pas de connaissance universellement valable; toute vérité
a une portée limitée – à un sujet, à une époque, à un groupe, etc. Nous trouvons dans l’Antiquité des positions relativistes, par exemple, dans l’enseignement des sophistes. À notre époque, le relativisme est représenté par exemple par la philosophie de Spengler. La pensée de Feyerabend constitue une forme extrême de relativisme épistémologique. On citera également d’autres formes de relativisme: éthique, anthropologique, etc. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. représentation d’Argand-Gauss: il s’agit de la représentation des nombres complexes sur un plan: le nombre complexe a + ib est associé au point (a, b) du plan. Ceci a permis de visualiser les calculs sur les complexes, d’utiliser l’intuition géométrique pour ces calculs et inversement d’utiliser le calcul des complexes pour obtenir des résultats géométriques. révolution scientifique: c’est Thomas Kuhn qui mène à ses dernières conséquences cet aspect de la science consistant en des révolutions successives, et qui en fait la notion centrale de son système. En effet, la notion de révolution définit pour Kuhn la nature même de la science. Il distingue deux formes principales de la production scientifique: la science normale et la science révolutionnaire, qui est la science proprement dite; elle produit de grands bouleversements et renverse des idées établies. Dans l’intervalle entre ces révolutions, que représentent par exemple les théories de Lavoisier, de Newton, d’Einstein, il y a tout un domaine d’activité constitué non pas par des renversements mais par les développements ultérieurs de la théorie révolutionnaire: entre les révolutions, autrement dit, il y a la science normale, qui constitue donc une forme mineure de la production scientifique, la science par excellence étant représentée par les grand bouleversements scientifiques. Pour élargir: T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1970. romantisme: dans un sens général, il s’agit du mouvement intellectuel qui surgit en Angleterre et en Allemagne, et s’étend ensuite à toute l’Europe, à partir de la fin du e siècle, dont les traits principaux sont l’exaltation du sentiment et de l’imagination au détriment de la raison et de la critique. En littérature ses principaux représentants sont Baudelaire, Hugo, Lamartine, Stendhal, Musset. Lalande définit le romantisme en
philosophie comme se caractérisant par “une réaction contre l’esprit et les méthodes du XVIIIe siècle, par la défiance et la dépréciation des règles esthétiques ou logiques, par l’apologie de la passion, de l’intuition, de la liberté, de la spontanéité, par l’importance qu’ils attachent à l’idée de la vie et à celle de l’infini”. Dans cette ligne se situent des philosophes comme Hegel, Fichte, Schelling. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. scalaire: dans un espace vectoriel, on rencontre les éléments de l’espace vectoriel appelés vecteurs et des nombres par lesquels on peut multiplier les vecteurs, ce sont les scalaires; les scalaires sont usuellement soit les réels, soit les complexes. scepticisme: du grec skeptikos, qui observe, réfléchit, examine. Au sens large, ce mot désigne l’attitude de ceux qui nient la possibilité d’atteindre un but, ce but étant, en philosophie, une connaissance. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. sciences de la science: il y a différentes manières d’aborder la science. Bien que leur distinction ne soit pas toujours facile, parce que le plus souvent leurs perspectives s’entrecroisent et se superposent, il est possible de désigner ces différentes approches comme suit: histoire de la science, logique de la science, épistémologie, philosophie de la science, méthodologie, psychologie de la science, sociologie de la science. sciences eidétiques: Husserl oppose les sciences eidétiques aux sciences des faits ou sciences factuelles. Par ce terme il désigne les sciences pures comme la logique, la mathématique, la théorie pure du temps, la théorie pure de l’espace, la théorie pure du mouvement. Toute science de faits ou science de l’expérience possède des fondements essentiels théoriques qui sont les ontologies eidétiques. Il y a donc autant de sciences eidétiques que de sciences particulières. sciences empiriques et sciences de raison: on doit une telle division à Hobbes, qui distingue entre sciences de faits et sciences de raison; les premières comprennent l’histoire et les sciences empiriques, les deuxièmes la logique et les mathématiques.
Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. sciences formelles et sciences factuelles: les premières contiennent la logique et les mathématiques, les secondes les sciences relevant du domaine des faits ou de la réalité – physique, astronomie, histoire, sociologie, etc. Bunge établit une caractérisation très détaillée des sciences formelles et factuelles dans La science, sa méthode et sa philosophie, chapitre I, page 5 et ss. sciences inductives et déductives: on doit une telle classification notamment à Whewell; celui-ci propose en réalité au fil de son œuvre plusieurs divisions de la science – il donne le nom de sciences inductives aux sciences expérimentales, par opposition aux sciences déductives. L’utilisation du terme de sciences inductives est à l’origine de malentendus épistémologiques, dans la mesure où il conduit à penser que les sciences expérimentales procèdent par induction alors que, dans l’esprit de Whewell, ce qui caractérise la science empirique n’est ni l’induction, ni la déduction, mais la méthode expérimentale, pour laquelle ces deux procédés, parmi bien d’autres (invention, analogie, etc.) interviennent dans la construction du savoir. Whewell appelle sciences inductives, tout simplement les “sciences qui ne procèdent pas comme les mathématiques”. Ce malentendu fut déjà signalé par A. De Morgan, contemporain de Whewell. De Morgan exprime déjà la nécessité de créer un mot nouveau au lieu de redéfinir un mot ancien dont la signification était déjà fortement enracinée. Sensible à ces critiques, Whewell finira par remplacer l’expression “philosophie de l’induction”, qui désignait ses recherches sur la méthode de la science, par celle de “philosophie de la découverte”. Voir classification des sciences. sciences naturelles et culturelles: on doit une telle division notamment à Dilthey. Celui-ci reconnaît deux grands groupes des sciences: Naturwissenchaften et Geisteswissenchaften, c’est-à-dire sciences naturelles et sciences de l’esprit, qu’il appelle aussi culturelles, humanistes ou morales et politiques. scientisme: désigne l’attitude ou plutôt l’idéologie d’après laquelle la science serait le seul modèle valide de connaissance, et d’après laquelle tous les problèmes qui se posent à l’homme sont susceptibles de traitement et de solution par la science. Le chimiste Marcelin Berthelot,
qui s’inscrit dans cette ligne, exprime ainsi cette confiance dogmatique: “Le triomphe universel de la science arrivera à assurer aux hommes le maximum de bonheur et de moralité” (Science et morale) ou encore “... tout relève de la connaissance de la vérité et des méthodes scientifiques par lesquelles on l’acquiert et on la propage: la politique, l’art, la vie morale des hommes, aussi bien que leur industrie et leur vie pratique” (Ibid.). Ernest Renan dit: “Oui, il viendra un jour où l’humanité ne croira plus, mais elle saura, un jour où elle saura le monde métaphysique et moral comme elle sait déjà le monde physique, un jour où le gouvernement de l’humanité ne sera plus livré au hasard et à l’intrigue, mais à la discussion rationnelle du meilleur et des moyens les plus efficaces de l’atteindre”. (L’avenir de la science). Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. scolastique: nom sous lequel on désigne la philosophie médiévale telle qu’elle était enseignée dans les écoles ecclésiastiques et les universités du IXe au XVIIe siècles. Son représentant le plus marquant est Saint Thomas d’Aquin. Ce qui caractérise cette philosophie est son rattachement à la théologie et sa volonté de concilier la religion et la raison, représentée par la philosophie d’Aristote. Au fur et à mesure de son développement, la scolastique a évolué vers des discussions de plus en plus abstraites et verbalistes; par extension, il arrive que l’on utilise ce terme dans un sens péjoratif: dans ce sens, est “scolastique” toute pensée inutilement complexe ou sophistiquée ou tout raisonnement sclérosé. Pour élargir: E. Gilson, La philosophie au Moyen-âge, Payot, 1930. segments emboîtés: en mathématiques, une succession d’intervalles est dite emboîtée si chaque intervalle est contenu dans le précédent; un théorème célèbre, le théorème des segments emboîtés (les segments sont des intervalles fermés de la forme [a,b]) montre que l’intersection d’une famille de segments emboîtés, de longueur tendant vers zéro, est un point. sémantique: branche de la linguistique qui étudie le sens des unités linguistiques. En logique, il s’agit de l’étude des propositions d’une théorie déductive du point de vue de leur vérité ou de leur fausseté. La sémantique traite de l’interprétation et de la signification des systèmes formels, par opposition à la syntaxe qui traite des relations purement formelles entre les signes ou entre les systèmes. Si la syntaxe s’occupe de
la relation signe-signe, la sémantique se préoccupe de la relation signemonde. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. sémiotique ou sémiologie: étymologiquement la sémiologie est la science des signes; et son premier usage fut médical (étude des symptômes). Cette discipline devient une science à partir des travaux de Peirce, Odgen et Richard et Morris. Ce dernier définit la sémiotique comme la science générale des signes, et établit des concepts fondamentaux dont ceux de: interprète (celui pour qui quelque chose est un signe), interprétant (disposition pour répondre à un signe en tant que tel), denotatum (ce que le signe véhicule) et dénotation (capacité de véhiculer un message et une signification, autrement dit le contenu de ce message). Pour élargir: R. Blanché, La logique et son histoire d’Aristote à Russell, A. Colin, 1882; L. Vax, Lexique Logique, PUF, 1982. sensible: le mot sensible a ici, et souvent en philosophie, le sens de “relatif au sens” ou à la perception. sensisme: conception d’après laquelle les termes n’ont de signification que s’ils décrivent une donnée sensible ou un complexe d’expériences sensorielles. sensualisme: doctrine d’après laquelle tous les phénomènes psychiques supérieurs y compris la pensée ont leur origine dans les sens. Il s’agit donc d’une forme extrême de l’empirisme. Ce qui distingue le sensualisme de l’empirisme est la réduction exclusive et extrême qui nie l’action de tout autre facteur que le facteur sensible. Ceci exclut du sensualisme les philosophies de Locke ou de Hobbes. Dans l’Antiquité, nous trouvons un sensualisme proprement dit dans la philosophie d’Épicure et plus récemment dans celle de Condillac. séparation: il s’agit de l’un des axiomes de la théorie des ensembles; dû à Zermelo, il permet, dans un ensemble donné, de définir l’ensemble des éléments qui possèdent une propriété donnée. Contrairement au principe “intuitif” mais faux (et qui a conduit aux paradoxes de la théorie des ensembles) selon lequel on peut construire de manière générale (et non à l’intérieur d’un ensemble donné) l’ensemble des éléments vérifiant une
propriété donnée, l’axiome de séparation ne “fonctionne” qu’à l’intérieur d’un ensemble fixé, et en cela il ne cause aucun paradoxe. sociologie de la connaissance: si les réflexions sur la science et sur les conditions sociales qui l’accompagnent apparaissent de nombreuses fois dans l’histoire de la pensée (Bacon, Comte, Marx, etc.), cette discipline apparaît en tant que telle au début du XXe siècle. L’apport de Gurvitch est particulièrement important; il la définit comme l’étude des rapports ou des corrélations fonctionnelles entre les divers cadres sociaux (sociétés, classes, groupes) et types de connaissance (technique, politique, scientifique), d’un côté, et les formes de connaissance (métaphysique, science positive, etc.), de l’autre. Dans son article A critical examination of the new sociology of sciences, Bunge définit cette discipline comme la branche de la sociologie qui étudie les influences de la société sur la recherche scientifique, ainsi que l’impact de celle-ci sur la société. Elle fut admise officiellement comme une branche de la sociologie vers 1950, en raison des travaux de R. Merton dont les recherches changèrent la direction exclusivement “internaliste” de l’épistémologie. Celle-ci situait le moteur de la recherche dans des facteurs tels que la curiosité et négligeait les aspects qui stimulent ou inhibent celle-ci. Tout faisait croire, ajoute Bunge, que l’on s’acheminait vers une heureuse synthèse d’ “internalisme” et d’ “externalisme”, mais une nouvelle attitude se manifesta qui privilégiait et exagérait même le rôle des facteurs externes en faisant de la science un épiphénomène des facteurs sociaux et non plus une quête de la vérité, soumise à une exigence d’objectivité. Les prophètes de cette attitude furent Kuhn et Feyerabend. Dans ce même travail, Bunge dénonce le caractère caricatural de cette attitude dans les travaux de Bruno Latour. sophisme: il s’agit d’arguments ayant une apparence de rigueur mais qui ne le sont pas, dont les éléments fallacieux sont plus ou moins facilement repérables et dont la fonction est d’essayer de persuader, malgré leur nonvalidité logique. Dans l’Organon, Aristote établit une classification très complète des sophismes. sophistique: ce terme peut être compris de deux manières: comme un mouvement intellectuel qui s’est développé en Grèce au Ve siècle av. J.C., ou comme une constante dans l’histoire de la pensée. En tant que mouvement intellectuel, il s’agit d’un exercice particulier de la philosophie qui met plus l’accent sur la dimension de la persuasion que sur celle de la réflexion. Les sophistes répondent à une exigence sociale
de l’époque; ils vendent leur enseignement et forment leurs disciples plus à la rhétorique qu’à la spéculation scientifique; ceci ne veut pas dire que leur enseignement ait été dépourvu de toute réflexion ou de toute idée neuve. Nous trouvons par exemple dans la figure de Protagoras d’Abdère une philosophie novatrice: le relativisme. Cet ensemble d’activités fut condamné par Platon et Aristote; ceux-ci dénoncèrent la capacité des sophistes de défendre avec la même conviction (et indistinctement) n’importe quelle thèse, et ceci souvent par des arguments habiles mais de mauvaise foi. Ces critiques contribuèrent ainsi à donner à la notion de sophiste et à celle de sophistique, le sens péjoratif qu’il allait acquérir, à savoir celui de fallacieux, de spécieux et de rhétorique (dans le mauvais sens du terme). Pour élargir, J. Brun, Les Présocratiques, Paris, PUF, 1973. spécifique: dans un sens large, ce qui caractérise l’espèce et qui est commun à tous les individus de cette espèce. Par exemple, la raison est spécifique à l’homme. statistique: à l’origine c’est la science qualitative plus que quantitative de l’État (étendue, population, agriculture, industrie, commerce). Cette statistique descriptive s’est enrichie d’une théorie permettant d’analyser les informations obtenues comme par exemple l’analyse des données, dont l’usage est facilité par les moyens de calcul récents; d’autre part l’utilisation des résultats de la théorie des probabilités a permis le développement de méthodes d’échantillonnage et d’étalonnage. Pour élargir: A. Vessereau, La statistique, PUF, 1968. stoïcisme: il s’agit d’une école de pensée gréco-romaine, mais aussi d’une conception de la vie et du monde, qui réapparaît comme une “constante” au long de l’histoire de la philosophie. En tant qu’écoles, il faut distinguer le stoïcisme ancien (315 av. J.-C.), le stoïcisme moyen (IIe et Ier siècles av. J.-C.) et le stoïcisme nouveau (Ier et IIe siècles) dont la figure principale est Sénèque. En faisant abstraction des différences entre ces périodes, on peut trouver des traits communs aux différentes formes de stoïcisme. On y reconnaît une triple préoccupation: logique, physique et éthique. Les recherches logiques ignorées pendant longtemps ont été récemment reconnues comme ayant jeté les bases de la logique des propositions et comme ayant contribué à l’élaboration des règles d’inférence. Mais l’aspect le plus connu de cette école est l’éthique, dont les thèmes principaux sont: la pratique permanente de la vertu, la
recherche du bonheur par l’exercice de la vertu et non par la recherche des biens externes à l’âme, l’accord des actes avec la raison, autrement dit avec la nature, l’acceptation du destin, le combat contre les forces de la passion. Ces idéaux n’empêchèrent toutefois pas l’exercice d’une critique sociale et politique et la recherche de réformes. Pour élargir: J. Brun, Le Stoïcisme, PUF, 1958. structures pures (ou abstraites): il s’agit, comme dans le cas des géométries non représentatives, de la donnée d’un ensemble abstrait (sous la forme d’une liste de symboles), de la description d’une suite de définitions et de règles (ou axiomes) assurant en fin de compte que cet ensemble possède la structure désirée. Par exemple, un groupe abstrait sera: i) Une liste d’éléments a, b, c,...,notée E ii) L’affirmation qu’il existe une loi dite de composition interne, désignée par le symbole µ, telle que si x et y désignent des éléments quelconques de E, xµy désigne aussi un élément de E. iii) L’affirmation que si on considère trois éléments x, y et z de E, les résultats des opérations (xµy)µz et xµ(yµz) sont les mêmes (associativité). iv) L’affirmation que, parmi les éléments de E, il y en a un, désigné par e, qui vérifie pour tout élément x de E eµx=xµe (élément neutre). v) L’affirmation que pour tout élément x de E il existe un élément, noté x’, qui vérifie l’égalité: xµx’=x’µx =e (symétrisabilité). subjectivisme: dans un sens général, il s’agit de la réduction d’un jugement au sujet qui juge; cette notion implique une limitation de la validité d’un tel énoncé. Dans son sens le plus usuel, le mot subjectivisme prend un sens péjoratif: il est considéré comme une forme extrême de relativisme, niant la possibilité d’une connaissance réelle, c’est-à-dire objective, du monde. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. succession infinie des nombres naturels: les nombres entiers, que les mathématiciens désignent sous le nom d’entiers naturels (par opposition aux nombres négatifs) représentent un ensemble infini, dont les éléments peuvent être rangés sous la forme d’une liste infinie, où chacun connaît à la fois son successeur et son prédécesseur (sauf zéro qui n’en possède pas); ceci est la définition des ensembles dénombrables.
succession ou suite: ensemble de termes ordonnés, comme l’ensemble des entiers positifs. À ne pas confondre avec série, qui est une somme de termes, généralement infinie. suite convergente: il s’agit d’une suite d’éléments qui possède une limite, ce que l’on pourrait décrire intuitivement de la manière suivante: un observateur, assis devant un écran qui afficherait les uns après les autres les éléments de la suite, verrait les résultats affichés de plus en plus proches d’une certaine valeur (la limite). Ce terme a bien entendu une définition rigoureuse qui ressemble beaucoup à celle de limite d’une fonction. syllogisme: il s’agit d’un raisonnement dans lequel, à partir de deux prémisses, on tire une conclusion. Les prémisses sont des propositions mettant en rapport des termes liés par des relations d’appartenance. Dans l’exemple classique: “Tous les hommes sont mortels, Socrate est homme, donc Socrate est mortel”, Socrate appartient à l’ensemble des hommes et l’ensemble des hommes est inclus dans celui des êtres mortels. Cette gradation se reflète dans la disposition des termes: petit terme, moyen terme et grand terme; le moyen terme étant le pivot du syllogisme puisque c’est du fait qu’il contient et qu’il est contenu, que le syllogisme peut s’articuler. Aristote a divisé les syllogismes en catégoriques, hypothétiques et disjonctifs suivant le caractère de la prémisse majeure (la prémisse contenant les moyen et grand terme), ces trois figures pouvant elles-mêmes se subdiviser mécaniquement en seize modes, dont seuls certains sont corrects. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. sympathie: on trouve déjà cette notion dans la philosophie stoïcienne en tant que principe d’harmonie qui lie les choses les unes aux autres et crée ainsi l’unité même de la réalité. On trouve chez Adam Smith un projet de fonder la morale sur la notion de sympathie, conçue comme la faculté de partager les passions des autres. Max Scheler a repris ce projet tout en critiquant radicalement l’idée de participation sentimentale; la sympathie est pour lui avant tout une compréhension. Dans Introduction à la métaphysique Bergson affirme que sympathiser est l’acte philosophique par excellence, et cette
notion se confond dans son système avec celle d’intuition: “Nous appelons ici intuition la sympathie par laquelle on se transporte à l’intérieur d’un objet pour coïncider avec ce qu’il a d’unique et par conséquent d’inexprimable”. syntaxe: partie de la grammaire qui décrit les règles par lesquelles les unités linguistiques se combinent en phrases. En logique, étude des relations formelles entre expressions d’un langage. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. systématicité: propriété de ce qui peut constituer un système ou s’intégrer à un système. Dans certains cas, cette notion peut prendre un sens péjoratif, par exemple lorsqu’il est question de grands systèmes qui prétendent expliquer ou rendre compte de l’ensemble de la réalité et qui en fait ne font que la réduire. système: ensemble d’idées dont les éléments sont solidaires et interdépendants, par exemple le système de Platon ou la géométrie euclidienne. En science et en philosophie, un système est un enchaînement d’idées ou de propositions tel que les unes découlent logiquement des autres, et dont le critère logique de validité est la cohérence. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. système axiomatique ou système formel: série de propositions organisées de telle forme que de certaines d’entre elles, appelées axiomes, se dérivent d’autres à l’aide de certaines règles d’inférence. La spécification de celles-ci est indispensable si l’on veut que le système soit vraiment formel. La notion de système formel est indispensable pour la compréhension de la structure formelle de tout calcul logique et mathématique, et en général de toute science formalisée. On peut reconnaître dans tout système formel ou axiomatique: a) une série d’objets dont traite le système: les termes; b) un ensemble de propositions appelées propositions élémentaires relatives à ces termes et de règles permettant de former des propositions à partir des termes primitifs; c) un ensemble de propositions élémentaires considérées comme vraies,
appelées axiomes et de règles de dérivation qui spécifient la manière dont les théorèmes se dérivent de ces axiomes. système isolé: se dit en physique d’un système ne pouvant échanger ni matière ni énergie avec l’extérieur, contrairement à un système ouvert, susceptible d’interactions avec d’autres systèmes. système sémantique: un système de signes (par exemple le langage naturel ou une théorie factuelle) doué de signification. Antonyme de système abstrait ou système non interprété. tableau des oppositions:
AB propositions contraires CD propositions subcontraires AC et BD propositions subalternes AD et BC propositions contradictoires tautologie: proposition dans laquelle le prédicat, ou attribut, répète ce qu’exprime le sujet, soit en termes identiques, soit en termes équivalents. Par exemple “A est A”, “le triangle a trois angles”. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. technologie: sous l’influence de la langue anglaise, ce terme désigne la technique moderne à partir, approximativement, du XIXe siècle, dans ce que celle-ci doit au savoir scientifique, contrairement au terme technique qui désigne plutôt un ensemble de recettes empiriques et pratiques et non un savoir. téléologie: du grec telos, fin, et logos, étude; connaissance ou étude de la finalité ou du finalisme. Téléologique désigne l’attitude qui consiste à
éclairer un fait ou un phénomène à la lumière des buts ou des fins qu’il poursuit ou qu’il atteint, par opposition à l’attitude mécaniste. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. théorème: du grec theôrema: de theôrein, contempler. Proposition qui peut être démontrée, c’est-à-dire qui découle par des principes logiques d’autres propositions déjà démontrées, ou d’axiomes admis. Par exemple, le postulat d’Euclide, énonçant que “d’un point extérieur à une droite on peut mener une parallèle et une seule à celle-ci”, n’est pas un théorème, car il ne découle pas des autres propositions de la géométrie classique, tandis que le théorème de Pythagore, découlant des autres propositions de la géométrie euclidienne, est un théorème. théorème d’incomplétude: le théorème d’incomplétude, dû à Gödel (1931), affirme que dans toute théorie assez riche pour formaliser l’arithmétique, on peut formuler un énoncé indécidable; ce qui signifie que pour établir la consistance d’une théorie mathématique “assez riche”, il est nécessaire d’utiliser des ressources extérieures à celle-ci. Cette découverte mit fin au projet de Hilbert de démontrer la consistance de l’arithmétique par des procédés finitistes. Voir théorèmes de Gödel. théorème de Pythagore: dans un triangle rectangle, le carré de l’hypoténuse est égal à la somme des carrés des deux autres côtés. théorèmes d’existence: on désigne ainsi les théorèmes qui, en mathématique, assurent l’existence d’un élément sans donner de moyen explicite de le calculer ou de le construire. C’est l’exemple par excellence de ce que les constructivistes refusent. Il existe par exemple un théorème selon lequel, si une fonction est continue et dérivable sur un intervalle, il existe forcément un point où sa dérivée est nulle; il ne nous dit ni si ce point est unique (et il n’y a pas de raison qu’il le soit), ni comment le trouver. théorèmes de Gödel: le mathématicien Gödel est célèbre pour son théorème d’incomplétude mais il faut se souvenir qu’il a d’abord établi un théorème de complétude: dans un langage admettant un ensemble infini de symboles de constantes, une formule close (c’est-à-dire sans variables libres) est contradictoire si et seulement si il existe un modèle de ce langage qui la réfute.
Mais Gödel est surtout connu pour son fameux théorème d’incomplétude, suivant lequel dans une théorie assez riche il est possible d’énoncer des expressions vraies qu’il ne sera cependant pas possible de prouver. Voir théorème d’incomplétude. théorie: la signification première du mot théorie est contemplation. Par théorie, on entend de nos jours une construction intellectuelle résultant d’un travail de réflexion philosophique ou de recherche scientifique, expliquant ou rendant compte d’une manière ou d’une autre d’une réalité donnée. Les critères de validité d’une théorie scientifique sont sa consistance ou cohérence interne, sa vérification ou démonstration expérimentale, et sa perfectibilité (capacité à être dépassée, améliorée ou remplacée). Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. théorie axiomatique: théorie exposée d’après un ordre: on expose d’abord les termes primitifs, et on formule ensuite les propositions primitives ou axiomes. théorie axiomatique des ensembles: on entend habituellement par théorie axiomatique des ensembles la partie structurée, abstraite de la théorie des ensembles. Celle-ci contient les fameux axiomes, comme l’axiome du choix ou celui de Zermelo, et ouvre la voie à des parties ardues, fréquentées seulement par les spécialistes, comme la théorie des ordinaux, des cardinaux infinis, etc. théorie de l’information: théorie mathématique due à Shannon (1948) ayant pour objet l’étude de la transmission de messages ou signaux, et la communication de l’information; elle détermine l’information en termes quantitatifs: plus le message contient d’informations inédites pour le récepteur, plus celui-ci est riche. Dans ce système, la mesure de la quantité d’informations est exprimée en unités appelées bits: lorsqu’un événement a une chance sur deux de se produire, l’information est évaluée à un bit. Pour élargi: Encyclopédie internationale des sciences et techniques, dirigée par Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, Paris, 1971.
théorie de la connaissance: synonyme de gnoséologie. théorie de la relativité: il n’existe pas de système fixe et universel par rapport auquel on puisse mesurer un mouvement; le mouvement, du point de vue de l’expérience possible, apparaît toujours comme relatif à un point de référence. En conséquence, espace et temps ne sont plus des entités absolues, mais sont soumis au principe relativiste. Parmi les résultats qui en découlent, les plus importants sont les suivants: la vitesse de la lumière est constante et est la vitesse maximale possible dans l’univers; la masse augmente avec la vitesse; l’énergie est égale à la masse multipliée par le carré de la vitesse de la lumière; le temps diminue avec la vitesse. Einstein formule également le principe de l’équivalence de la masse et de l’énergie, fondamental en physique atomique. En 1916, Einstein élabore sa théorie généralisée de la relativité: le principe relativiste est étendu aux systèmes en mouvement non uniformément accéléré. Les conséquences de cette généralisation sont: l’équivalence de la gravitation et de l’inertie; l’affirmation de l’existence de champs gravitationnels et l’élimination de la notion obscure d’action à distance; l’affirmation du caractère courbe de l’espace, permettant une physicalisation de la géométrie parallèlement à une géométrisation de la physique. Finalement, en 1950, la théorie unifiée du champ étend ces principes au niveau atomique et aux phénomènes électromagnétiques. Pour élargir: A. Einstein, La théorie de la relativité restreinte et générale, exposé élémentaire, Gauthier-Villars, 1969; Lincoln Barnett, Einstein et l’univers, Gallimard, 1951. théorie des catégories, morphisme: branche des mathématiques qui commença à être formalisée vers 1940 par des mathématiciens comme Henri Cartan, Saunders Mac-Lane, S. Eilenberg. Au lieu de ne considérer que des ensembles, comme le faisait la théorie du même nom, elle considère des couples formés d’un ensemble et d’une famille d’applications entre ces ensembles, appelées morphismes. Ainsi une catégorie de groupes considère: i) Des groupes qui sont les objets de la catégorie ii) Les morphismes de la catégorie qui sont les applications entre ces groupes “cohabitant” d’une certaine manière avec la structure commune aux objets de la catégorie. Par exemple, si E et F sont des objets de la catégorie des groupes; si E est un groupe pour la loi µ et F un groupe pour la loi £, un isomorphisme g
entre E et F devra, non seulement être une bijection mais aussi respecter, pour tout couple (a, b) d’éléments de E, f (a µ b) =f (a) £ f (b). Ce point de vue permit avant tout de construire une sorte de langage commun pour décrire des résultats dans divers domaines a priori très dissemblables (groupes, espaces topologiques...), puis il a donné naissance à de nouveaux objets enrichissant les mathématiques et s’ouvrant sur de nouvelles recherches (en géométrie algébrique et différentielle, etc.). théorie des descriptions de Russell: les descriptions sont des propositions commençant par les articles définis “le” ou “la”. Exemple: “le roi de Suède” ou “l’auteur de Don Quichotte”. Certains énoncés contenant des descriptions sont vrais et d’autres faux, par exemple “le roi de Suède est un roi constitutionnel” est une proposition vraie; “l’auteur de Don Quichotte est français” est une proposition fausse. La théorie des descriptions a pour but d’établir certaines conditions permettant de déterminer si un énoncé dans lequel apparaît une description est vrai ou faux. Pour que l’énoncé soit vrai, il faut: a) que le sujet soit défini de manière univoque et b) qu’il possède effectivement la propriété énoncée. On dira ainsi que la proposition “le Président de l’Angleterre est sympathique” est fausse parce il n’y a pas de président en Angleterre, et que la proposition “l’auteur de l’Encyclopédie n’était pas analphabète” est fausse parce qu’il n’y a pas un seul auteur de l’Encyclopédie, mais plusieurs. Quant à la proposition “l’auteur de Don Quichotte est français”, elle est fausse parce qu’il y a bien un auteur de Don Quichotte, mais il est espagnol. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. théorie des ensembles: la théorie des ensembles est avant tout le langage de la mathématique actuelle, fournissant des notions comme celles d’appartenance et d’inclusion; mais au-delà de cette théorie naïve des ensembles (comme la désignent les mathématiciens), la théorie des ensembles a tenté de fournir une assise solide à l’ensemble de la mathématique. Des questions de fond qui se sont manifestées ont mis en évidence la nécessité de nombreux axiomes, comme l’axiome de Zorn, celui du continu, etc., qui se révèlent indispensables pour le développement de la mathématique.
Pour élargir: J. Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. théorie des groupes: voir groupes. théorie des probabilités: voir probabilités. théorie des types: Russell distingue différents types ou niveaux logiques. Ainsi, soient les objets X et Y: ils se situent à un niveau logique ou type zéro. Si nous parlons de ces objets, par exemple “X est noir”, ou “Y est vieux”, nous obtenons des énoncés qui se situent à un niveau ou type 1. Nous pouvons également parler des propriétés elles-mêmes, par exemple “le noir est une couleur”; nous nous trouvons ici à un niveau 2 ou type 2. D’après Russell, les paradoxes peuvent s’expliquer comme des propositions qui mélangent des niveaux ou des types logiques; du reste, c’est pour résoudre le problème posé par les paradoxes qu’il a développé cette théorie. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. théorie des valeurs: voir axiologie. théorie naïve des ensembles: on a l’habitude de parler de théorie naïve des ensembles pour décrire la partie classique de cette théorie, qui est avant tout un langage commun à tous les utilisateurs des mathématiques; c’est-à-dire, les notions d’éléments, d’ensembles, d’appartenance, d’applications, de réunion et d’intersection, etc. théorie ondulatoire de la lumière: l’étude de la lumière a conduit à des théories diverses; la première, la théorie corpusculaire, considère la lumière comme une substance qui se déplace, formée de corpuscules reflétés par des chocs avec des surfaces, déviés suivant les lois de la réfraction lors du passage d’un milieu à un autre; la théorie ondulatoire de Huygens considère la lumière non comme un phénomène causé par un déplacement de matière (théorie corpusculaire) mais par une onde: “ce mouvement imprimé à la matière (par la lumière) est successif (...) par conséquent il s’étend, ainsi que celui du son, par des surfaces et des ondes sphériques: car je les appelle ondes, à la ressemblance de celles que l’on voit se former dans l’eau quand on y jette une pierre, qui représentent une telle extension successive en rond, quoique provenant d’une autre cause et seulement dans une surface plane”. (Huygens, Traité de la lumière).
Un des problèmes intéressants de la physique moderne est la coexistence de ces deux natures, ou interprétations, de la lumière: “Il ne paraît pas probable qu’on puisse faire une description cohérente des phénomènes de la lumière en employant uniquement l’un des deux langages possibles. Parfois nous sommes obligés de nous servir de l’une de ces théories, parfois de l’autre, et nous pouvons, par moments, employer les deux à la fois. Nous avons deux images contradictoires de la réalité; aucune, prise séparément, n’explique pleinement les phénomènes de la lumière, mais ensemble elles arrivent à le faire (Einstein et Infeld, L’évolution des idées en physique). théorie quantique: voir quanta et mécanique quantique. théoriser, théorisation: une hypothèse est théorisée si elle est intégrée dans une théorie ou si elle s’est convertie en théorie. thermodynamique: partie de la physique qui s’intéresse aux phénomènes liés à la température et à la chaleur. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. topologie: partie des mathématiques qui s’intéresse à la notion de proximité et de position des éléments les uns par rapport aux autres. La topologie s’intéresse particulièrement aux propriétés conservées par déformation continue des figures; ainsi, pour la topologie, une sphère et un ballon ovale sont “de même nature”, tandis qu’un tore (forme d’une chambre à air) est de même nature qu’une tasse à une anse. La topologie est nécessaire à tout approfondissement de l’analyse. Pour élargir: A. Delachet, La Topologie, PUF, 1978. transcendant: en philosophie, ce terme désigne la propriété ou la qualité de ce qui est d’un autre ordre par rapport à un état de choses; lorsqu’on dit que Dieu est transcendant par rapport au monde, cela signifie qu’il est qualitativement au delà, lui est extérieur et possède par rapport à lui une nature d’un autre ordre. Voir transcender. Àne pas confondre: transcendant et transcendantal. transcendantal: bien que ce terme soit utilisé déjà par les scolastiques, il prend avec Kant le sens qui est devenu le plus courant en philosophie; ce terme désigne le caractère de ce qui est a priori dans la connaissance, c’est-à-dire qui relève exclusivement de la conscience en opposition à ce
qui relève de la réalité extérieure; les catégories, l’espace et le temps, sont par exemple des éléments transcendantaux: ils relèvent de notre entendement. Àne pas confondre: transcendantal et transcendant. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. transcender: aller au delà, vers un niveau supérieur ou d’un autre ordre. Par exemple: l’imagination transcende le réel. transfini: la théorie des ensembles a été amenée à considérer les ensembles infinis et à découvrir qu’ils ne sont pas “de même grandeur”, d’où l’introduction de la notion de dénombrables pour décrire les ensembles possédant une bijection avec l’ensemble des entiers, puis la puissance du continu pour décrire l’ensemble des réels dont Cantor a montré (voir preuve de Cantor) qu’il n’est pas en bijection avec les précédents (et donc représente une “taille plus grande”); ainsi s’est construit un mécanisme permettant de concevoir et d’étudier des “cardinaux transfinis”, représentant des ensembles infinis “de plus en plus grands”. Une partie de la théorie des ensembles se consacre à étendre (lorsque c’est possible) les résultats et les techniques connus pour les ensembles finis. transitivité: une relation R telle que si xRe et yRz, alors xRz, est nommée transitive. Les relations d’égalité et d’inégalité sont transitives. La relation de similitude est intransitive. trois corps: le problème des n corps consiste, en mécanique, à essayer de déterminer les mouvements de n corps, soumis à l’attraction de leurs masses respectives; il a été posé entre autres par des mathématiciens du XIXe siècle (Lagrange, Laplace...) désireux de démontrer la stabilité du système solaire. Poincaré démontra qu’il n’existait pas de loi de conservation pour un système de trois corps, hormis les lois physiques déjà connues, et crut en déduire qu’aucune orbite ne resterait stable indéfiniment, mais Kolmogorov montra en 1954 que la conclusion était prématurée et qu’il pouvait bien y avoir des orbites stables. Le résultat fut complété par V. Arnold et J. Möser; il porte désormais le nom de théorème KAM.
univers du discours: notion élaborée par De Morgan: ensemble des idées et des éléments auxquels on se réfère dans un jugement ou raisonnement, de sorte qu’un élément peut être vrai dans un univers du discours donné et faux dans un autre; par exemple, l’homme peut avoir des propriétés particulières dans un univers de fable, de science-fiction. universaux: désigne les notions générales, idées, entités abstraites. Voici quelques exemples: l’homme, le rouge, 4, etc. Ils s’opposent aux individuels ou entités concrètes. Le problème du statut ontologique des universaux a préoccupé les philosophes depuis l’Antiquité, mais plus particulièrement au Moyen-âge; bien qu’il s’agisse avant tout d’une question ontologique, le traitement du problème a donné lieu à des implications logiques et gnoséologiques. La confrontation des points de vue des différentes écoles est connue sous le nom de querelle des universaux. Elle opposa le nominalisme, notamment celui de Ockham pour qui les universaux ne sont que des noms sans contenu réel, à la tradition platonicienne pour laquelle ces entités universelles possèdent une existence réelle. On trouve une proposition critique intermédiaire dans la philosophie d’Abélard, le conceptualisme, qui affirme l’existence des universaux en tant qu’entités mentales ou concepts. Pour élargir. A de Libera, La querelle des universaux, de Platon à la fin du Moyen Age, Seuil, 1996. universel: en philosophie, ce terme signifie souvent valable en tout temps et tout lieu. Par opposition à particulier: relatif à des individus ou des circonstances spécifiques. utilitarisme: il s’agit de la théorie soutenue par Bentham (1748-1832) et Mill qui fait de l’intérêt le principe d’action. C’est l’intérêt, c’est-à-dire la recherche de ce qui est utile, qui doit guider les actions tout comme la morale des hommes; cette conception fut très critiquée par Marx et Engels. Pour élargir: J. S. Mill, L’Utilitarisme, Flammarion, 1988. valeur de vérité: voir logique bivalente. validation: au sens général, on appelle validation l’action de valider ou de légitimer un acte, une décision, ou une pratique. En science, ce sont les propositions ou théories qui sont objet de validation. Dans les sciences pures, la validation est purement formelle; une proposition est validée si elle est démontrée en fonction des règles d’inférence admises par le
système. Dans les sciences factuelles, elle est de nature empirique. La preuve empirique valide une hypothèse si elle la vérifie. La validation détermine donc la validité (c’est-à-dire la conformité avec certains principes ou pratiques) et non pas la vérité d’une proposition. variable: 1. En science formelle, ce qui peut être interprété au moyen d’entités possédant une signification fixe. Par exemple, les variables individuelles x, y, etc. et les variables propositionnelles p,f, etc. 2. En science factuelle, une fonction qui dénote une propriété d’un système concret, par exemple “position” et “soluble”. variable continue et variable discrète: en mathématiques, une variable est dite “continue” lorsqu’elle peut varier “continuellement” en prenant toutes les valeurs d’un intervalle, par exemple le temps lors d’un processus physique; elle est dite “discrète” lorsqu’elle avance “par sauts” – qu’elle décrive un ensemble fini (par exemple l’ensemble des jours du calendrier) ou infini (l’ensemble des entiers naturels). L’utilisation de l’ordinateur a introduit des calculs qui portent, de fait, sur des ensembles discrets (l’ensemble des nombres que peut se représenter un ordinateur donné avec un outil de calcul donné ou l’ensemble des points d’un écran donné). vecteurs de base (et dimension d’un espace vectoriel): dans un espace vectoriel on appelle base une famille de vecteurs à partir desquels on peut, par additions et multiplications par des scalaires, reconstituer tous les vecteurs de l’espace. Lorsqu’une telle base compte un nombre fini de vecteurs, l’espace est dit de “dimension finie” et sa dimension, le nombre des vecteurs de la base, est en fait le nombre d’informations numériques nécessaires pour identifier exactement un vecteur. La notion d’espace vectoriel de dimension finie permet d’utiliser de nombreuses analogies avec les espaces vectoriels usuels de notre expérience quotidienne et physique. Lorsqu’il n’y a pas de base finie, on dit que l’espace vectoriel est de dimension infinie. En analyse, les espaces de fonctions que l’on est amené à considérer sont en général de dimension infinie. verbalisme: pratique dans laquelle la phraséologie (assemblage de mots plus ou moins vides et en général emphatiques) se substitue à l’expression ou à la recherche d’idées.
vérification, vérifiable: au sens large, vérifier, c’est prouver la vérité ou la solidité d’une expression, d’un calcul ou d’un mécanisme. En science, la vérification est une démarche expérimentale: une fois une hypothèse établie, des expériences sont nécessaires pour créer la preuve qui viendra la confirmer ou l’infirmer. Claude Bernard distingue entre les hypothèses dont la preuve est fournie par un phénomène de la nature et d’autres qui exigent la participation active du chercheur. Il fait aussi la différence entre preuve directe et indirecte: souvent, en science, les hypothèses ne sont pas directement vérifiables; dans les sciences modernes, par exemple, où les hypothèses manient des notions d’un haut niveau d’abstraction, ce sont leurs conséquences que l’on met à l’épreuve. Dans la mesure où, comme on le sait, on peut déduire d’une prémisse fausse des conclusions vraies, la vérification d’une conclusion n’entraîne pas celle de l’hypothèse: elle la rend seulement probable et provisoirement confirmée. Il faut distinguer également entre preuve à l’appui et preuve décisive. Pour conclure avec certitude qu’une condition donnée est, par exemple, la cause directe d’un phénomène, il ne suffit pas d’avoir prouvé que cette condition le précède ou l’accompagne toujours; il faut aussi établir que, cette condition étant supprimée, le phénomène ne se montrera plus. La contre-épreuve devient donc le caractère essentiel de toute conclusion, la seule capable de supprimer l’erreur toujours possible qui consisterait à prendre une simple coïncidence pour une cause. Les théories construites comme des tableaux statistiques de présence ou d’absence ne constituent jamais des démonstrations expérimentales. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. vérité: le mot vérité s’utilise dans deux sens: pour se référer à une proposition et pour se référer à une réalité. Dans le premier cas, vrai est le contraire de faux; dans le deuxième, il est l’opposé d’apparent ou d’illusoire. Dans les débuts de la philosophie grecque, le vrai était plutôt conçu comme ce qui demeure, par opposition à ce qui change et qui est éphémère; dans ce cas, la recherche de la vérité coïncidait avec la recherche de la réalité. La notion de vérité, en tant que propriété des énoncés, est formulée clairement pour la première fois par Aristote, dans La Métaphysique. Un énoncé est vrai s’il correspond à la réalité dont il parle. Cette conception est connue sous le nom de vérité comme correspondance. En mathématiques, la vérité doit satisfaire exclusivement
à l’exigence de cohérence interne, et réside “uniquement dans la déduction logique à partir des prémisses posées arbitrairement par les axiomes”. (N. Bourbaki). On peut distinguer également, sans être exhaustif, une conception pragmatiste (Ch. Peirce, W. James) selon laquelle le critère de vérité relève du domaine de l’action et réside dans l’ensemble de ses conséquences pratiques. Pour élargir: Lalande, Vocabulaire technique et critique de la philosophie, PUF, 1993; Encyclopédie philosophique universelle, Les notions philosophiques, sous la direction de Sylvain Auroux, PUF, 1990. vitalisme: dans un sens large, il s’agit de toute doctrine selon laquelle les phénomènes de la vie sont irréductibles à des faits matériels, autrement dit qui attribue à la vie une nature propre et un principe (principe vital) spécifique. Pour élargir: F. Jacob, La logique du vivant, Gallimard, 1970. vitesse (ou vitesse moyenne): il s’agit d’une notion mécanique. La vitesse moyenne d’un mobile entre un instant t0 et un instant t1 est le quotient de la variation de la position, entre l’instant t0 et l’instant t1, par la différence t1 -t0. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot 1963. vitesse instantanée: il s’agit d’une notion mécanique. La vitesse instantanée d’un mobile en un instant t0 est la limite du quotient de la variation de la position, entre l’instant t0 et l’instant t1, par la différence t1 -t0, lorsque t1 tend vers t0. Il s’agit, plus mathématiquement, de la dérivée de la position par rapport au temps. vraisemblable, vraisemblance: la notion de vraisemblance qualifie des assertions et non des choses. Une proposition ou énoncé est vraisemblable lorsque, sans qu’il soit possible de décider de façon certaine de sa vérité, certains signes permettent de présumer qu’elle est vrai. Toutefois, le vraisemblable n’est pas une forme affaiblie du vrai. Elle n’est pas non plus une valeur de vérité à côté du vrai et du faux. C’est là qu’elle se distingue du probable, même si l’usage a souvent tendance à confondre ces deux notions. Il convient, en effet, de distinguer vraisemblable de probable. La probabilité s’applique à une assertion qui, portant sur un événement aléatoire, n’est ni vraie ni fausse, sa réalisation ou non-
réalisation étant objectivement indéterminée. Le probable constitue en ce sens une sorte de valeur de vérité provisionnelle. Une assertion vraisemblable possède au contraire une valeur de vérité déterminée; elle est vraie ou fausse, mais cette vérité ou fausseté ne pouvant être clairement connue par celui qui l’examine, le jugement relatif à sa vérité doit être affecté d’un coefficient d’incertitude. Wahreit: en allemand, vérité.
INDEX AUTEURS Abélard, penseur français, 1079-1142. On considère Abélard comme le fondateur de la méthode scolastique. Parmi les divers aspects de son œuvre, on notera l’opposition au nominalisme de Roscelin. Particulièrement importante est son point de vue sur les universaux. Les universaux ne sont pas pour lui de simples voces; toutefois ce ne sont pas non plus des res. Pour lui l’universel est un nomen (un nom) significatif; d’où ses recherches sur la signification et son analyse logique de la prédication. Son œuvre principale est Sic et Non (1122). Pour élargir: E. Gilson, La philosophie au Moyen-âge, Payot, 1930. Adams John Couch, astronome britannique, 1819-1892. Parallèlement à Le Verrier, il entreprend de rechercher l’explication des irrégularités du mouvement de la planète Uranus, recherche qui le conduit à démontrer l’existence d’une planète plus lointaine, Neptune, inconnue jusqu’alors, et à en indiquer la position. Pour élargir: J.-P. Verdet, Une histoire de l’astronomie, Seuil, 1990. Adler Alfred, psychologue et psychiatre viennois, 1870-1937. Tout d’abord disciple fidèle de Freud s’éloignera de son maître en raison de divergences de conception. Adler critique notamment le rôle excessif
accordé par Freud àla sexualité ainsi que l’oubli par celui-ci du facteur social dans l’explication du comportement. Le but de Adler est la constitution d’une psychologie individuelle. On peut, d’après lui, rendre compte de la vie psychique de l’individu à partir du sentiment d’infériorité. Il s’agit pour lui du sentiment qui résulte de l’état de dépendance, dont chacun fait dans son enfance une expérience différente. Ce sentiment est compensé par une volonté de puissance qui pousse l’individu à se montrer supérieur aux autres. Adler explicite sa théorie du complexe d’infériorité pour expliquer un certain nombre de cas des psychopathies. Son œuvre principale est Praxis und Theorie des Individualpsychologie (1924). Alembert Jean le Rond d’, mathématicien et philosophe français, 17171738. On lui doit des recherches en mécanique rationnelle (voir mécanique des fluides), où il proposa une solution au problème des trois corps, et en hydrodynamique. On lui doit également des recherches dans le domaine des dérivées partielles pour résoudre le problème des cordes vibrantes. Il formula la notion de limite pour tenter de fonder le calcul infinitésimal, ainsi que le théorème qui porte son nom et qui affirme que tout polynôme à coefficients complexes possède au moins une racine complexe. Dans le domaine philosophique, il est, avec Diderot, à l’origine de L’Encyclopédie, pour laquelle il rédigea le Discours Préliminaire en 1751 et dont il dirigea la partie scientifique. Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF 1984. Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Alexander Samuel, philosophe britannique, 1859-1938 Caractéristique de sa philosophie est sa tentative d’édifier une métaphysique évolutionniste. Celle-ci se fonde dans l’idée que la substance primordiale est l’espace-temps substance ayant pour principale caractéristique le mouvement; celui-ci précède et engendre les choses matérielles (physiques, chimiques, physiologiques). Ce processus mène à la production d’entités de plus en plus complexes et finalement au monde spirituel, et au monde des valeurs dont le sommet est constitué par la divinité qui est à son tour en changement perpétuel et sans
caractéristiques fixes. La divinité est en faite le moment supérieur d’une marche continuelle de la réalité vers des formes qualitativement de plus en plus riches. Son œuvre principale est Espace, Temps et Déité (1920). Ampère André Marie, physicien français, 1755-1836. Créateur de l’électrodynamique, inventeur de l’électroaimant et du télégraphe électromagnétique. Son œuvre principale est Sur la théorie mathématique des phénomènes électrodynamiques uniquement déduite de l’expérience. Pour élargir: Jacques Merleau-Ponty, Leçons sur la genèse des théories physiques: Galilée, Ampère, Einstein, Vrin, 1974. Archimède, savant né à Syracuse, 287-212 av. J.-C. On lui doit de nombreuses découvertes dans le domaine des mathématiques et de la physique. La plus célèbre de celles-ci – le principe qui porte son nom – aurait été découverte alors qu’il essayait de déterminer, à la demande du roi Hiéron, s’il y avait eu fraude dans la fabrication de sa couronne, où il soupçonnait un mélange d’argent avec de l’or. La solution fut trouvée indirectement lorsqu’Archimède, dans son bain, s’étonna de la diminution du poids des corps lorsqu’ils sont plongés dans l’eau. La légende veut qu’il soit sorti de son bain en s’écriant Eurêka! (j’ai trouvé !). Il s’agissait de son fameux principe, selon lequel tout corps plongé dans un liquide subit une force dirigée vers le haut égale au poids du liquide déplacé. Il est l’auteur, entre autres, d’un Traité des corps flottants. Pour élargir: P. Souffrin, Trois études sur l’œuvre d’Archimède, in Cahiers d’histoire et de philosophie des sciences, CNRS, 1980. Aristarque de Samos, astronome grec, 310-220 av. J.-C. Propose pour la première fois une théorie du mouvement de la Terre autour de son axe et autour du soleil. Pour élargir: J.-P. Verdet, Une histoire de l’astronomie, Seuil, 1990. Aristote, philosophe grec, né à Stagire, 384-322 av. J.-C., fondateur du Lycée. La philosophie d’Aristote est avant tout une tentative de rétablir la primauté de l’individu (par opposition à la philosophie de son maître
Platon qui défendait, quant à lui, la primauté de l’universel), tout en affirmant l’idée qu’il n’y a de connaissance que du général. Ne reconnaissant à la dialectique de Platon qu’une valeur critique et non pas heuristique, Aristote cherche à établir un organon capable de montrer son efficacité dans la connaissance positive de la réalité; cet organon est la Logique. On doit à Aristote une théorie et une classification des catégories qu’il définit comme les genres les plus généraux de l’être (substance, quantité, qualité, relation, lieu, temps, position, possession, action et passion). On lui doit également des considérations sur la définition, qui consiste pour lui en la formulation du genre proche et de la différence spécifique. Par exemple, l’homme est un animal (genre) rationnel (différence spécifique). Sa théorie du syllogisme est particulièrement importante. La physique d’Aristote est marquée par le souci d’expliquer le monde réel dans ses transformations. À cette fin, il distingue trois principes: la matière, la forme et la privation. Contrairement à Platon, Aristote affirme que la nature est à la fois matière et forme: dans chaque chose, ce qui change est le matière, la forme étant le principe interne de ce changement. Aristote reconnaît un troisième élément: la privation, qui peut être comprise comme une sorte de déterminisme (le repos est la privation de mouvement). Connaître est avant tout, pour Aristote, connaître les causes. Il en reconnaît plusieurs formes: la cause matérielle (par exemple, dans une sculpture, la matière dont elle est faite), la cause formelle (dans notre exemple le modèle, ou l’idée que le sculpteur veut imprimer à la matière), la cause motrice (par exemple la main qui réalise la sculpture) et la cause finale (c’est-à-dire le but vers lequel les choses tendent). Le changement est expliqué également par Aristote d’après les notions d’ acte et de puissance. Le changement n’est pas la transformation de n’importe quoi en n’importe quoi d’autre, mais en quelque chose qui est déjà contenu en puissance dans ce qui change et qui s’actualise. Le système d’Aristote est couronné par sa métaphysique ou philosophie première qui est la science suprême, celle qui connaît les fins ultimes ou, ce qui revient au même, l’être en tant que tel qu’il nomme ousia, c’est-àdire la substance ou encore ce qui est absolument nécessaire: ce qui ne change pas, qui est immobile, mais qui cause le mouvement et qui trouve en soi-même sa raison d’être. Cette existence absolue n’est autre chose que Dieu, ou encore le Premier Moteur ou le Bien, c’est-à-dire ce à quoi tout tend. L’œuvre immense et encyclopédique d’Aristote comprend
également une éthique, une psychologie, une poétique et une rhétorique, ainsi que des travaux de cosmologie et de sciences naturelles. Œuvres principales: L’Organon (regroupant des travaux de logique), La Physique, La Métaphysique, Éthique à Eudème, Éthique à Nicomaque, etc. Pour élargir: Jean Brun, Aristote et le Lycée, PUF, 1961. Avenarius Richard, philosophe allemand, né à Paris, 1843-1896. Sa philosophie, qui reçoit le nom d’empiriocriticisme ou philosophie de l’expérience pure, se situe dans le cadre du courant plus général du positivisme scientifique. L’empiriocriticisme peut être défini à son tour comme une tentative critique pour épurer l’expérience de tout présupposé métaphysique. Ce qui conduit à la métaphysique est l’introjection, c’est à dire la projection dans le monde extérieur des éléments qui appartiennent aux représentations internes du sujet. Cet analyse critique s’appuie sur la dépendance des jugements du sujet par rapport aux variations de son système nerveux central, qui est luimême conditionné par les excitations du milieu physique et par les moyens de l’assimilation nutritive. La critique de l’expérience doit examiner les excitations constantes qui se produisent sur le système nerveux et qui interviennent par conséquence sur la constance des énoncé correspondants. Lorsque la constance est régulière disparaissent les frontières entre le sujet et l’objet, origine des représentations métaphysiques. La constance dans l’excitation est par ailleurs la conséquence naturelle de la tendance au moindre effort; la thèse de l’économie de la pensée, défendue également par Mach, joue un rôle important dans l’empiriocriticisme. Son œuvre la plus importante est la Kritik der reinen Erfahrung, (Critique de l’expérience pure), 1890. Ayer sir Alfred Jules, philosophe britannique, 1910-1989. Il adhère aux thèses capitales du positivisme logique, en particulier la théorie de la vérification, le critère de démarcation entre les énoncés logiques et empiriques, l’impossibilité de la métaphysique, la réduction de la philosophie à l’analyse du langage. Il procède également à un examen approfondi des données des sens qui aboutit à un phénoménisme.
Son œuvre principale est: Langage, vérité et logique (1936). Pour élargir on peut consulter cette même œuvre. Bacon Francis, philosophe anglais, 1561-1626. La philosophie de Bacon préfigure, malgré certaines insuffisances, une réflexion sur la science moderne. Les réflexions que Bacon consacre aux éléments faisant obstacle à une pleine conscience de la vérité (c’est-à-dire de la science) et constituant des préjugés ou barrières sont particulièrement importantes; ceux-ci reçoivent le nom d’idoles, et il en distingue plusieurs sortes: celles qui nous amènent à attribuer à la réalité plus d’ordre qu’elle n’en possède (idoles de la tribu), celles qui proviennent de chaque individu (idoles de la cave), de la capacité trompeuse du langage (idoles de la place du marché), des systèmes philosophiques et des dogmes (idoles du théâtre). La prise de conscience de ces préjugés associée à la pratique de l’induction rend possible la science. Si dans certains aspects la pensée de Bacon est d’une grande modernité (réflexions sur le langage), dans d’autres il semble ne pas avoir compris le fonctionnement de la science, en ignorant l’utilisation des hypothèses et en faisant une trop grande place à l’induction. Le Novum Organum (1620) est son œuvre essentielle. Pour élargir: A. Cresson, Francis Bacon, sa vie son œuvre, PUF, 1956. Baumgarten Alexander, philosophe allemand, 1714-1762. Ses recherches sont considérées comme ayant fondé l’esthétique en tant que discipline philosophique; l’esthétique est pour lui une partie de la théorie de la connaissance, qui s’occupe de la connaissance sensible. Œuvres principales: Meditationes philosophicae, Metaphysica, Aesthetica. Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. Beck Guido, physicien théorique allemand émigré au Brésil, Reichenbach, 1903- Rio de Janeiro,1988 Chercheur dans les domaines de la théorie quantique, de la théorie de la gravitation, de la physique atomique et de la physique nucléaire. Auteur du modèle des couches du noyau atomique, directeur de nombreuses thèses. Bergson Henri, philosophe français, 1859-1941.
Contre les interdits positivistes àl’égard de la métaphysique, Bergson revendique la possibilité d’accéder à la connaissance de la réalité en soi. L’organe de cette connaissance est l’expérience intérieure, ou intuition, capable de nous révéler une réalité qualitative et concrète fort différente de celle, abstraite et schématique, réductionniste et, tout compte fait, appauvrissante de la physique. Par opposition à cette insuffisance foncière de l’intelligence scientifique, l’intuition est capable de pénétrer dans les profondeurs du réel; il ne s’agit toutefois pas d’une intuition romantique, mais d’une intuition méthodologique, qui ne nie pas la science mais en limite la valeur, dans la mesure où elle n’atteint pas les vraies profondeurs que Bergson recherche, tout particulièrement en ce qui concerne le caractère essentiellement mouvant des choses. Le mouvement, la durée, la temporalité sont des réalités que la science ne peut que réduire et non pas atteindre dans leur plénitude. Car le temps que vise Bergson n’est pas le temps spatialisé de la physique mais le temps concret, c’est-àdire celui du psychisme et du vécu. La mémoire acquiert ainsi dans cette philosophie une dignité gnoséologique; elle devient l’organe de connaissance privilégiée de la temporalité, et elle constitue, avec l’intuition, l’une des sources de connaissance de l’évolution créatrice qui est le noyau de la temporalité. Le but dernier de l’intuition est de saisir l’élan vital que la science ne peut pas atteindre, seul susceptible d’expliquer la réalité dans ce qu’elle implique de mouvant et de vivant, et donc d’imprévisible. Cette métaphysique se complète par des réflexions de philosophie de la religion et par une éthique. Parmi ses nombreuses œuvres, on peut citer: Matière et mémoire (1896), Essai sur les données immédiates de la conscience (1889), L’évolution créatrice (1907), Les deux sources de la morale et de la religion (1932). Pour élargir: A. Cresson, Henri Bergson, sa vie, son œuvre, PUF, 1961. Berkeley George, philosophe irlandais, 1685-1753. L’aspect le plus connu de sa philosophie est l’idée que la perception est la base et la source de toute connaissance; cette philosophie possède la particularité de constituer un empirisme extrême qui rejoint son opposé, l’idéalisme, dans la mesure où la perception s’affirme comme le principe même de la réalité; ce qui n’est pas perçu, ne possède aucune forme de réalité: esse=percipi. On lui doit Théorie de la vision, (1708), Traité sur les principes de la connaissance humaine (1710), Dialogues entre Hylas et Philonaüs (1712).
Pour élargir: A.L. Leroy, George Berkeley, PUF, 1959. Bernard Claude, médecin et physiologiste français, 1813-1878. Parmi ses découvertes scientifiques, celle de la glycogenèse hépatique est particulièrement importante; on lui doit aussi la notion de milieu intérieur. Ses recherches scientifiques sont accompagnées, dans chaque cas, de précisions sur les procédés employés, jetant ainsi une lumière toute particulière sur la démarche scientifique; ces considérations sont à leur tour couronnées d’une réflexion sur la démarche de la science en général: la méthode expérimentale. Claude Bernard expose sa conception de la méthode dans l’Introduction à l’étude de la médecine expérimentale (1865). Pour élargir: Mirko Grmek, Claude Bernard et la méthode expérimentale, éd. Vigdor, 1996; A. Cresson, Claude Bernard, sa vie, son œuvre, PUF, 1960. Bernoulli Jacques, mathématicien suisse, 1654-1705. Il a si bien assimilé l’analyse infinitésimale de Leibniz qu’il l’a complétée, étudiant la fonction exponentielle et les spirales logarithmiques, publiant même la première solution de l’équation différentielle qui porte encore son nom. Il a aussi résolu divers problèmes, que l’on appellerait aujourd’hui d’optimisation, celui de la courbe de descente la plus rapide d’un objet pesant (brachystone) et celui de l’isopérimètre (courbe de longueur donnée enfermant la plus grande aire). Cependant son apport le plus original aux mathématiques fut son ouvrage Ars conjectandi (1713), qui ouvrit la voie au calcul des probabilités. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Berthelot Marcelin, chimiste et savant français, 1827-1907. Ses travaux combinent des recherches sur la chimie et des essais philosophiques. Sa pensée philosophique rejoint le positivisme: seuls les faits et leurs relations sont objets de connaissance. La morale, quant à elle, doit s’édifier sur les mêmes bases que la science positive; par cette idée, Berthelot aboutit à un évolutionnisme éthique. Ses œuvres philosophiques sont Science et Philosophie et Science et Morale. Pour élargir: J. Jacques, Berthelot, autopsie d’un mythe, Belin, 1987.
Bishop Erret, mathématicien américain, 1928-1983 Tenant du constructivisme, il se distinguait des constructivistes russes, attachés à la notion d’algorithme, et pour qui un objet n’a d’existence que s’il possède une définition récursive, par le fait que, pour lui, les objets mathématiques ont une existence objective; il se considérait comme un mathématicien et pas comme un philosophe et se sentait concerné par ce que l’on pouvait faire avec les mathématiques, plutôt que par ce que l’on pouvait dire sur leur contenu. Ceci lui conférait donc une position médiane dans les débats et eut comme conséquence qu’il eut peu de disciples. Cependant son ouvrage Fondations of Constructive Analysis (1967) permit de montrer qu’il peut exister une mathématique constructive suffisamment riche et fut suivi ces dernières années par A Course in Constructive Algebra (R. Mines, F. Richman, W. Ruitemburg), Springer-Verlag (1988), qui comptait poursuivre la même œuvre dans le domaine de l’algèbre. Boas Franz, anthropologue américain d’origine allemande, 1858- 1942. S’opposant à toute théorie généralisante et à l’idée même de l’existence de lois valables pour toutes les sociétés, il s’est appliqué à la description de sociétés particulières, en essayant de dégager, dans chaque cas, leurs structures propres et leurs spécificités. Ses ouvrages essentiels sont: The Mind of Primitive Man (1911), General Anthropology (trad. française en 1911). Pour élargir: J. Poirier, Histoire de l’ethnologie, PUF, 1969. Bôcher Maxime, mathématicien américain, 1867-1918. Auteur de nombreux articles portant notamment sur la théorie des équations différentielles. Bohm David, physicien américain, né en 1917. Il s’est essentiellement consacré à l’étude de la mécanique quantique, dont il a proposé une réinterprétation causale; pour schématiser grossièrement cette interprétation (Bohm tient à ce mot), on peut dire qu’il considère une onde quantique portant une sorte d’ “information potentielle”, information qui se réalise effectivement lorsqu’elle rencontre l’énergie de la particule. Cette interprétation fait aussi appel à la notion de “variables cachées” dont les valeurs agissent sur les phénomènes que nous observons.
Cet effort d’interprétation causale de la mécanique quantique a rejoint ceux que faisaient à la même époque de Broglie et d’autres physiciens ne se satisfaisant pas du caractère statistique de la physique moderne. Œuvre principale: Causality and chance in modern physics, préfacé par Louis de Broglie (1967). Pour élargir: Georges Lochak, Louis de Broglie, Flammarion, 1992. Bohr Niels, physicien danois, 1885-1962. On lui doit avant tout le modèle atomique qui porte son nom, l’atome de Bohr, qui rend compte des connaissances de son temps, avec les orbites stationnaires des électrons. Dans son laboratoire est née la théorie quantique et se sont formés les plus grands physiciens du début de ce siècle. On lui doit une tentative épistémologique, connue sous le nom d’ “interprétation de Copenhague”, d’établir un pont entre les points de vue classique et quantique, aussi bien dans les domaines où ces deux points de vue se trouvaient “en concurrence” que dans ceux où un seul des deux permettait une interprétation. Il participa aux États-Unis, où il s’était réfugié, à la fabrication des premières bombes A. Œuvres principales: La théorie atomique et la description des phénomènes (1934), Physique atomique et connaissance (1958). Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot, 1963. Bombelli Raffaele, mathématicien italien, 1526-1572. Auteur d’un Traité d’algèbre qui contribua à faire comprendre l’idée de nombres complexes, il eut aussi des contributions originales dans le domaine du calcul algébrique (par exemple, l’utilisation des fractions continues dans le calcul approché des racines d’une équation algébrique). Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Boole George, logicien et mathématicien britannique, 1815-1864. Depuis les développements de la logique par Aristote, la logique semblait, selon l’expression de Kant, “close et achevée”. On doit à Boole la sortie de cette discipline de sa stagnation de plusieurs siècles, ainsi qu’une nouvelle forme de logique. Cette révolution est due à l’idée, conçue par Boole, de connecter la logique aux mathématiques. La logique devient avec lui un calcul symbolique analogue au calcul algébrique. C’est
d’abord à la logique de classes que s’applique ce calcul, mais l’œuvre de Boole suggère déjà le calcul des propositions. L’invention de l’algèbre logique est fondamentale pour l’informatique, notamment pour la conception de nos ordinateurs actuels et celle des programmes qu’ils exécutent. Œuvres principales: L’Analyse mathématique de la logique (1847), Recherches sur les lois de la pensée (1854). Pour élargir: G. Casanova, L’algèbre de Boole, PUF, 1979. Borel Émile, mathématicien et homme politique français, 1871-1956. Il fit de nombreux travaux dans le domaine de la théorie des fonctions; auteur d’une collection de monographies sur la théorie des ensembles, il fit beaucoup pour faire comprendre la théorie des ensembles de Cantor. Enfin il utilisa la notion de mesure d’un ensemble pour donner une définition précise de la notion de probabilité. On peut citer parmi ses œuvres: Le Hasard (1914), L’Espace et le Temps (1922), Les Paradoxes de l’Infini (1946). Pour élargir: Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978; Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Born Max, physicien allemand, 1882-1970. Auteur de nombreux travaux en physique atomique, il a contribué à la mécanique quantique en proposant une “interprétation probabiliste”, suivant laquelle le carré du module de la fonction d’onde d’un quanton représente sa densité de probabilité de localisation. Il reçut le prix Nobel de physique en 1954 pour l’ensemble de ses travaux. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot, 1963. Bourbaki Nicolas, pseudonyme collectif pris par un groupe de jeunes mathématiciens français, anciens élèves de l’École Normale Supérieure. Le but de ce groupe est d’exposer la structure axiomatique des mathématiques dans les Éléments de mathématiques, publiés depuis 1939 et qui ont marqué la formation et la pensée des mathématiciens. Depuis 1948, le Séminaire Bourbaki réunit trois fois par an les mathématiciens à Paris pour y exposer les derniers résultats de cette discipline; une particularité intéressante: ce n’est jamais l’auteur qui expose ses travaux.
Brahe Tycho, astronome danois, 1546-1601. On doit à Tycho Brahe des recherches sur la Lune, et des observations très précises sur le mouvement de la planète Mars qui permirent à Kepler, son disciple, de découvrir les fameuses lois sur les mouvements des planètes. Paradoxalement, il refusa le système héliocentrique proposé par Copernic, se ralliant à la conception géocentrique. Pour élargir: J.-P. Verdet, Une histoire de l’astronomie, Seuil, 1990. Bridgman Percy Williams, physicien américain, 1882-1961. Prix Nobel de physique en 1946. Il était avant tout un savant doté d’une grande intuition physique et d’une imagination fertile. Ses premiers travaux portèrent sur les hautes pressions, pour lesquelles il conçut des équipements originaux, et les résultats de ses recherches furent très utiles pour le développement de l’étude de l’état solide. Il fut impressionné par la démonstration d’Einstein réfutant la conception de simultanéité absolue entre des événement se situant dans des lieux différents. Ayant remarqué que la preuve mettait en jeu des opérations de synchronisation d’horloges situées en des lieux différents, il arriva à la conclusion que les notions classiques de temps et d’espace étaient mal comprises, et qu’il fallait entreprendre un travail de critique du langage, proposant les opérations mentales et physiques comme mesure de la signification. Dans son œuvre Logic of Modern Physics (1927), il écrivait: “En général, nous entendons par concept une suite d’opérations; si une question spécifique a un sens, il doit être possible de trouver des opérations qui permettent d’y répondre”. Son point de vue philosophique a été rattaché au positivisme mais, comme on l’a vu, il avait sa source dans sa propre expérience et conserva toujours un caractère individuel; pour lui, l’analyse opérationnelle était avant tout un moyen d’avoir une pensée claire et non pas une solution à tous les problèmes de la physique, et surtout pas un dogme. Une autre de ses nombreuses œuvres fut The nature of some of our physical concepts (1952). Pour élargir: R. Blanché: La Méthode expérimentale et la philosophie de la physique, A. Colin, 1969. Broglie Louis, prince de, physicien français, 1892-1960. Il posa les fondements de la mécanique ondulatoire, travail pour lequel il reçut le Prix Nobel en 1929. Il s’opposa dans les années cinquante aux
interprétations probabilistes de la mécanique quantique, mais il ne fut guère suivi dans cette démarche. On lui doit un grand nombre d’ouvrages de physique théorique mais aussi quelques livres de vulgarisation: Ondes et corpuscules (1930), La Physique nouvelle et les quanta (1937), Matière et lumière (1937), Continu et discontinu (1941), Physique et microphysique (1947), Optique ondulatoire et corpusculaire (1950), Savants et découvertes (1951). Pour élargir: Louis de Broglie, Un itinéraire scientifique, La Découverte, 1987; Georges Lochak, Louis de Broglie, Flammarion, 1992. Brouwer Luitzen Egbertus Jan, mathématicien et logicien néerlandais, 1881-1966. Son activité essentielle en mathématiques se porta dans le domaine de la topologie. Opposé aux théories de Whitehead et de Russell, qui faisaient reposer les mathématiques sur la logique pure, il développa un courant intuitionniste en mathématiques, qui réduisait la logique à une simple méthode relevant des mathématiques, se développant avec elles et ne pouvant donc en être le fondement. Il a écrit notamment Mathématique, vérité, réalité (1919). Pour élargir: M. Combès, Fondements des mathématiques, PUF, 1971. Brown Robert, botaniste anglais, 1773-1858. Il découvre le mouvement qui porte son nom: mouvement désordonné des particules, de dimension inférieure à quelques microns, en suspension dans un liquide ou un gaz. Une explication quantitative de cette découverte fut donnée plus tard, notamment par Einstein. Parmi ses œuvres figurent: Prodromus florae Novae Hollandiae (1810), Remarques générales sur la géographie et le système botanique des terres australes (1814). Pour élargir: Encyclopédie internationale des sciences et des techniques, sous la direction scientifique de Pierre Auger, Mirko Grmek, et Michel Catin, Presses de la Cité, 1971. Buber Martin, philosophe israélien d’origine autrichienne, 1878- 1965. Sa philosophie est en étroite relation avec la religion; il s’interroge sur les formes de la foi et celles du rapport entre les hommes et le monde. Il distingue diverses formes de foi et diverses formes de rapports entre l’homme et le monde: le rapport sujet-objet et le rapport sujet-sujet, ces
rapports faisant intervenir des dimensions de l’homme fondamentalement différentes. Parmi ses œuvres: Le problème de l’homme (1942), Le Je et le Tu (1922), Les Chemins de l’Utopie (1949), Gog et Magog (1941). Pour élargir: Robert Misrahi, Martin Buber, philosophe de la relation, Seghers, 1968. Buffon Georges Louis Leclerc, comte de, naturaliste et écrivain français, 1707-1788. Il soutint l’idée que la connaissance de la nature doit s’appuyer très strictement sur des faits d’expérience et, sur cette base, il opta pour une description minutieuse de la nature, plutôt que pour une classification comme celle de Linné, qui lui sembla trop théorique. Se penchant sur le problème de la formation de la Terre, il arriva à des conclusions de type évolutionniste, au sens où cette formation serait le résultat d’un long processus. Il mit également en question la fixité de l’espèce humaine, préparant ainsi la voie de l’évolutionnisme. Son œuvre principale est L’Histoire Naturelle en 36 volumes, (17491804). Pour élargir: P. Flourens, Histoire des travaux et des idées de Buffon, éditions Aujourd’hui, 1975. Bunge, Mario, né à Buenos Aires, Argentine, en 1919 et réside depuis 1966 à Montréal. Docteur en sciences physiques, il a cultivé d’abord cette discipline avant de s’engager dans la philosophie, qu’il a enseignée dans différentes universités d’Amérique Latine et des États Unis. Il occupe actuellement la chaire Frothingham de Logique et Métaphysique à l’université McGill, à Montréal. Il est l’auteur de plus de 400 publications, sur des sujets de physique, mathématiques appliquées, sociologie de la science, épistémologie, sémantique, ontologie, axiologie, éthique, etc. Cantor Georg, mathématicien allemand, 1845-1918. Élève de Weierstrass, il considéra l’ensemble des réels comme la complétion de l’ensemble des rationnels, puis consacra une grande partie de son activité à étudier divers types d’ensembles infinis; par exemple, il s’intéressa à la comparaison de l’ensemble infini des rationnels (qu’il savait dénombrable) avec celui des réels et parvint (la preuve de Cantor) à
montrer que l’ensemble des réels n’est pas dénombrable, ouvrant la voie à un calcul des cardinaux infinis; de même, il montra qu’il existe une bijection entre l’ensemble des points d’un carré et l’ensemble des points d’un segment. Il était convaincu qu’il n’existait que deux types d’ensembles infinis, les ensembles dénombrables et ceux qui ont la puissance du continu, c’est-àdire sont en bijection avec R; ce qu’il traduisit par l’ “hypothèse du continu”. Plus tard, il fut montré que celle-ci est indépendante de la théorie des ensembles et ne peut donc être ni prouvée, ni infirmée dans ce cadre. Pour élargir: Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Cardan Jérôme, mathématicien et philosophe italien, 1501-1576. Après des études de médecine, il exerça cette activité qui lui valut une grande réputation: il ne fut pas rare qu’il soit amené à soigner des malades illustres; parallèlement, il enseigna les mathématiques et publia en 1539 la Practica arithmetica où il décrivit les idées qui, après la simplification de l’équation du troisième degré lui permirent de donner une méthode de résolution de celle-ci et, au passage, lui firent rencontrer (sans toutefois formaliser sa découverte) les nombres imaginaires. La résolution de l’équation fut l’occasion d’un conflit avec Tartaglia, avec qui Cardan partage la paternité de cette découverte. Il semblerait que le point de départ de cette découverte soit dû à Tartaglia mais que ce soit Cardan qui en ait fait un exposé systématique. La riche personnalité de Cardan comporte de nombreux autres aspects: par exemple un grand intérêt pour le jeu qui lui fit découvrir les notions de base des probabilités (malheureusement ses travaux se perdirent). Il pratiqua aussi l’astrologie. Dans le cadre de cette activité il conçut l’idée d’établir l’horoscope du Christ, ce qui lui valut l’accusation d’hérésie par l’inquisition (1570), suite à laquelle il se rétracta. Sur le plan philosophique, son œuvre, riche de nombreuses idées et centres d’intérêt, fourmille aussi d’allusions à des démons et au fakirisme. Pour élargir: On pourra consulter la traduction française de son autobiographie, Ma vie, Librairie ancienne Honoré Champion, 1935. Carnap Rudolph, philosophe américain d’origine allemande, 1891-1970.
Sa philosophie s’inscrit dans le courant néopositiviste. Sa préoccupation fondamentale est celle de la recherche d’un critère de démarcation entre les propositions scientifiques et les propositions métaphysiques. Ce critère réside dans la signification empirique: un énoncé est scientifique s’il peut être réduit à des propositions élémentaires exprimant des données empiriques. Tous les objets de connaissance scientifique peuvent être réduits par étapes successives aux simples objets du donné empirique. Carnap se donne comme but la construction d’un système unifié valable pour toute la science; ce système se présente sous la forme d’une hiérarchie de niveaux d’objets, les objets de chaque étape étant réductibles à ceux de l’étape inférieure. À la base de ce système, il y a les impressions perceptives élémentaires, exprimées dans des énoncés de base ou énoncés protocolaires. La philosophie de Carnap est également un physicalisme et une critique sévère de la métaphysique, qu’il ramène à une collection de confusions purement verbales, dues à l’indistinction entre le mode formel et le mode matériel du langage, indistinction étant à l’origine de (faux) problèmes métaphysiques. De sorte que le rôle de la philosophie se voit réduit à celui d’une analyse logique du langage (syntaxe), afin de déterminer cas par cas quelles propositions obéissent aux règles de cette syntaxe. Carnap rejoint la préoccupation probabiliste et élabore une théorie de la probabilité comme degré de confirmation. Parmi ses œuvres: La construction logique du monde (1928), Syntaxe logique du langage (1934), Fondements logiques de la Probabilité (1950). Pour élargir: voir Alfred Ayer, Langage, Vérité et Logique, Flammarion, 1956. Cassirer Ernst, philosophe allemand, né à Breslau, mort à New York, 1874-1945. Philosophe néokantien appartenant à l’école de Marbourg. Sa réflexion est centrée sur le problème de la connaissance sur la base des principes de la philosophie kantienne. Il s’intéresse particulièrement à la nature de la conceptualisation scientifique et au statut des lois scientifiques. Sa philosophie étend la critique de la raison à la critique de la culture, embrassant ainsi toutes les manifestations et activités de l’esprit humain. On doit à Cassirer une définition de l’homme comme animal symbolique et une interprétation de la culture comme produit de différentes formes de symbolisation de la réalité.
Parmi ses œuvres: Problèmes de la connaissance dans la philosophie de la science moderne (1906-1920), Concept de substance et concept de fonction (1910), Liberté et forme (1917), et surtout Philosophie des formes symboliques (1923-1929). Pour élargir: H. Dussort, L’école de Marbourg, Paris, PUF, 1963, Georges Gurvitch: Les tendances actuelles de la philosophie allemande, 1930. Cauchy Augustin-Louis, mathématicien français, 1789-1857. Décrit par Dieudonne (Pour l’honneur de l’esprit humain) comme le plus prolifique des mathématiciens après Euler, il a des publications dans tous les domaines des mathématiques pures et appliquées. C’est toutefois son œuvre d’analyste qui a été retenue; son Cours d’Analyse a introduit les notions fondamentales de l’analyse sous leur forme rigoureuse – limites, intégrale définie, convergence des séries – (voir note d’éditeur XVII ) et son exigence de rigueur dans l’étude de l’existence et de l’unicité éventuelle des solutions d’une équation différentielle a dicté la voie à cette partie des mathématiques. Mais on ne peut oublier qu’il a créé la théorie des fonctions complexes, définissant l’intégrale curviligne, introduisant le calcul des résidus ... Pour élargir: Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Comte Auguste, philosophe français, 1798-1857. Le but de sa philosophie est avant tout une réforme de la société; mais une telle réforme passe, selon lui, par trois facteurs: elle implique avant tout une connaissance philosophique de l’histoire, un fondement pour les sciences et une sociologie. La conception positiviste de la science est donc subordonnée dans le système de Comte à cette vocation pratique fondamentale. Son apport fondamental et révolutionnaire est toutefois le positivisme. Ses œuvres principales sont: Cours de Philosophie positive(1830), Discours sur l’esprit positif (1844). Pour élargir: H. Gouhier, La philosophie d’A. Comte, esquisses, Vrin, 1987; J. Lacroix, La sociologie d’A. Comte, PUF, 1973. Condillac Étienne Bonnot de, philosophe français, 1715-1780.
Contre le rationalisme de Descartes, Condillac radicalise les positions des empiristes, notamment de Locke. La source des idées et de toute connaissance réside exclusivement dans la sensation. Les opérations intellectuelles élevées ne sont que l’élaboration et la transformation de celles-ci. Le recours à l’image d’une statue sert à Condillac à illustrer et à montrer la formation des fonctions supérieures à partir de la sensation. Si l’on accorde à cette statue un minimum de sensations, on verra comment se développent les facultés supérieures. Condillac est le premier à avoir développé une philosophie analytique et placé la réflexion sur le langage au centre de ses préoccupations. Son œuvre la plus importante: Traité des sensations (1755). Pour élargir: R. Lefèvre, Condillac, Seghers, 1966. Copernic Nicolas, astronome polonais, 1473-1543. Àl’astronomie ancienne, géocentrique, représentée par le système de Ptolémée, Copernic oppose un système héliocentrique et une théorie du mouvement de la Terre, jusque là considérée comme immobile. Dans ce système, la Terre devient donc une planète comme les autres dont la rotation sur elle-même donne l’alternance des jours et des nuits. Ces découvertes marquent un tournant fondamental par rapport à la conception médiévale qui plaçait l’homme au centre de l’univers, lui conférant de ce fait une position hiérarchique privilégiée et unique. Son œuvre principale, De revolutionibus orbium caelestium, est publiée en 1543. Celle-ci peut être lue dans la traduction française de A. Koyré, Des révolutions des orbes célestes. Pour élargir: Arthur Koestler, Les Somnambules, Calman-Lévy, 1960; A. Koyré, La révolution astronomique, Hermann, 1974; Du Monde clos à l’univers infini, Gallimard, 1988; T. Kuhn, La Révolution copernicienne, Fayard, 1973. Couturat Louis, philosophe et mathématicien français, 1868-1914. Il développe, en opposition aux théories formalistes du nombre, sa thèse de l’infini actuel de quantité. Il présente l’infini actuel comme une nouvelle généralisation du nombre analogue à celle des fractions, des irrationnels et des imaginaires. Ces nombres, d’abord considérés comme un non-sens arithmétique, ont acquis une signification et prouvé leur utilité en permettant des opérations jusqu’ici impossibles. Ce qui caractérise l’œuvre de Couturat est l’intérêt qui y est porté aux travaux de
Leibniz, intérêt qui contribua au développement et au progrès de la logique. L’interprétation que Couturat fait de Leibniz met au centre de son œuvre la logique comme source de toutes les découvertes. On lui doit la constitution d’un langage universel (avec Léopold Léau) appelé Ido, qui reprend les principaux principes de l’espéranto et pour la propagation duquel Couturat fonde la revue Progreso. Ce projet se heurta toutefois à des obstacles qui le firent échouer, notamment l’opposition farouche des espérantistes, la guerre et finalement la mort de Couturat. Principales œuvres: L’algèbre de la logique (1905), De l’infini mathématique (thèse)(1896). Pour élargir: Louis Couturat De Leibnitz à Russell, Presses de l’école normale supérieure (1983). Cuvier Georges, baron, naturaliste français, 1769-1832. Il posa le principe selon lequel certains caractères s’appellent mutuellement, tandis que d’autres s’excluent nécessairement, d’où la loi de la corrélation des formes. C’est en appliquant ce principe qu’il put déterminer des espèces inconnues d’après quelques os brisés. Ses œuvres principales sont: Leçons d’anatomie comparée (1800-1805), Recherches sur les ossements fossiles (1812-1825). Pour élargir: P. Ardouin, Georges Cuvier, promoteur de l’idée évolutionniste et créateur de la biologie moderne, Expansion scientifique française, 1970. Dalton John, physicien et chimiste anglais 1766-1844. C’est le créateur de la théorie atomique moderne, c’est à dire celui qui, reprenant des idées des Anciens, leur a donné un fondement scientifique. Il pose le postulat suivant lequel les corps purs sont constitués d’atomes identiques, ce qui lui permet d’en déduire les propriétés physiques des gaz et la loi des proportions qui régit les combinaisons chimiques. Sa principale œuvre dans le domaine de la chimie est le New system of chemical philosophy, 1808-1810. Darwin Charles, naturaliste britannique, 1809-1882. Prenant pour base la loi de Malthus, d’après laquelle les populations augmentent selon une progression géométrique alors que les ressources ne s’accroissent que selon une progression arithmétique, Darwin conclut à une concurrence vitale qui élimine les individus les plus faibles:
sélection naturelle profitant aux sujets doués d’une supériorité individuelle. L’espèce entière, quant à elle, se transformera et progressera grâce à l’accumulation de variations favorables. S’il n’a pas été le premier à envisager le rôle des facteurs négatifs dans la sélection, c’est Darwin qui a montré avec le plus de vigueur son aspect positif. Les preuves les plus récentes à l’appui de la théorie de l’évolution (qui s’applique notamment à l’homme et qui fit scandale pour cela), proviennent surtout de la paléontologie – balbutiante au temps de Darwin – par la découverte de formes intermédiaires entre espèces vivantes et espèces fossiles. Son œuvre fondamentale est De l’origine des espèces par voie de sélection naturelle (1859). Pour élargir: J. F. Leroy, Charles Darwin, Seghers, 1966. Denis Buican, Darwin et le darwinisme, 1987. De Morgan Augustus, mathématicien et logicien britannique, 1806-1871. Il a contribué, comme son contemporain Boole, à l’interprétation algébrique de la logique. On doit aussi à De Morgan la notion d’univers du discours. Son œuvre fondamentale est Formal Logic or the Calculus of Inference (1847). Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. Dedekind Richard, mathématicien allemand, 1831-1916. On lui doit une description de l’ensemble des réels, au moyen de la théorie des coupures, où il voyait un moyen d’arithmétiser l’analyse, c’est-à-dire de lui donner des fondements aussi rigoureux que ceux de l’arithmétique. On lui doit aussi la définition des idéaux et des corps, qui permit d’étendre les démarches de l’arithmétique aux nouveaux ensembles de nombres qui apparaissaient avec le développement de l’algèbre. Ces définitions rigoureuses permirent de nombreux développements tant dans le domaine de l’algèbre pure que dans celui de la géométrie algébrique. Il eut une collaboration très riche avec Cantor. Pour élargir: Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Démocrite, philosophe grec, vers 460-370 av. J.-C.
Semble avoir écrit une œuvre considérable dont il ne reste que quelques fragments. Premier grand représentant de l’atomisme antique, c’est à dire de la philosophie qui considère que l’univers est composé d’atomes. Ce mot est pris dans son sens primaire: ce qui n’a pas des parties. Les atomes sont donc des éléments invisibles, insécables et éternels qui ne se différencient que par leur qualités géométriques (grandeur et forme) et se meuvent dans un vide éternel et infini. Le mouvement des atomes se combinant pour former des mondes en quantité illimitée est – contrairement à l’atomisme d’Épicure – dû au hasard, lequel engendre les tourbillons responsables de l’infinie complexité des choses. Démocrite développe en outre une théorie de la connaissance qui anticipe déjà la méfiance contre les sens. La sensation ne perçoit que des apparences ou simulacres, puisque la réalité dernière, qui est composée d’atomes et de vide, lui échappe. Le matérialisme philosophique se prolonge dans une éthique conçue comme la recherche du plaisir, quoique ce plaisir ne soit pas corporel mais spirituel. Pour élargir: Jean Brun, Les Présocratiques, PUF, 1973. Descartes René, philosophe et mathématicien français, 1596-1650. Intervenant après la longue période de la pensée scolastique, Descartes fonde le rationalisme moderne sur la base de l’idée que la source de nos connaissances ne réside pas dans une autorité extérieure à l’homme luimême, mais dans sa raison, guidée par une méthode adéquate selon des règles précises. Ces règles varient selon les œuvres, mais les plus connues sont les quatre règles du célèbre Discours de la méthode: I – règle de l’évidence (ne rien admettre que l’esprit ne perçoive pas comme évident); II – règle de l’analyse (diviser la difficulté en autant des parties que nécessaire); III – règle de la synthèse (effectuer le chemin inverse de l’analyse en commençant par les éléments les plus simples jusqu’aux plus complexes); IV – règle de l’énumération (effectuer des analyses et des synthèses autant de fois que nécessaire). Il s’agit donc de partir des évidences et d’aboutir à des évidences, celles-ci étant définies à leur tour par les notions de clarté et de distinction. Les idées qui possèdent ces caractéristiques sont les natures simples et elles sont perçues par intuition directe de l’esprit. Sur le plan métaphysique, cette conception de la connaissance se fonde sur la recherche d’une première évidence fondatrice, d’une vérité qui assure la véracité de tout le reste, car tout, science comme réalité, peut être le résultat d’une erreur de notre perception. La mathématique n’échappe pas à cette mise en doute. À
travers l’hypothèse du malin génie, Descartes démontre que rien ne résiste au doute. Rien n’empêche de concevoir l’existence d’un malin génie tout-puissant dont le but serait de nous tromper dans tous nos jugements. Or le doute, qui sert à Descartes pour mettre l’univers entier entre parenthèses, est précisément l’élément qui lui permet de le reconstruire: car si tout est sujet à doute, la seule chose dont je ne puisse pas douter est, justement, du fait que je doute. Ceci lui permet de tirer une première évidence: je ne pourrais pas douter si je n’avais pas à mon tour une existence; je pense donc je suis. Cogito ergo sum est donc la première évidence et le noyau irréductible de son système. Descartes aspira à sortir le plus vite possible du monde de la conscience, afin de trouver ce qui garantit l’existence de la réalité toute entière; ceci ne peut se faire qu’en démontrant l’existence d’un Dieu qui fonde en même temps la réalité et notre connaissance de cette réalité. Descartes fournit trois preuves de l’existence de Dieu, dont la plus connue est la preuve appelée ontologique, basée sur l’idée d’infinitude; je ne pourrais pas, affirme Descartes, concevoir l’idée d’infini, si cet infini, Dieu même ne l’avait pas mis en moi. Ceci prouve non seulement que Dieu existe, mais qu’il concourt avec l’homme pour qu’il puisse connaître, lorsqu’il la perçoit, la réalité extérieure, c’est-à-dire la substance corporelle. La reconstruction opérée par Descartes aboutit donc à un dualisme: matière et esprit, dont la conciliation posa énormément de problèmes à son auteur car, en effet, comment les substances communiquent-elles chez l’homme et pourquoi y a-t-il une harmonisation entre elles? La solution de ce problème constitue la psychologie de Descartes, mais aussi le début d’une métaphysique qui devait ensuite trouver des prolongements chez des penseurs comme Spinoza et Leibniz. Œuvres principales: Le Discours de la Méthode (1637), les Méditations métaphysiques (1641), Les Passions de l’âme (1649), Règles pour la direction de l’esprit (1628), Principes de philosophie (1644). Pour élargir: O. Hamelin, Le système de Descartes, éditions Vigdor, G. Rodis-Lewis, Descartes et le rationalisme, PUF, 1966. Diderot Denis, écrivain, philosophe et savant français, 1713-1784. Il consacre l’essentiel de son activité à l’Encyclopédie qu’il dirige à partir de 1745. Parallèlement il mène une activité foisonnante dans les plus divers aspects du savoir. Sa pensée philosophique privilégie la recherche expérimentale et affirme l’importance des sciences de la vie et des
mathématiques. Sous le plan éthique il s’oppose à l’ascétisme et aux visions pessimistes de la nature humaine. Ses œuvres principales: Lettres sur les aveugles à l’usage de ceux qui voient (1749); De l’interprétation de la nature (1753); Le Rêve de d’Alembert (1769). Pour élargir: A. Cresson, Diderot, PUF, 1948; P. Mesnard, Le cas Diderot, PUF, 1952. Diesel Rudolf, ingénieur allemand, 1858-1913. Auteur d’un mémoire intitulé Théorie et construction d’un moteur thermique rationnel, destiné à supplanter la machine à vapeur et les autres machines à feu connues aujourd’hui. Ses idées sont appliquées par des industries comme Krupp. Le moteur à combustion interne qui porte son nom voit le jour en 1897. Le succès immédiat est dû à des facteurs tels que la possibilité pour ces moteurs d’utiliser des huiles de pétrole, la réduction de l’encombrement, l’absence de fumée... Dieudonné Jean, mathématicien français, 1906-1991. Sa riche activité en fit “le dernier mathématicien à avoir su embrasser la totalité des mathématiques de son temps” (Jean-Luc Verley); on ne donnera donc qu’un aperçu incomplet des domaines où il apporta des contributions imporantes: l’étude des fonctions analytiques, la théorie des espaces vectoriels topologiques, l’algèbre et la géométrie algébrique... Il contribua au développement des mathématiques en France en participant à la création du groupe Bourbaki. Il eut aussi une grande activité d’enseignement et publia de nombreux ouvrages d’enseignement universitaire. S’exprimant sur les fondements des mathématiques il écrivit “il était sans doute nécessaire qu’à la suite de Cantor la mathématique s’engageât dans cette ligne ouverte par la découverte de l’infini, pour tirer au clair ce que recelait cette notion si controversée. Mais on peut bien dire que, pour la solution des grands problèmes mathématiques, les résultats de cette exploration ont été plutôt décevants et que le “paradis de Cantor”““ où Hilbert croyait entrer n’était au fond qu’un paradis artificiel; dans un autre ordre d’idées il revendiquait pour les mathématiques “la possibilité de développer des notions purement abstraites...sans correspondance nécessaire avec la réalité expérimentale”.
Pour élargir: on peut avoir une idée de l’essentiel de son œuvre en consultant son Choix d’œuvres Mathématiques, Hermann, Paris 1981, dans Panorama des Mathématiques pures, le choix bourbachique (Gauthier-Villars, Paris, 1978); on y trouvera son évaluation de l’état de sa discipline; pour saisir sa vision générale des mathématiques on peut consulter l’ouvrage qu’il a publié en 1987, Pour l’honneur de l’esprit humain, Hachette, 1987. Dilthey Wilhelm, philosophe et historien allemand, 1833-1911 Le caractère fragmentaire de son œuvre rend difficile sa systématisation. Sa pensée représente une tentative de dépassement aussi bien de la métaphysique que du positivisme régnant; ce dépassement s’accomplit par l’abandon de la recherche des causes pour expliquer la réalité humaine; la spécificité du comportement humain ne peut être saisie, selon lui, que par une “méthode compréhensive”, c’est-à-dire par l’interprétation plus que par l’explication; l’intuition est la faculté au moyen de laquelle opère cette forme de connaissance. On lui doit également la notion de Weltanschauung: chaque système révèle une vision ou conception du monde propre à son auteur. Ses œuvres principales sont l’ Introduction à l’étude des sciences humaines (1833) et Le Monde de l’esprit (1926). Pour élargir: R. Aron, La philosophie critique de l’histoire, Vrin, 1950. Durkheim Émile, sociologue français, 1858-1917 Dans le but de mettre la sociologie sur une voie strictement positive, il s’oppose à toute tentative de conduire la recherche sociologique par des voies déductives àpartir de principes universels comme ceux établis par Auguste Comte dans sa loi des trois états. Le but de la sociologie est aussi la recherche de lois, mais de lois résultant très strictement de l’observation des faits. La fidélité aux faits n’exclut pas la reconnaissance de la spécificité du social, qui ne peut pas s’expliquer comme un simple ajout d’individualités, mais qui possède des normes propres différant d’une société à l’autre. Le but de la sociologie est, entre autres, de chercher l’origine historique de ces normes. Durkheim fonde en quelque sorte la sociologie scientifique par sa reconnaissance de la spécificité du fait social, par opposition à sa réduction psychologiste ou autre.
Ses œuvres principales sont: Les Règles de la méthode sociologique (1895), Le Suicide (1897), Les Formes élémentaires de la vie religieuse (1912), Sociologie et philosophie (1924). Pour élargir: J. Duvignaud, Durkheim, PUF, 1965; R. Aron, Les étapes de la pensée sociologique, Gallimard, 1967. Edison Thomas Alva, inventeur américain, 1847-1931 On lui doit entre autres l’invention du télégraphe duplex, permettant de faire passer simultanément sur le même fil deux dépêches en sens inverse, et plus tard les télégraphes quintuples et sextuples, l’accumulateur alcalin au fer-nickel, la lampe diode et, la plus connue, le phonographe, en 1877. Il déposa plus d’un millier de brevets résultant d’inventions collectives faites avec son équipe. Pour élargir: P. Devaux, Les aventuriers de la science, Magnard, 1947. Ehrenfest Paul, physicien autrichien établi aux Pays-Bas, 1880-1933. Il a été un grand physicien théorique, complétant les travaux de Boltzmann (1844-1906) dans le domaine de la mécanique statistique. Il mit au point l’urne qui porte son nom, modèle qu’il utilisa pour étudier des phénomènes réversibles comme ceux issus des collisions moléculaires. Il étendit d’autre part la théorie des “radiations du corps noir” de Planck, confirmant de manière rigoureuse l’hypothèse de ce dernier selon laquelle l’énergie considérée dans le cas d’un système isolé ne pouvait varier continuellement, et représentait donc ce qu’en mathématiques on appelle une variable discrète. Il influença Einstein, Bohr et des savants encore jeunes comme Fermi et Oppenheimer. Il se suicida en 1933. Pour élargir: Michel Biezunski, Histoire de la physique moderne, La Découverte, 1993. Einstein Albert, physicien américain d’origine allemande, 1879-1955. Modeste employé à l’Office des brevets de Berne (Suisse), il se fit connaître par la publication à l’âge de 26 ans de cinq mémoires, dont l’un établissait l’existence du photon, et dont le plus célèbre exposait la théorie de la relativité restreinte, révisant, entre autres, les notions d’espace et de temps. La communauté scientifique n’accepta pas immédiatement ses théories et lorsqu’il reçut, en 1921, le prix Nobel de physique, ce fut pour sa
contribution à l’étude de l’effet photoélectrique et non pour la théorie de la relativité (qui s’était enrichie entre-temps de la théorie de la relativité généralisée en 1916). Il fut indirectement à l’origine de la théorie quantique de de Broglie et d’Heisenberg, mais cette théorie, qu’il accepta sur le plan physique, lui posa des problèmes philosophiques, car elle remettait en cause sa vision déterministe; il s’exprima à ce sujet dans un échange de lettres avec Born resté célèbre. Contraint de quitter l’Europe par l’avènement du nazisme, il s’installa à l’université de Princeton, aux États-Unis, où il continua ses travaux. Outre ses activités scientifiques, il participa à la vie politique de son époque, notamment la lutte contre le nazisme; il milita pour le désarmement nucléaire ainsi que pour la création de l’État d’Israël. Pour élargir: Michel Paty, Einstein philosophe, PUF, 1993; Jacques Merleau-Ponty, Einstein, Flammarion, 1993; L. Barnett, Einstein et l’univers, Gallimard 1962. Engels Friederich, théoricien et militant socialiste allemand, 1820-1895. Il fonde avec Marx la Première Internationale en 1864 et collabore étroitement avec celui-ci dans des recherches théoriques, contenues notamment dans Le Capital. Il énonce avant Marx la loi de la concurrence, et établit une théorie matérialiste de la connaissance. Œuvres dont il est le seul auteur: L’Anti-Dühring (1876), L’origine de la famille, de la propriété privée et de l’état (1884). Pour élargir: A. Cornu, K. Marx et F. Engels, leur vie et leur œuvre, PUF, 1955. Épicure, philosophe grec, 341-270 av. J.-C. Sa philosophie est centrée sur une préoccupation éthique, le désir d’atteindre l’ataraxie (mot introduit par Démocrite) ou tranquillité de l’âme ou sagesse, en combattant la crainte, la superstition et la préoccupation (notamment d’ordre politique). Le sage supprime tous les obstacles qui s’opposent au bonheur et cultive tout ce qui contribue à son épanouissement, notamment l’amitié. Il ne s’agit donc pas d’un état d’absence totale de sentiments, mais seulement de ceux que l’on peut éviter. On trouve dans ce but une classification des besoins selon leur degré de nécessité, destinée à nous apprendre à les maîtriser de telle sorte
qu’ils nous procurent satisfaction et non pas souffrance. Outre l’éthique, la philosophie d’Épicure contient une canonique ou théorie de la connaissance, et une physique ou doctrine de la nature. La physique d’Épicure prolonge celle de Démocrite: l’élément dernier de la nature est constitué par les atomes, insécables et immuables, évoluant dans le vide et donnant naissance à tous les êtres. Mais contrairement à Démocrite qui affirme que l’action des atomes est due au hasard, Épicure soutient l’idée d’une déclinaison ou clinamem grâce à laquelle, lorsqu’ils tombent dans le vide, ils peuvent s’associer selon leurs affinités pour former les corps. Cette notion, absente chez Démocrite, permettra en outre à Épicure d’inscrire le libre arbitre dans l’âme humaine. La Canonique établit les critères (canons) de vérité. La première évidence et point de départ de toute connaissance est la sensation. La deuxième évidence est l’anticipation: en se répétant, la sensation s’imprime dans la mémoire et permet de reconnaître les objets. La troisième est l’affection: le plaisir et la douleur nous renseignent sur ce qu’il convient de rechercher ou de fuir. Ses idées sont exprimées dans les Doctrines et Maximes. Pour élargir: Jean Brun, L’épicurisme, PUF, 1971. Euclide, mathématicien grec, IIIe siècle av. J.-C. Son œuvre Éléments de géométrie constitue une synthèse de la géométrie classique grecque à laquelle il donna une forme axiomatique. Cette géométrie fut longtemps considérée comme la seule possible jusqu’à ce que divers efforts au XVIIIe siècle montrent le contraire. On lui doit aussi également des travaux arithmétiques, en particulier sur les nombres premiers, les nombres rationnels et les nombres irrationnels. Voir également géométries euclidienne et non euclidiennes. Pour élargir: Aram Frenkian, Le postulat chez Euclide et chez les modernes, Vrin, 1940; Jean Itard, Les livres arithmétiques d’Euclide, Hermann, 1962. Euler Leonhard, mathématicien suisse, 1707-1783. Un des premiers artisans du développement de l’analyse telle que nous la connaissons; il fait de la fonction le concept fondamental sur lequel s’échafaude toute la construction mathématique, et transforme ainsi le calcul différentiel et intégral en une théorie formelle des fonctions qui se
libère de ses attaches au point de vue géométrique. Il applique son approche des fonctions à la résolution des équations différentielles linéaires qu’il rencontra dans des problèmes d’élasticité. Ses œuvres principales sont Les institutions du calcul différentiel (1755) et Les institutions du calcul intégral (1768-1770). Pour élargir: A. Dahan-Dalmedico et J. Pfeiffer, Une histoire des mathématiques, routes et dédales, Seuil, 1986. Faraday Michael, chimiste et physicien anglais, 1791-1867. En chimie, il découvrit le benzène et inventa un appareil permettant la liquéfaction des gaz. En physique, ses recherches contribuèrent au développement des connaissances dans les domaines liés à l’électricité: il découvrit l’action d’un aimant sur un courant électrique, puis compléta ses travaux dans le domaine de l’électromagnétisme (voir ondes électromagnétiques) par la découverte de l’induction électromagnétique qui transforme l’énergie mécanique en énergie électrique. Il établit aussi les lois de l’électrolyse et, dans le domaine de l’électrostatique, découvrit le phénomène de la “cage de Faraday”, où un conducteur creux fait écran à l’action électrostatique, ce qui lui permit d’étudier la localisation des charges électriques. Ses travaux ouvrirent la voie aux théories électromagnétiques de Maxwell. Pour élargir: H. Hirtz, Faraday, Gauthier-Villard, 1969. Fermat Pierre de, mathématicien français, 1601-1665. De sa profession il était juge (Capitoul à Toulouse), mais il consacra l’essentiel de son activité à des recherches mathématiques, défrichant le domaine de la géométrie analytique dans le cadre de problèmes de lieux géométriques, ainsi que les prémisses du calcul différentiel, dans ses recherches sur les extrema des fonctions réelles. On lui doit aussi l’énoncé du fameux théorème qui porte son nom; ce théorème concerne l’existence de triplets (x, y, z) de nombres entiers non nuls tels que xn +yn=zn; le théorème de Pythagore assure l’existence de tels triplets dans le cas où n=2; Fermat qui s’intéressa à la question annonçât que pour des exposants entiers plus grands que 2, il ne pouvait exister de solution. La légende rapporte que Fermat avait noté sa remarque dans la marge d’un livre, sans y ajouter de démonstration, “par manque de place”.
Les recherches sur ce problème permirent au fil des ans d’immenses progrès en algèbre et dans certains domaines de la géométrie mais il fallut attendre 1993 pour que le théorème de Fermat soit enfin démontré par le mathématicien anglais Andrew Wyles. Précisons qu’au cours des quatre siècles et demi de recherche sur le problème il y eut bien entendu de nombreux résultats partiels (concernant tels ou tels exposants) et d’innombrables démonstrations fausses qui submergèrent régulièrement les autorités scientifiques. Les œuvres de Fermat ont été ressemblés après sa mort par son fils Samuel et publiées sous le titre “Opera mathematica”(1679). Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Fermi Enrico, physicien né en Italie, qui émigra aux États-Unis à la veille de la seconde guerre mondiale, 1901-1954. Il fut l’un des plus grands physiciens de notre siècle; il découvrit le principe de la radioactivité, il développa la théorie et la technique des neutrons lents et reçut le Prix Nobel en 1938. Pendant la seconde guerre mondiale il fut l’un des moteurs du projet Manhattan, destiné à mettre au point une arme nucléaire américaine. Après la guerre il fut l’un des initiateurs de la physique des particules. Parmi ses œuvres: Introduzione alla fisica atomica (1928), Nuclear physics (1950), Elementary particuls (1951). Pour élargir: Michel Biezunski, Histoire de la physique moderne, La Découverte, 1993. Feyerabend Paul, philosophe et épistémologue autrichien établi aux États Unis, 1924-1994. Sa philosophie constitue une tentative de démontrer que la science est une entreprise n’obéissant à aucune des règles décrites par les épistémologues (spécialement celles de Popper). Une interprétation particulière des travaux de Galilée sert à Feyerabend pour démontrer que celui-ci oppose un démenti à tous les principes méthodologiques traditionnels. La philosophie de Feyerabend aboutit à un anarchisme épistémologique qui s’exprime dans la consigne anything goes; celle-ci signifiant non seulement que tous les procédés existants et imaginables sont valables pour la construction des théories, mais encore que dans la mesure où nous
ne possédons pas un critère absolu pour séparer le bon du mauvais, tout (science, fantaisie, affirmation gratuite) se vaut. Bunge critique l’anarchisme épistémologique dans son Treatise of Basic Philosophy, 1983, tomes V et VI, et dans La nouvelle sociologie de la science (A critical examination of the new sociology of science in “Philosophy of the social sciences” vol XXI, n°4 dec. 1991 et vol XXII, n°1 Mars 1992). Ses œuvres principales sont: Contre la Méthode (1975), Adieu la Raison (1987). Pour élargir: Alan Chalmers, Qu’est-ce que la science? Récents développements en philosophie des sciences, La Découverte, 1987. Feynman Richard, physicien américain, 1918-1988 Il reçut le Prix Nobel en 1965 pour ses travaux dans le domaine de l’électrodynamique quantique, qui étudie les phénomènes liés à l’émission et à l’absorption de la lumière par les atomes et aux interactions de celle-ci avec les particules fondamentales. L’une des difficultés rencontrées dans cette étude était de type mathématique, car l’équation fondamentale, dite de Dirac, faisait apparaître des quantités infinies, dues à la possibilité d’interaction “à l’infini” du champ électromagnétique causé par le mouvement d’un électron avec son champ propre. Il surmonta cette difficulté par une renormalisation des paramètres qui écarta cet écueil. Les “diagrammes de Feynman” qui l’aidèrent à suivre les interactions, fournirent un outil de valeur à ce domaine. Il est l’auteur d’un manuel de physique célèbre, fondé sur ses cours à Caltech (institut de technologie de Californie, Pasadena), ce manuel est traduit en français, Inter Éditions, Paris, 1979. Pour élargir: Michel Biezunski, Histoire de la physique moderne, La Découverte, 1993. Frege Gottlob, logicien et mathématicien allemand, 1848-1925. On peut lui attribuer le développement d’une nouvelle logique, qui se distingue de la logique traditionnelle. Pour les différencier, nous pouvons dire que cette dernière s’attache à la forme grammaticale des propositions. Ainsi, deux propositions comme “Socrate est mortel” et “Tous les hommes sont mortels”, qui sont identiques pour la logique traditionnelle,
diffèrent pour Frege, du fait que la première constitue une proposition moléculaire, alors que la deuxième est une conjonction de propositions. Cette démarche ouvre la voie au calcul propositionnel auquel collabora également Boole. On doit également à Frege l’introduction des notions de fonction propositionnelle, de quantification et de quantificateur. Parmi ses œuvres: Les fondements de l’arithmétique (1884). Pour élargir: Philippe de Rouilhan, Frege, les paradoxes de la représentation, Éditions de Minuit, 1988. Freud Sigmund, médecin autrichien, 1856-1939. Après ses études de médecine, il s’orienta vers la neurologie et la psychiatrie; ses premières recherches portèrent sur l’hystérie et l’hypnose. Les réactions des malades sous hypnose mirent Freud sur la voie de sa découverte fondamentale: l’existence d’une dimension inconsciente qui détermine notre comportement conscient. Freud s’aperçut rapidement que l’on peut remplacer l’hypnose par des techniques de questionnement, de libre association et, plus tard, d’interprétation des rêves. Tous ces éléments sont synthétisés dans sa contribution fondamentale: la psychanalyse. Parmi ses œuvres les plus importantes figurent Études sur l’hystérie (1895), La science des rêves (1899), Psychopathologie de la vie quotidienne (1905), Totem et Tabou (1913), Moïse et le monothéisme (1934). Pour élargir: Roland Jaccard, Freud, PUF, 1983. Galilée (Galileo Galilei), astronome et physicien italien, 1564-1642. Sans doute le premier grand expérimentateur et, en conséquence, fondateur de la science expérimentale. Il fonde la science moderne en ajoutant à l’expérimentation l’introduction des mathématiques pour expliquer les lois physiques. Il remplace ainsi dans l’étude des phénomènes de la nature l’élément qualitatif de la physique aristotélicienne par l’élément quantitatif, au sujet notamment du problème de la chute des corps. Si sa mathématisation est encore sommaire, il formule par contre l’un des grand principes qui allaient permettre l’avènement de la science moderne, à savoir que la réalité est de nature mathématique. Il donne des bases scientifiques au système de Copernic, ce qui lui vaut une comparution devant le tribunal de l’Inquisition. Obligé
d’abjurer à genoux sa doctrine, il est condamné, puis autorisé à quitter la ville. Ses œuvres principales sont Sidereus Nuncius (Le Messager Céleste) (1610), Il Saggiatore (1623), Discorsi e dimostrazioni matematiche intorno a due nuove scienze (1638). Pour élargir: A. Koestler, Les Somnambules, Calmann-Lévy, 1960; J.-P. Verdet, Une histoire de l’astronomie, Seuil, 1990; M. Clavelin, La philosophie naturelle de Galilée, A. Colin, 1968; G. Gusdorff, Les siennes humaines et la pensée occidentale, t. III, La révolution galiléenne, Payot, 1969; L. Geymonat, Galilée, Laffont, 1968. Gauss Carl Friedrich, mathématicien allemand, 1777-1855. Fils d’un modeste charpentier, il fut encouragé dans les études par son curé, puis soutenu par le duc de Brunswick. Sa thèse de doctorat fut une démonstration du théorème fondamental de l’algèbre, suivant lequel tout polynôme complexe de degré supérieur ou égal à 1 possède au moins une racine complexe; ses travaux portèrent sur de nombreux domaines de l’algèbre (formes quadratiques, équations algébriques...) et de l’arithmétique (sommes de quatre carrés...). Il se consacra aussi à des recherches géométriques, ouvrant la voie de l’étude intrinsèque des surfaces (propriétés indépendantes de leur “plongement” dans un espace ambiant), il eut l’intuition de la nondémontrabilité du fameux cinquième postulat d’Euclide, intuition qui se traduisit plus tard par la naissance des géométries non euclidiennes. Il mit à profit son esprit géométrique dans ses fonctions de directeur de l’observatoire de Göttingen et consacra la fin de sa vie à la physique et à l’étude du magnétisme dont il donna une théorie mathématique. Pour élargir: L’œuvre Mathématique de C.F. Gauss, par J. Dieudonné éditions du Palais de la Découverte, 1962. Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Gentzen Gerhard, logicien allemand, 1909-1945. Disciple de Weyl et de Hilbert, on lui doit notamment un théorème de méthodologie du calcul des quantificateurs (verschärfter Hauptsatz) (voir quantificateurs), un système non axiomatique de logique, qui introduit des
systèmes de déduction naturelle et une démonstration de consistance pour l’arithmétique qui fait appel à l’induction transfinie. Ses écrits ont été réunis sous le titre The Collected Papers of Gerhard Gentzen (1969). Gödel Kurt, logicien américain, d’origine autrichienne, 1906-1978. Ses travaux ont porté sur les fondements logiques de mathématiques; dans le cadre de sa thèse il a établi le théorème de complétude de la théorie des prédicats (voir quantificateurs); mais il est surtout connu pour son théorème d’incomplétude. Il a aussi étudié l’axiome du choix et l’hypothèse du continu, montrant que si on les ajoutait à la théorie des ensembles (à la fois ou séparément) la théorie ainsi obtenue restait consistante; ce qui ruinait définitivement tout espoir de montrer leur fausseté. Ces derniers travaux furent parachevés par P. J. Cohen qui établit en 1963 la non-décidabilité de ces deux axiomes, dans le cadre de la théorie des ensembles: donc on ne peut ni les démontrer, ni démontrer leur négation. Pour élargir: R. Smullyan, Les théorèmes d’incomplétude de Gödel, Masson, 1993. Goodman Nelson, philosophe américain né en 1906. L’œuvre de Goodman porte sur la théorie de la connaissance qu’il traite dans une perspective particulière, en mettant à contribution la logique contemporaine. Sa philosophie constitue la forme la plus représentative du nominalisme contemporain. De façon générale le nominalisme affirme la seule existence des individus et refuse les entités abstraites. Toutefois il est le plus souvent impossible de pouvoir déterminer par où passe la frontière entre le concret et l’abstrait. Au lieu donc de s’interroger sur la nature des entités, Goodman conçoit l’idée de porter le regard sur la structure du discours qui en parle; autrement dit il propose de remplacer l’approche sémantique par l’approche syntaxique. Son œuvre principale est Faits, fonctions et prédictions (1955). Pour élargir: L. Vax, L’empirisme logique, PUF, 1970. Gurvitch Georges, sociologue français, 1894-1965. Ce qui caractérise sa sociologie est le pluralisme, c’est-à-dire l’idée qu’il est nécessaire d’introduire des différenciations très précises au sein de la
réalité sociale. Gurvitch propose diverses classifications, extrêmement complexes, dont l’efficacité fut contestée par d’autres sociologues. Parmi ses œuvres importantes: Morale théorique et science des mœurs (1948), Traité de sociologie (1968-1960), Dialectique et sociologie (1962), La vocation actuelle de la sociologie (1963), Les cadres sociaux de la connaissance (1966). Pour élargir: Georges Balandier, Gurvitch, sa vie, sonœuvre, PUF, 1972. Hadamard Jacques, mathématicien français, 1865-1963. Il a établi en 1896 le théorème qui porte son nom (et conjointement celui du mathématicien belge De La Vallée Poussin), suivant lequel la proportion des nombres premiers inférieurs ou égaux à un entier n est une grandeur équivalente à l’inverse du logarithme népérien de n; au delà de l’arithmétique sa rechercher a porté sur les fonctions analytiques – fonctions que l’on peut décrire comme des sommes de séries – (voir note d’éditeur XVII ), les équations différentielles et d’autres domaines de l’analyse. Il est aussi connu pour sa riche activité de professeur, tant au Collège de France qu’à l’école Polytechnique, qui se traduisit par la rédaction de nombreux ouvrages, comme ses Leçons de Géométrie (récemment rééditées). On peut lire ses Leçons de Géométrie élémentaire, éditions Gabay (réédition), La psychologie de la découverte mathématique (1945). Pour élargir: Paul Lévy, Sholem Mandelbrot, Bernard Malgrange, Paul Malliavin, La vie et l’œuvre de J. Hadamard in L’enseignement mathématique, monographie n°9, 1993. Hahn Otto, physicien et chimiste allemand, 1879-1968. On lui doit la théorie de la fission de l’uranium (avec Strassman), ce qui lui valut le prix Nobel de Chimie en 1944. A mené son activité en Allemagne, puis dans divers pays occidentaux; pendant la seconde guerre mondiale, il s’est rendu aux États-Unis où il a travaillé, puis il est retourné en Allemagne après 1945. Hartmann Nicolaï, philosophe allemand, 1882-1950. Élève de P. Natorp et H. Cohen, deux grands noms de l’école de Marbourg à laquelle se rattache également Cassirer. Sous l’influence de la phénoménologie, il s’éloigna des principes de cette école. On peut
reconnaître dans sa pensés trois étapes: a) phénoménologie de la connaissance, répondant à une volonté plus descriptive que systématique de mise en lumière des rapports entre les deux termes de la connaissance, sujet et objet; b) aporétique, mettant en lumière des difficultés gnoséologiques qui peuvent éventuellement se résoudre sous un regard phénoménologique; c) métaphysique de la connaissance: ce moment représente en quelque sorte la position propre de Hartmann et une mise en relief de l’existence d’éléments ontologiques dans toute théorie de la connaissance. Son œuvre principale est Grundzüge einer Metaphysik der Erkenntnis, 1921. Hegel Georg Wilhelm Friedrich, philosophe allemand, 1770-1831. La philosophie de Hegel représente un idéalisme absolu dans la mesure où, pour lui, l’Esprit et le Réel coïncident, de sorte qu’il donne le nom d’Idée à la Réalité dans sa plénitude: tout ce qui est réel est rationnel, tout ce qui est rationnel est réel. Mais cette coïncidence est un processus historique, dans lequel la conscience accède à des niveaux de plus en plus élevés de certitude et de connaissance, chaque étape niant partiellement la précédente selon une démarche dialectique (qui n’est pas logique mais ontologique, dans la mesure où elle définit la réalité même dans sa réalisation concrète). La science, le droit, la religion, l’éthique, l’art et la philosophie représentent de vastes moments de l’objectivation progressive de l’Esprit ou de l’Idée. Ses œuvres principales sont Phénoménologie de l’Esprit (1807), Science de la Logique (1812-1816), La Raison dans l’Histoire (posthume). Pour élargir: Jacques d’Hondt, Hegel et l’ hégélianisme, PUF, 1991.A. Kojève, Introduction à la lecture de Hegel, Gallimard, 1947. Heidegger Martin, philosophe allemand, 1889-1976. Influencé par la phénoménologie de Husserl, son maître à qui il succéda à l’université de Fribourg, Heidegger explore sous un angle nouveau la question métaphysique par excellence, à savoir la question de l’Être. Le point de départ de sa réflexion est constitué par la différence entre l’être et l’étant; parmi la diversité d’étants il y en a un qui jouit d’un statut particulier: celui qui est le seul à avoir un rapport de pensée avec l’être, autrement dit l’homme en tant que pouvant interpréter l’être à travers la parole et dont la spécificité est exprimée dans un néologisme: le Dasein.
La connaissance du Dasein est ainsi la tâche de base de la métaphysique; cette connaissance peut être atteinte par une analytique descriptive, phénoménologique, seule apte à mettre en évidence ces caractéristiques dont voici quelques-unes: l’existence (seul l’homme existe à proprement parler parce qu’il est le seul à être interpellé par l’être); le projet; l’êtredans-le-monde, à la fois comme limitation et comme condition de possibilité; l’être-avec; la gratuité de son existence; l’angoisse comme sentiment de cette gratuité et, par là, comme sentiment non pas psychologique mais ontologique, en tant que prise de conscience de sa spécificité; la temporalité, etc. La philosophie de Heidegger et sa profonde capacité d’analyse contrastent avec l’acceptation acritique du régime nazi, auquel il prêta son soutien dans divers discours et articles. Son œuvre principale est L’être et le temps, 1927. D’autres œuvres importantes sont Chemins qui ne mènent nulle part (1950), Introduction à la métaphysique (1953), Qu’est-ce que la philosophie? (1956). Pour élargir: Alain Boutot, Heidegger, PUF 1991. Waelhens, La philosophie de Martin Heidegger, Nauwaelaerts, Louvain, 1942. Heisenberg Werner Karl, physicien allemand, 1901-1976. Prix Nobel de physique en 1932. Un des fondateurs de la théorie quantique, auteur du fameux principe d’incertitude établissant que le produit de la variation de la quantité de mouvement par la variation de la position d’une particule donnée est toujours supérieur ou égal à une grandeur donnée (déterminée par la constante dite de Planck); on ne peut donc à la fois connaître avec précision la position d’une telle particule et sa quantité de mouvement; au contraire, plus on connaît l’une avec précision, plus imprécise est la connaissance de l’autre. Sur le plan philosophique, affirmant que seules les quantités observables sont susceptibles d’une description théorique, il aboutit à la conclusion que les notions de position et de vitesse d’un objet ne peuvent être transposées telles quelles au niveau microscopique. Ses travaux ont eu un rôle fondamental dans l’étude des phénomènes quantiques. Outre ses travaux scientifiques, il est l’auteur d’ouvrages de réflexion: Les principes physiques de la théorie des quanta (1930), La nature de la
physique contemporaine (1955), La Physique du noyau atomique (1943), Physique et Philosophie (1959), La Partie et le Tout (1969). Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot, 1963. Hempel Carl Gustav, philosophe allemand, né en 1905. Ses préoccupations rejoignent celles des membres du Cercle de Vienne, surtout en ce qui concerne l’examen de l’induction, et celui de la confirmation et des hypothèses. Une autre de ses préoccupations réside dans la formation des concepts dans la science, et dans la distinction entre concepts classificatoires, comparatifs et quantitatifs. Dans un autre registre, il explore la nature des lois de l’histoire, nature qui ne serait pas fondamentalement différente de celle des lois physiques. On citera son ouvrage Éléments d’Épistémologie, A. Colin, 1972, que l’on peut consulter également pour élargir. Hermite Charles, mathématicien français, 1822-1901. Ses travaux portent surtout sur l’algèbre, la théorie des nombres et l’analyse. On lui doit de très nombreux résultats sur la théorie des invariants et sur les fonctions elliptiques et abéliennes; il est le fondateur de la théorie arithmétique des formes quadratiques à un nombre quelconque de variables, d’où la notion d’espaces hermitiens. L’épithète hermitien se rapporte d’abord aux espaces du même nom, c’est-à-dire des espaces définis sur le corps des complexes et où on peut définir une géométrie analogue à celle des espaces euclidiens, c’est-à-dire des notions de longueur et d’angle, etc. On appelle opérateur hermitien une fonction définie sur un tel espace et qui y conserve justement les longueurs. Ses recherches sont rassemblées dans ses Œuvres. Pour élargir: Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Hérodote, historien grec, 484-420 av. J.-C. Il est considéré comme le père de l’histoire (comme savoir) ou comme le premier historien; ses Histoires demeurent la principale source d’information sur son époque. Pour élargir: Introduction et présentation par J. de Romilly, dans Hérodote, Œuvres complètes, Gallimard, 1989.
Heyting Arend, logicien néerlandais, 1898-1980. Il est à l’origine d’une logique intuitionniste, qu’il a axiomatisée et d’ouvrages sur les fondements (intuitionnistes) des mathématiques. Au début de son œuvre il considérait les formules logiques comme des “intentions de construction” (par exemple l’assertion “p” et l’assertion “p a été prouvée” n’avaient pas pour lui la même signification), puis son point de vue évolua et il considéra les formules logiques comme des assertions sur les constructions; à ses yeux la logique intuitionniste est une logique de la connaissance. Dans le domaine des mathématiques elles-mêmes, sa position intuitionniste évolua vers un certain relativisme. Ainsi, à la suite de critiques il envisagea divers niveaux de complexité dans les constructions mathématiques, partant des assertions sur des nombres petits (2 + 4 =4 + 2) jusqu’aux notions de nombres ordinaux, aux quantificateurs... À la suite de la fameuse thèse de Church sur les fonctions récursives, il consacra plusieurs articles aux liens et aux différences entre l’intuitionnisme et l’idée sous-jacente à la théorie des fonctions récursives. Il se distingua de Brower sur la question de l’axiomatisation des mathématiques, opposant le caractère descriptif de la méthode axiomatique, qu’il considère comme légitime, et son aspect “fonctionnel”, c’est-à-dire d’outil, qui permet d’affirmer l’existence d’objets, que l’intuitionniste considère comme non assurée. Son œuvre la plus importante est Les fondements des Mathématiques (1955). Pour élargir: F. Gonseth, Philosophie scientifiques et industrielles, 1939.
mathématique,
actualités
Hilbert David, mathématicien allemand, 1862-1943. Hilbert fut un des plus grands mathématiciens de son époque; ses contributions dans le domaine des invariants algébriques et des fondements de la géométrie (on lui doit une présentation axiomatique de la géométrie euclidienne) ont encore des prolongements actuellement. Lors du Congrès de Heidelberg (1904), il entreprit de proposer un programme contenant à la fois une liste de problèmes que les mathématiciens devraient résoudre (on parle encore, par exemple, du problème n° 90 de Hilbert) et une démarche de formalisation des mathématiques destinée à en assurer la consistance; la démonstration du
théorème de Gödel montra que son projet était irréalisable sur le plan métamathématique, mais il inspira cependant la démarche formaliste, qui se retrouva notamment dans les travaux de Bourbaki. Ses œuvres principales furent Zahlbericht(1897), Fondements de la géométrie(1899), Grundlagen der Mathematik (1934-1939) (avec Bernays). Pour élargir: A. Dahan-Dalmedico et J. Pfeiffer, Une histoire des mathématiques, routes et dédales, Seuil, 1986. Hobbes Thomas, philosophe britannique, 1588-1679. La pensée de Hobbes a deux versants: scientifique et politique, étroitement liés entre eux. À la base de son système nous trouvons une conception mécaniciste et empiriste de la réalité et une conception empiriste de la connaissance, qui n’exclut toutefois pas la reconnaissance de la rationalité pure. Sa conception politique est fondée sur l’idée anthropologique de l’homme comme motivé par ses instincts et ses passions et guidé par une férocité que seule la société peut canaliser ( “l’homme est un loup pour l’homme”). Son œuvre principale est le Léviathan (1651). Pour élargir: F. Malherbe, Thomas Hobbes, Vrin, 1984; P. F. Moreau, Hobbes, philosophie, science, religion, PUF, 1989. Holton Gerald, philosophe américain d’origine allemande né en 1922. Ses travaux portent sur la philosophie de la physique et sur l’histoire et la sociologie des sciences. En tant que philosophe des sciences, il s’attache à la recherche des fondements souvent inconscients qui déterminent les différentes prises de position et qui créent les différences entre écoles; il donne à ceux-ci le nom de thêmata. Ainsi, les théories de Bohr, Born et Heisenberg sont-elles fondées sur des présupposés ontologiques (thèmes du discret) différents de ceux d’Einstein (thèmes du discontinu). Simplicité-complexité, analyse-synthèse, constance-évolutionchangement catastrophique, sont d’autres thêmata. Une analyse historique montre leur rôle méconnu et inconscient à la base des créations scientifiques. Ces éléments thématiques n’apparaissent pas dans les débats scientifiques. Ils apparaissent souvent dans des documents accessoires, généralement sans intérêt scientifique direct. Holton s’attache à l’étude de ces documents pour un certains nombre de savants dont Kepler, Newton, Poincaré, Einstein, Bohr, Heisenberg.
Ses œuvres principales sont: L’imagination scientifique, L’invention scientifique – thêmata et interprétation. Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF 1984. Homère, poète grec; il aurait vécu autour du IXe siècle av. J.-C. On connaît mal sa vie. Réputé aveugle, il se déplaçait de pays en pays en récitant ses poèmes; on lui attribue la composition de L’Iliade et L’Odyssée, la première évoquant le héros Achille dans le cadre du siège de Troie par les Grecs, la deuxième racontant l’épopée d’Ulysse. Pour élargir: Ph. Van Tieghen, Dictionnaire des littératures, PUF, 1984. Hume David, philosophe, historien et économiste écossais, 1711- 1776. Sa philosophie représente l’une des versions les plus achevées de l’empirisme. Pour lui, toutes les perceptions de l’esprit se ramènent à deux genres: les impressions et les idées. Seules les impressions sont originales, les idées ne sont que des associations de sensations. Hume dénonce les fictions illégitimes qui, dépassant l’expérience, nous font croire à l’existence d’entités illusoires; c’est le cas notamment de la notion de causalité. Il s’agit d’une fiction résultant d’une habitude confortée par la répétition de certaines observations. Son œuvre principale est le Traité de la nature humaine (1739-1740). Pour élargir: M. Malherbe, La philosophie empiriste de D. Hume, Vrin, 1976; A. Cresson et G. Deleuze, David Hume, sa vie, son œuvre, PUF, 1952. Husserl Edmund, philosophe et logicien allemand, 1869-1938. Il se penche d’abord sur des problèmes de philosophie des mathématiques et de logique. Mais sa principale contribution est la phénoménologie. Parmi ses œuvres on peut citer: Philosophie de l’arithmétique (1891), Recherches logiques (1900-1901), Méditations cartésiennes (1931), Idées directrices pour une phénoménologie (1913). Pour élargir: J.-F. Lyotard, La phénoménologie, PUF, 1982. Huygens Christian, mathématicien et astronome hollandais, 1629-1695. Il compose, sous le titre De ratiociniis in ludo alae (1656), le premier traité complet sur le calcul des probabilités. Dans le domaine de la géométrie, on lui doit l’étude de certaines courbes désormais classiques
(cissoïde, chaînette, etc.), ainsi qu’un certain nombre de calculs de courbure; dans ce même domaine, on lui doit les notions de développées et développantes. Il perfectionna la lunette astronomique, découvrant ainsi l’anneau de Saturne et son satellite Titan. Son œuvre principale reste la théorie du pendule, base de l’étude des systèmes matériels, pour laquelle il élabora la notion de moment d’inertie et découvrit la conservation de la quantité de mouvement. Il développa une théorie ondulatoire de la lumière, mais celle-ci resta imparfaite car il ne put concevoir l’existence de vibrations transversales. James William, philosophe américain, 1842-1910. Il fut l’un des principaux fondateurs du pragmatisme, qui avait déjà été défendu par Peirce et auquel il donna un sens plus général. La vérité se définit pour lui en fonction de l’action, et le critère en est l’efficacité dans l’action. Ses œuvres principales furent: Principes de la psychologie (1890), Les Variétés de l’expérience religieuse (1902), Le Pragmatisme (1907). Pour élargir: E. Boutroux, William James, éd. Vigdor. Jaspers Karl, médecin, psychologue et philosophe allemand, 1883- 1969. Sa production est très abondante et porte sur des domaines très variés. On compte parmi ses centres d’intérêt: la psychopathologie, la psychologie des conceptions du monde, la philosophie, la logique philosophique, ainsi que la philosophie de la religion, la philosophie sociale et politique et des études sur Max Weber, Nietszche, Descartes, Schelling, Nicolas de Cues, Léonard de Vinci, Kant, Goethe, Kierkegaard, Marx, Freud, etc. Il est l’auteur de très nombreux écrits. On pourraconsulter son Autobiographie philosophique, Aubier, Paris, 1963. Joliot Jean-Frédéric, physicien français, 1900-1958. A effectué de nombreuses recherches sur la structure de l’atome et découvert en 1934 la radioactivité naturelle, en soumettant des atomes à des bombardement de particules alpha; ces travaux lui valurent le prix Nobel de chimie en 1935. En 1937 il fit construire au Collège de France le premier cyclotron européen et entreprit la réalisation effective d’une pile atomique à uranium en 1939. Pendant et après la guerre il ajouta à son activité
scientifique un engagement politique qui lui valut de se retrouver président du Conseil mondial de la Paix. Il fut le premier haut-commissaire à l’énergie atomique, dirigea la construction de la première pile atomique française et l’installation du centre de recherches nucléaires de Saclay. Jung Carl Gustav, psychiatre et théoricien de la psychologie suisse, 18751961. Fondateur de la Société psychanalytique internationale (1910). Disciple de Freud, Jung critique, comme Adler, la démarche réductionniste de Freud qui conduit à rendre compte de la complexité de l’activité psychique par le seul élément sexuel. Jung admet le rôle de la libido dans le comportement mais donne à ce concept une signification différente de celle de Freud. Il s’agit pour Jung de l’expression psychique d’une énergie vitale dont l’orientation permettrait de distinguer deux types psychologiques fondamentaux: extraverti et introverti. Jung s’oppose également à son maître sur l’explication des névroses comme venant exclusivement des troubles de l’enfance. La dimension sociale de la théorie de Jung le sépare également de Freud. Jung est amené en effet à reconnaître un inconscient collectif dont les manifestations se trouvent dans la mythologie, le folklore et les œuvres d’art. Un élément propre au système de Jung est la notion d’une psychologie des profondeurs, tendant à rechercher les éléments par lesquels les individus rejoignent l’espèce. Parmi ses œuvres: Types psychologiques (1921); Dialectique du moi et de l’inconscient (1928); L’Homme à la Découverte de son Âme (1943); Psychologie et Alchimie (1944). Pour élargir: Christian Gaillard, Jung, PUF, 1975. Kant Emmanuel, philosophe allemand, 1724-1804. On doit à Kant la définition de la philosophie comme discipline portant sur les questions suivantes: que puis-je savoir? que dois-je faire? que m’est-il permis d’espérer? qu’est-ce que l’homme? La contribution de Kant au problème de la connaissance est particulièrement importante; la théorie qu’il élabora à ce sujet reçut le nom de criticisme ou idéalisme transcendantal. Celui-ci remonte du problème de la connaissance à celui des conditions de possibilité de toute connaissance. Il prend comme point de départ l’analyse des énoncés et il en distingue deux sortes principales: a) les énoncés analytiques a priori (le triangle a trois angles), où le
prédicat est contenu dans le sujet; ces jugements sont vrais mais vides (ils n’ajoutent pas une connaissance) et b) les énoncés synthétiques a posteriori (il pleut); ceux-ci ne sont pas vides et leur validité dépend de l’expérience sensible. Or, la science, pour Kant, est constituée par des énoncés ayant des particularités mixtes: ils sont à la fois synthétiques (parce qu’ils ne sont pas vides) mais aussi nécessaires comme les énoncés analytiques. La science est constituée d’énoncés du type “la chaleur dilate les métaux”, ou bien “la ligne la plus courte entre deux points est le ligne droite” dans lesquels il y a des éléments a priori et des éléments a posteriori. Dans aucun d’eux le prédicat n’est contenu dans le sujet et tous les deux expriment des vérités nécessaires et universelles. Toute connaissance, qu’elle soit mathématique ou empirique, est déterminée par des éléments constitutifs de la conscience; dans les mathématiques, ces éléments sont l’espace et le temps. Ceux-ci ne sont pas des concepts; la conscience ne les saisit pas en scrutant la réalité; au contraire toute perception de la réalité présuppose l’espace et le temps, car tout ce que nous appréhendons, nous l’appréhendons comme situé dans l’espace ou évoluant dans le temps. L’espace est la forme pure de l’intuition pour les choses externes; le temps est la forme du sens interne. Ils sont en outre, respectivement, les conditions de possibilité de la géométrie et de l’arithmétique. La connaissance empirique, de son côté, présuppose outre l’espace et le temps, des formes pures spécifiques que Kant nomme les formes pures de l’entendement; il s’agit de catégories telles que la substance ou la causalité; celles-ci ne sont pas des réalités extérieures à nous, mais font partie de notre structure cognitive (transcendantale). Lorsque nous percevons un objet, nous appliquons à celui-ci la catégorie de substance ou d’unité; nous ne tirons pas de l’expérience le fait qu’il s’agit d’une chose indépendante et que cette chose a une cause; l’idée d’unité et celle de causalité précèdent la perception que nous avons des choses. Cette perception est donc le résultat d’une réalité extérieure qui nous est inaccessible ou noumène, qui recouvre des catégories pures. Ce résultat, c’est-à-dire ce que nous percevons, est le phénomène, c’est-à-dire l’objet en soi ou noumène recouvert des formes pures de l’intuition (espace et temps) et des catégories (de quantité, de qualité, de relation et de modalité). Kant traite de ces questions dans La Critique de la Raison Pure. La partie qui traite de l’espace et du temps porte le nom d’Esthétique Transcendantale. On voit que le mot esthétique possède ici comme sens
non pas celui de recherche portant sur la beauté mais celui de quête sur la sensibilité. Les énoncés de la physique sont traités dans le chapitre de la Critique qui porte le nom d’Analytique transcendantale. La question de la légitimité des énoncés de la métaphysique est traitée dans la Dialectique Transcendantale. Au sujet des mathématiques et de la physique, Kant se demande comment elles sont possibles, mais en ce qui concerne la métaphysique, il se demande si elle est possible. Dans un premier temps, la réponse de Kant est négative: la métaphysique représente le travail de la raison en totale indépendance de l’expérience et dans ce sens elle est une pure spéculation sans objet. Toutefois, lorsqu’il s’agit de la sphère pratique ou de la moralité, elle se réinsère en quelque sorte dans le réel en tant que telle et elle a alors, dans ce domaine, une valeur de connaissance. Ses œuvres principales sont La Critique de la Raison Pure (1781), La Critique de la Raison pratique (1788), Critique de la faculté de juger (1790). Pour élargir: Jean Lacroix, Kant et le kantisme, PUF, 1977; A. Kojève, Kant, Gallimard, 1973. Kekulé von Stradonitz August, chimiste allemand, 1829-1896. On lui doit l’idée d’employer des formules développées en chimie organique, et la théorie de la tétravalence du carbone, Il établit l’hypothèse des liaisons multiples du carbone et distingue entre: composés à chaîne ouverte et composés cycliques. En 1865, il propose la formule hexagonale du benzène. On lui doit en outre la préparation classique du phénol ainsi que diverses synthèses organiques. Kepler Johannes, astronome allemand, 1571-1630. Partisan convaincu du système héliocentrique, il se consacra à l’étude de la planète Mars en utilisant les résultats des observations de son maître Tycho Brae; il découvrit que cette planète parcourt une orbite elliptique et non pas circulaire. À la suite de cette découverte, il énonce les lois qui le rendirent célèbre. Il s’agit de lois expérimentales relatives au mouvement des planètes autour du Soleil. Elles sont au nombre de trois: 1° chaque planète décrit dans le sens direct une ellipse dont le Soleil occupe un des foyers; 2° les aires parcourues par le rayon vecteur allant du centre de la planète au centre du Soleil sont proportionnelles au temps employé à les parcourir;
3° les carrés des temps des révolutions sidérales des planètes sont proportionnels aux cubes des grands axes de leurs orbites. Ses œuvres principales sont Astronomia nova (1609), Harmonices Mundi (1619), Tables rudolphines (1627), Tables sur les positions planétaires. Pour élargir: A. Koestler, Les Somnambules, Calmann-Lévy, 1960; A. Koyré, La révolution astronomique, Hermann, 1961. Keynes John Maynard, économiste britannique, 1883-1946. Son œuvre est l’une de celles qui ont le plus marqué la pensée économique du XXe siècle. Ses premiers travaux ont eu pour but d’élucider le problème des dépressions économiques. Son originalité réside dans la tentative d’expliquer certains phénomènes par des données irrationnelles (psychologiques), telles que l’optimisme ou le pessimisme. Ses théories ont joué un grand rôle dans les politiques de relance de l’économie à la suite de la crise des années trente comme le New Deal de Roosevelt. Parmi ses œuvres importantes, on trouve la Théorie générale de l’emploi, de l’intérêt et de la monnaie (1936). Pour élargir: R. L. Heilbroner, Les grands économistes, Seuil, 1970. Klein Felix, mathématicien allemand, 1849-1925. On lui doit l’introduction de l’idée de groupe dans la compréhension de la géométrie: les diverses géométries sont avant tout l’étude des propriétés conservées par différents groupes de transformations; il a aussi mené des recherches dans le domaine des fonctions de la variable complexe. Il a aussi investi de grands efforts dans la modernisation de l’enseignement des mathématiques en Allemagne, ce qui se traduisit par la publication de son ouvrage Mathématiques élémentaires d’un point de vue avancé. Koestler Arthur, écrivain britannique d’origine hongroise, 1905-1983. Son œuvre est très diverse, allant de la critique politique à des considérations sur la science; dans de nombreux ouvrages, il a dénoncé le système stalinien et ses conséquences en Europe. Il entreprit en même temps une suite d’études où il dénonça certains dévoiements de la science. Parmi ses œuvres à contenu politique, on citera Le Yogi et le Commissaire (1945) et Le Zéro et l’Infini (1940); parmi ses essais
scientifiques on peut citer Les Somnambules (1959), L’acte de création (1964), Le Spectre dans la machine (1967) et Janus (1978). Köhler Wolfgang, psychologue allemand, 1887-1967. On lui doit avec Wertheimer et Koffka les lois fondamentales de la Gestalttheorie. Brillant expérimentateur, il a effectué également d’importants travaux dans le domaine de la psychologie animale. Œuvres: L’intelligence des singes supérieurs (1917), Problèmes psychologiques (1933), Psychologie de la Gestalt (1938). Kolmogoroff Andrej, mathématicien Russe, 1903-1987. Àla suite des travaux d’Émile Borel, qui permit d’introduire dans le calcul des probabilités les notions d’ensembles et de mesure, il donna à la théorie des probabilités un fondement axiomatique, répondant ainsi au sixième problème de Hilbert. Il est à noter que la période de l’entre-deux guerres mondiales fut l’occasion de sérieux progrès dans la théorie des probabilités. On lira ses idées dans Foundations of the theory of probability, Chelsea, 1956. Koyré Alexandre, épistémologue et philosophe français d’origine russe, 1882-1964. Sa pensée est articulée selon l’idée que philosophie, science et religion constituent trois modes de la pensée historiquement imbriqués; comme conséquence de ce principe, Koyré a notamment établi que les travaux de Galilée et de Descartes signifiaient, au delà d’un simple progrès de la connaissance, un changement de perspective sur l’homme et le monde: on passait ainsi de la notion d’un cosmos hiérarchisé de régions distinctes à celle d’un univers infini et homogène dans lequel la science, au sens moderne, pourrait se déployer. Ses œuvres principales sont Études galiléennes (1940), Du monde clos à l’univers infini (1957). Kronecker Leopold, mathématicien allemand, 1823-1891. Opposé aux idées de Cantor, Dedekind et Weierstrass il n’adhérait pas au projet d’arithmétisation de l’analyse, accordant un statut supérieur à l’arithmétique, qu’il décrivait comme “divine”. On lui doit des travaux en algèbre, où il établit des résultats de caractère effectif; on citera également sa théorie des systèmes d’équations linéaires.
Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Kuhn Thomas, philosophe américain, 1922-1996. Sa philosophie représente un éclairage de la science qui, partant de l’idée que celle-ci avance par révolutions, analyse la structure de ces révolutions. Lorsqu’une nouvelle théorie s’impose, elle constitue un paradigme autour duquel s’accomplit le travail scientifique routinier ou normal, suivi par des moments d’ anomalie et de crise qui annoncent l’avènement d’une révolution, c’est-à-dire d’une nouvelle théorie qui renversera les idées établies et se constituera à son tour en paradigme. Son œuvre la plus importante est La structure des révolutions scientifiques (1962). Pour élargir: Alan Chalmers, Qu’est-ce que la science? Récents développements en philosophie des sciences, La Découverte, 1982. Lamarck Jean Baptiste de Monet, chevalier de, naturaliste français, 17441829. Auteur de la théorie du transformisme selon laquelle les modifications du milieu provoquent des modification des besoins chez les animaux; de ce fait, certains organes se développent, d’autres s’atrophient. Le lamarckisme se résume en deux règles: 1) règle de l’usage et du nonusage: la naissance ou le développement d’un besoin entraînent le développement d’un organe, et le manque de besoin ou la non utilisation de celui-ci finissent par l’atrophier; 2) règle de l’hérédité des caractères acquis; les caractères acquis par l’influence du milieu se transmettent génétiquement. Ces deux postulats ont été objet de critique: la réaction de l’organisme aux changement du milieu n’est pas toujours une réaction utile ou adaptée. Quant à l’hérédité des caractères acquis, cette hypothèse s’avéra impossible à confirmer expérimentalement. Son œuvre fondamentale est Philosophie zoologique (1809). Pour élargir: B. Mantoy, Lamarck, Seghers, 1968. Laplace Pierre Simon, marquis de, astronome, mathématicien et physicien français, 1749- 1827. On lui doit la célèbre hypothèse selon laquelle le système solaire serait issu d’une nébuleuse dont le noyau aurait été formé de matière fortement
condensée et à très haute température, cet ensemble tournant autour d’un axe de révolution passant par son centre. Le refroidissement des couches extérieures et le mouvement de rotation auraient causé l’apparition d’anneaux successifs, ayant par la suite donné naissance, en se condensant, à des planètes tandis que le noyau central aurait formé le Soleil. On lui doit aussi des travaux sur les aspects qualitatifs du calcul des probabilités. Ses œuvres principales furent Exposition du système du monde (1796) et Théorie analytique des probabilités (1812), dont la deuxième édition élargie (1814) contient comme préface un “Essai philosophique sur les fondements des probabilités” qui expose, sans aucun appareil mathématique, les principes et les applications de la géométrie du hasard. Pour élargir: H. Andoyer, L’œuvre scientifique de Laplace, Payot, 1922; E. T. Bell, Les Grands mathématiciens, Payot, 1939. Lavoisier Antoine Laurent de, chimiste et savant français, 1743-1794. Il fut le créateur de la chimie en tant que science en définissant la matière par la propriété d’être pesante; il introduisit l’usage systématique de la balance, qu’il modifia et perfectionna; il énonça la loi de conservation de la masse et celle de la conservation des éléments. Il a étudié l’oxydation des métaux au contact de l’air, effectué l’analyse de l’air et la synthèse de l’eau. Fermier général et membre de l’Académie des Sciences, il eut aussi un rôle dans le développement de diverses techniques. Il fut guillotiné comme fermier général. Ses Œuvres ont été rassemblées en plusieurs volumes par l’Imprimerie Impériale, première édition, 1862. Pour élargir: M. Daumas, Lavoisier, Gallimard, 1949; Jean-Pierre Poirier, Laurent Antoine de Lavoisier, Éditions Py, 1993. Le Roy Édouard, mathématicien et philosophe français, 1870-1954. Succède à Bergson aussi bien au Collège de France (1914) et à l’Académie Française (1945) que sur le plan des idées. On lui doit notamment Dogme et Critique (1906), Une philosophie nouvelle, Henri Bergson (1912), L’exigence idéaliste et le fait de l’évolution (1927), Les origines humaines et l’évolution de l’intelligence (1928), Le problème de Dieu (1929), Introduction à l’étude du problème religieux (1944).
Le Verrier Urbain, astronome français, 1811-1877. En étudiant les perturbations, jusqu’alors inexpliquées, du mouvement d’Uranus, il envisagea l’existence d’une planète inconnue qui pourrait être la cause de ces perturbations; il calcula ce que devrait être l’orbite de cette planète; ces calculs permirent d’observer celle-ci peu après. Il s’agissait de la planète Neptune. Pour élargir: J.-P. Verdet, Une histoire de l’astronomie, Seuil, 1990. Leibniz Gottfried Wilhelm, philosophe allemand, 1646-1716. Inventeur du calcul infinitésimal (parallèlement à Newton), Leibniz caressa l’espoir d’inventer aussi un langage logique universel, de telle sorte que philosopher reviendrait à “calculer”. Cette ambition découlait d’une conception plus générale de la vérité. Leibniz partait de la distinction entre les vérités nécessaires, qui sont universellement valides et réductibles au principe d’identité, et les vérités contingentes qui sont limitées à des conditions spatio-temporelles. Pour Leibniz, cette distinction n’est que superficielle, car en dernière instance toutes les vérités sont réductibles au principe d’identité par des enchaînements plus au moins longs, et si nous n’y parvenons pas, c’est en raison de leur longueur et de la finitude de notre entendement. Tout prédicat d’un sujet aune raison suffisante dans la nature même du sujet. Non seulement tout sujet contient son prédicat, mais tout sujet contient les autres sujets, autrement dit, il contient l’univers entier; cette théorie est solidaire d’une conception particulière de la substance. Leibniz refuse de reconnaître qu’il y ait deux substances: l’âme et le corps. Il y a une infinité de substances qui sont des âmes – monades – dont certaines perçoivent plus clairement que d’autres et sont appelées rationnelles. Les monades sont des univers parfaitement indépendants qui ne communiquent point entre eux, dont l’accord est déterminé par une harmonie préétablie par Dieu et dont la totalité constitue l’univers. Parmi tous les univers possibles, Dieu a voulu celui-ci et, comme Dieu est bon par nature, Leibniz conclut que notre monde est le meilleur des mondes possibles. Sa philosophie aboutit ainsi à une pleine justification du mal. Ses œuvres principales furent les Essais de Théodicée (1710) et La Monadologie (1714). Pour élargir: Y. Belaval, Leibniz, initiation à sa philosophie, Vrin, 1964. Levi Beppo, mathématicien italien, 1875-1961.
On lui doit essentiellement le théorème qui porte son nom, ou théorème de convergence monotone, suivant lequel (on se placera dans le cas répandu, celui de l’intégrale de Lebesgue) une suite croissante de fonctions intégrables (fn)nÎN, dont la suite des intégrales (ò fn) est majorée par une constante, admet une borne supérieure f, elle-même intégrable, et dont l’intégrale ò f est la borne supérieure de la suite des intégrales (ò fn). Pour élargir: Laura Levi, Évocation de Beppo Levi, éditions Vigdor. Lévi-Strauss, Claude, anthropologue français, né en 1908. Dans son œuvre Anthropologie Structurale, Lévi-Strauss résume ainsi les lignes directrices de sa recherche: “sans réduire la société dans son ensemble à la langue, on peut amorcer cette “révolution copernicienne”... qui consiste à interpréter la société dans son ensemble en fonction d’une théorie de la communication. Dès aujourd’hui, cette tentative est possible à trois niveaux, car les règles de la parenté et du mariage servent à assurer la communication des femmes entre les groupes comme les règles économiques servent à assurer la communication des biens et des services et les règles linguistiques, la communication des messages. Il est légitime de rechercher, entre ces trois formes d’échange, des correspondances et des spécificités”. Ses œuvres les plus importantes sont Tristes tropiques (1955), Les structures élémentaires de la parenté (1949), Anthropologie structurale (1958), Le Totémisme aujourd’hui (1952), La Pensée sauvage (1962). Pour élargir: Jean Piaget, Le Structuralisme, PUF, 1987. Lévy-Bruhl Lucien, philosophe et anthropologue français, 1857-1939. Ses travaux s’inscrivent dans le cadre de l’École française de sociologie. Il traite la morale comme une entité autonome en la détachant de la métaphysique, dans le but de constituer une science des mœurs, non pas universelle mais obéissant aux normes relatives de chaque groupe sociohistorique. Lévy-Bruhl est ainsi conduit à définir une mentalité primitive prélogique (qui ignore notre conception de la contradiction) et mystique (dans la mesure où, dominée par la loi de participation, elle admet que les êtres sont à la fois eux-mêmes et autre chose qu’eux-mêmes). La thèse qui se dégage de ces travaux ruinait l’idée d’une nature humaine universelle, mais il l’a remise partiellement en question à la fin de sa vie.
Ses œuvres principales sont: La morale et la science des mœurs (1903), La mentalité primitive (1922), L’âme primitive (1927), Carnets (posthume). Pour élargir: Jean Cazeneuve, Lévy-Bruhl, PUF, 1965. Lewis Clarence Irving, logicien américain, 1883-1964. S’est attaqué au problème de l’implication en logique, proposant de remplacer l’implication classique entre deux propositions A B par une implication directe A B, dont la signification serait “il est nécessaire que A implique B”. Son principal ouvrage est Symbolic Logic (1932). Linné Carl von, naturaliste et médecin suédois, 1707-1778. Il établit une classification des plantes qui fit autorité en son temps, mais qui est tombée en désuétude. Son œuvre contient cependant des descriptions très précises d’un grand nombre d’espèces végétales et animales, auxquelles il attribua un double nom latin, générique et spécifique (nomenclature binomiale). Parmi ses œuvres nous pouvons citer Genera Plantarum (1737), Espèces de plantes (1753). Lobatchevski Nikolaï Ivanovitch, mathématicien russe, 1792-1856. Sa contribution principale fut la géométrie hyperbolique, dans laquelle “par un point extérieur à une droite (D), on peut mener deux classes de droites: les unes sécantes à (D) et les autres non-sécantes à (D)”; on appelle parallèles à (D) les droites qui servent de frontière entre ces deux ensembles. Cette dernière définition est en contradiction avec le fameux postulat d’Euclide; cette géométrie est donc “non-euclidienne”. Il est possible de se faire une image de cette géométrie en considérant comme support une sphère de centre O et en convenant d’appeler “droites” les grands cercles tracés sur la sphère (c’est-à-dire les cercles dont le centre est aussi O). Les résultats de ses recherches sont exposés à partir de 1826 dans de nombreux articles. Pour élargir: Henri Poincaré, La science et l’hypothèse, Flammarion, 1905. Locke John, philosophe et théoricien politique anglais, 1632-1704.
Représentant de l’empirisme, il combat la théorie cartésienne des idées innées (voir Descartes) et affirme qu’il n’y a au départ rien dans l’esprit: celui-ci est une tabula rasa où l’expérience inscrit ses données au moyen de la sensation (action physique de l’objet sur nos sens) et de la réflexion (perception intérieure de notre âme sur les idées qu’elle a reçues des sens et qui sont: penser, croire et douter). Transgressant l’empirisme absolu, Locke introduisit une puissance -l’entendement – grâce auquel, à partir des idées simples, on construit des idées complexes, comme celles de substance, mode, relation. Son œuvre fondamentale est l’Essai sur l’entendement humain (1690). Pour élargir: A.-L. Leroy, Locke, sa vie son œuvre, avec un exposé de sa philosophie, PUF, 1964. Lorentz Hendrik A., physicien néerlandais, 1983-1928. Créateur de la théorie électronique de la matière; ses travaux ont permis de comprendre le caractère discontinu de l’électricité et de prévoir la modification du spectre d’une source lumineuse sous l’action d’un champ magnétique, ce qui lui valut de recevoir le Prix Nobel, avec Zeeman, en 1902. Il imagina des formules de transformation reliant les longueurs et le temps dans deux systèmes en mouvement rectiligne uniforme, qui trouvèrent leur emploi dans la théorie de la relativité restreinte; l’ensemble de ces formules donne naissance au “groupe de Lorentz “. Pour élargir: Michel Biezunski, Histoire de la physique moderne, La Découverte, 1993. Lorenz Edward contemporain.
N.,
mathématicien
et
météorologue
américain
On lui attribue la fameuse découverte suivant laquelle “le battement des ailes d’un papillon au Brésil peut causer une tornade au Texas”. Le sens de cette découverte est plus riche que pourrait le faire penser une lecture superficielle: on avait tendance à croire que le caractère imprécis des prévisions météorologiques tenait (seulement) au grand nombre de variables intervenant dans la météorologie, mais Lorenz construisit un modèle approché plausible, ne dépendant que de douze variables, et entrepris de l’étudier; c’est alors qu’il découvrit qu’à court terme ses prévisions avaient une valeur tout à fait cohérente, mais à long terme elles perdaient toute valeur. Qui plus est, il s’aperçut que lorsqu’il effectuait à
plusieurs reprises les mêmes calculs à partir des mêmes données, il pouvait obtenir à long terme des résultats forts différents, ce qui provient du caractère chaotique (ou instable) de la météorologie: des données aussi proches que possible peuvent donner des résultats aussi éloignés que possible. D’une certaine manière ses découvertes éclairent le renouveau d’intérêt pour la théorie des systèmes dynamiques. Sans rapport avec la météorologie, on lui doit la découverte en 1963, d’un attracteur, qui porte désormais son nom, et qui est un exemple, construit en trois dimension, d’un système, dont l’évolution dans le temps est soumise à des équations assez simples, qui n’a pas ni position limite, ni un comportement “totalement irrégulier” (les mathématiciens diraient ergodique), mais dont le comportement consiste à tourner indéfiniment, en se rapprochant d’une sorte de trajectoire idéale, décrite sous le nom d’ “attracteur”. Pour élargir: Ivar Ekeland, Le chaos, Flammarion Paris 1995. Lulle Raymond, philosophe espagnol, 1235-1315. L’intuition centrale de sa philosophie est l’idée qu’on peut prouver rationnellement toutes les vérités de la foi. À cette fin, il conçoit une méthode ou Ars Magna qui est, en dernière analyse, un ars inveniendi, fondé sur l’idée d’une connaissance opérant au moyen de déductions rigoureusement logiques et suivant des règles que l’on peut établir et déterminer. Ceci suppose l’existence de principes premiers évidents et la possibilité de trouver les termes intermédiaires et les règles précises liant n’importe quel sujet aux prédicats qui lui conviennent. Parmi les nombreuses œuvres de Lulle ont été traduites entre autres: Principes et questions de théologie, L’art bref. Pour élargir: Armand Llinarès, Raymond Lulle, philosophe de l’action, Allier (Grenoble), 1963. Mach Enrst, physicien et philosophe autrichien, 1838-1916. Son nom est passé à la postérité grâce à ses travaux sur l’acoustique, qui lui permirent de mettre en évidence la place de la vitesse du son en aéronautique; mais il eut l’occasion de remettre en cause les principes newtoniens de l’égalité de l’action et de la réaction, qu’il remplaça par le principe selon lequel les masses de deux corps sont égales s’ils agissent l’un sur l’autre par des actions égales et opposées. Il prolongea sa démarche en énonçant le principe suivant lequel les forces d’inertie ne
sont pas propres aux corps mais dépendent de l’action d’autres éléments de l’univers. Dans son ouvrage La connaissance et l’erreur il soutient un point de vue empiriocriticiste, suivant lequel la science ne peut espérer atteindre le réel et que seul existe ce qui est observable et exprimable au moyen de lois expérimentales. Son idée suivant laquelle la science ne progresse véritablement que par la recherche d’une économie de pensée a influencé les néopositivistes d’une part, et les premiers travaux d’Einstein d’autre part. La connaissance et l’erreur a été rééditée par les éditions Vigdor. Mandelbrot Benoît, mathématicien français, né en Pologne en 1924. C’est en 1945 que son oncle, un autre mathématicien de très haut niveau, Szolem Mandelbrot, lui fit connaître des textes du mathématicien Julia, qui dataient du début du siècle sur les itérations de fonctions polynomiales dans le domaine des complexes, suscitant son intérêt pour ce qui allait devenir la théorie des fractales; il est à noter que le point de vue de Mandelbrot, qui s’intéressa aux ensembles, dits “de Mandelbrot” et “de Julia” était différent de ceux de ses prédécesseurs et allait révolutionner cette partie des mathématiques. Son activité au centre de recherche d’IBM lui permit rapidement de mettre en évidence l’intérêt que pouvaient représenter les ensembles désignés au-dessus et, de manière générale, la notion de fractales qu’il fit connaître à un large public dans ses deux ouvrages: Les objets fractals: forme, hasard et dimension (1975) puis The fractal geometry of nature (1982). Il est professeur à Harvard. Marx Karl, philosophe allemand, théoricien du socialisme, 1818- 1883. Proche du groupe des “Jeunes Hégéliens”, c’est à travers l’examen de la philosophie de Hegel qu’il arrive à sa propre théorie. Sa rencontre avec Engels fut un autre facteur important dans la formation de son système. Dès ses premiers écrits, Marx engage sa polémique contre la philosophie détachée des préoccupations sociales. Dans L’Idéologie allemande, il écrit: “les philosophes ont, jusqu’ici, interprété le monde; mais il s’agit de le transformer”. À sa critique de la philosophie succède celle de l’économie politique de son époque. Le Capital (1867) est son œuvre fondamentale.
Pour élargir: Henri Lefebvre, Pour connaître la pensée de Karl Marx, Bordas, 1966. Maupertuis Pierre Louis Moreau de, mathématicien français, 1689-1759. On lui doit le principe de la moindre action: “le chemin que tient la lumière est celui pour lequel la quantité d’action est moindre” et le fait d’avoir vu dans celui-ci une loi universelle de la nature; cette démarche est à la base d’une discipline mathématique, appelée “théorie de l’optimisation” qui vise, parmi des chemins ou des solutions possibles d’un problème, à déterminer celui ou celle qui rend minimale une fonction donnée à l’avance. Ses thèses furent énoncées dans l’Accord des différentes lois de la nature qui avaient jusqu’ici paru incompatibles. Pour élargir: Patrick Tort, Vénus physique. Lettre sur le progrès de la science, Aubier-Flammarion, 1980. Mauss Marcel, sociologue et anthropologue français, 1872-1950. Analysant certaines formes d’échange par don dans les sociétés primitives, il montra que cet échange matériel, pris dans un système symbolique, ne peut être réduit à l’économique ou à toute autre dimension exclusive (juridique, religieuse, morale, esthétique, etc.); le don est un phénomène social à part entière et il porte en lui le reflet de la totalité sociale, de telle sorte qu’en étudiant le don et ses formes on peut saisir la structure et le fonctionnement de la société et de ses institutions. Son œuvre fondamentale est Essai sur le don (1932-1934). Pour élargir: Jean Cazeneuve, Sociologie de Marcel Mauss, PUF, Paris, 1968. Maxwell James Clerk, physicien britannique, 1831-1879. Prolongeant les travaux de Faraday, il compléta la théorie du champ électromagnétique, puis interpréta la lumière elle-même comme un phénomène électromagnétique. Sa théorie fut présentée dans son Traité sur l’électricité et le magnétisme (1873). Pour élargir: A. Einstein, L. Infeld, L’évolution des idées en physique, Payot, 1963. Mead Margaret, anthropologue américaine, 1901-1978. Àtravers une étude comparative, elle arrive à la constatation de l’absence chez les jeunes filles des îles Samoa d’une “crise d’adolescence”
(générale chez les jeunes Occidentaux). Elle attribua ce fait aux méthodes d’éducation et, en particulier, aux différentes attitudes face à la sexualité. Ceci l’amena à conclure à la prédominance du culturel sur le naturel, y compris dans des domaines où ceci était jusque là insoupçonné: la définition des caractères propres à chaque sexe. On lui doit aussi des études des sociétés modernes, notamment de la société américaine, où elle entreprend des recherches sur les caractères nationaux. Ses œuvres principales furent Mœurs et Sexualité en Océanie (1928), L’un et l’autre sexe (1949). Pour élargir: M. Mead, Du givre sur les ronces, autobiographie, Seuil, (1977). Menger Carl, économiste autrichien, 1840-1921. Il fut le principal représentant de l’école psychologique autrichienne, pour laquelle la valeur d’un bien est une fonction de son utilité et de sa rareté relative. Ses œuvres principales sont: Principes d’économie politique (1871), Recherche sur la méthode des sciences sociales (1883). Merleau-Ponty Maurice, philosophe français, 1908-1961. On peut comprendre la philosophie de Merleau-Ponty comme une réaction face à celle de Sartre, notamment à la dualité proposée par celuici entre l’être-en-soi et l’être-pour-soi, qui aboutit dans l’esprit de Merleau-Ponty à un recul de la philosophie vers la dualité cartésienne corps-esprit. Merleau-Ponty refuse d’admettre que le résultat de la réduction phénoménologique puisse être cet être-pour-soi que Sartre conçoit comme une pure conscience. Pour lui le résultat de cette réduction aboutit à une conscience qui est déjà conscience en mouvement, lien avec le monde. Comme conséquence de cette différence, la philosophie de Merleau-Ponty s’éloigne de celle de Sartre sur d’autres points fondamentaux: la conscience que je découvre comme résultat de l’époché (voir phénoménologie) n’est pas angoisse mais chance et risque. La liberté change également de signe: au lieu de trouver dans les choses et dans les autres une entrave à la liberté, Merleau-Ponty y trouve au contraire la condition de possibilité. La réduction phénoménologique n’aboutit donc pas à une conscience, mais au monde, c’est-à-dire au monde de la perception, le monde perçu, le monde naturel et social. D’ou l’importance de la perception dans ce système, dans la mesure où elle
constitue notre rapport originel au monde, source de significations et point de départ de la réflexion. Son œuvre la plus importante est Phénoménologie de la Perception (1945). Pour élargir: Alphonse de Waelhens, Une philosophie de l’ambiguïté, l’existentialisme de Maurice Merleau Ponty, PUF 1951. Merton Robert King, sociologue américain, né en 1910. S’opposant à l’empirisme dominant dans la sociologie américaine, Merton veut rétablir la prépondérance de la théorie, tout en évitant la spéculation des premiers sociologues. Il entreprend d’élaborer des théories régionales, de moyenne portée, situées entre les comptes-rendus particuliers qui prolifèrent et les vastes spéculations générales. La méthode qui s’impose dans ce but est celle de l’analyse fonctionnelle; d’après celle-ci le moyen le plus efficace pour expliquer les phénomènes et surtout les constitutions, les mœurs et les usages sociaux, est de rendre compte des fonctions réelles ou virtuelles qu’ils remplissent ou du rôle qu’ils jouent. Merton défend cette méthodologie d’approche du social tout en admettant que certains processus peuvent être disfonctionnels, ou bien fonctionnels dans certains contextes et disfonctionnels dans d’autres. Son œuvre principale est Éléments de théorie et de méthode sociologiques, Gérard Monfort, Saint-Pierre de Salerne, (Eure), 1965. Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. Mill John Stuart, philosophe et économiste britannique, 1806-1873. Pour lui, tout savoir qui ne se fonde pas sur l’expérience et prétend aller au delà des données empiriques est faux, tant dans le domaine des sciences physiques que dans celui des mathématiques. D’où la nécessité d’approfondir la théorie de l’induction, seule méthode adéquate pour établir la connaissance. Il établit quatre règles ou canons de l’induction scientifique (concordance, différence, variations concomitantes et résidus). En économie, il est un représentant du courant utilitariste. Sa pensée se fonde sur l’idée que l’objectif principal de l’activité humaine doit être la poursuite du progrès social et non pas la croissance à tout prix. Le progrès social est lui-même possible dans une société qui n’est pas fondée sur des conflits d’intérêts, mais au contraire sur une “association d’intérêts”, c’est-à-dire une association entre patrons et ouvriers
(association capital-travail). Il attribue un rôle important à l’éducation, c’est-à-dire à la formation de l’ouvrier pour que celui-ci soit capable de comprendre les rouages de l’entreprise. Il prône l’instruction pour tous, qui doit être garantie par les pouvoirs publics. L’émancipation de la femme constitue pour Mill une autre condition du développement social. Le rôle et l’intervention de l’état sont importants sous plus d’un aspect: outre les services collectifs, l’état doit contrôler les monopoles, et assurer la réglementation du travail et l’aide aux démunis. Ses œuvres principales sont: Système de logique inductive et déductive (1843); Principes d’économie politique (1848); De la liberté (1859); L’Utilitarisme (1861). Pour élargir: G. Boss, John Stuart Mill: induction et utilité, PUF, 1990. Mises Richard von, mathématicien américain d’origine autrichienne, 1881- 1973. Ayant soutenu des idées très proches de celles du Cercle de Vienne et ayant eu des contacts personnels avec ses membres, Von Mises peut être considéré comme un membre de ce mouvement. Sa principale contribution fut sa théorie de la probabilité comme théorie statistique et non pas comme théorie inductive. Dans ce sens, ses positions étaient très proches de celles de Reichenbach; toutefois, à la différence de celui-ci, il conçoit la probabilité comme “la valeur moyenne de la fréquence relative dans la répartition des caractères à l’intérieur d’une série non régulière”. La probabilité n’affirme rien sur un membre singulier de la série, mais seulement sur la série toute entière. Il introduit la notion de collectif, défini par son irrégularité et par la propriété que possède la fréquence relative de tendre vers une valeur limite dans toutes les sections du collectif. En français on peut lire: L’action humaine. Moore George Edward, logicien anglais, 1873-1958. L’attitude de Moore en philosophie est assez originale. Il s’avoue moins soucieux de construire un système ou de formuler une vérité qui lui serait propre que d’examiner les propositions fort embarrassantes des philosophes. L’examen de ces propositions prend la forme de l’analyse, ce qui fait de Moore l’un des principaux représentants de la méthode dite “de l’analyse”. La défense du sens commun contre les affirmations des métaphysiciens constitue l’un de ses objectifs. On doit à Moore une
critique du naturalisme éthique où il décèle un sophisme répandu consistant à essayer de définir ce qui est simple, c’est-à-dire ce qui ne peut pas être analysé. Ce sophisme caractérise notamment les recherches éthiques ou les philosophes se donnent pour but de définir le bien qui est une caractéristique unique, simple, inanalysable et indéfinissable, saisie par intuition de manière définitive et totale. La naturalistic fallacy ou sophisme naturaliste, consiste à définir le bien en termes non éthiques, soit naturalistes, soit métaphysiques. Ses principaux écrits ont été recueillis dans ses Philosophical Papers. (1954). Pour élargir: Françoise Armengaud, G. E. Moore et la genèse de la philosophie analytique avec présentation et traduction de textes. Éditions. Klincksieck, 1985. Morgan Conwy Lloyd, philosophe anglais, 1852-1936. Sa pensée appartient au courant de l’évolutionnisme émergentiste. Proche en beaucoup d’aspects de celle de Samuel Alexander, dont il reçut de nombreuses influences, sa philosophie représente une sorte de réalisme évolutionniste du phénomène; ce qui se montre à nous nous n’est pas construit par la conscience, mais n’est pas reçu passivement par elle. Le rapport entre le sujet et la conscience n’est compréhensible que dans le cadre de l’évolution qui permet de l’interpréter. Cette étude évolutionniste de la conscience permet de montrer l’étroite relation du physique et du psychique. L’agent ultime de ces changements étant une réalité divine opérative et active. Œuvres: Emergent Evolution (1923), Life, Mind and Spirit (1926). Morgan Lewis Henry, anthropologue américain, 1818-1881. Il réalisa d’importants travaux sur les Indiens Iroquois résidant à New York, qui lui permirent de découvrir un décalage entre les rapports réels au sein des familles et les dénominations ou système d’appellations utilisés (père, mère, frère, etc.). Ceux-ci relèvent de rapports réels tombés en désuétude. À partir de cette constatation, il reconstruisit un état de choses très primitif qui est celui d’une promiscuité sexuelle. Il étudia ensuite le passage de l’état sauvage à la barbarie, puis à la civilisation. Ses ouvrages essentiels sont: Systems of Consanguinity and Affinity of the Human Family (1871), La société archaïque(1971). Pour élargir: J. Poirier, Histoire de l’ethnologie, PUF, 1969.
Morris Charles William, philosophe américain, 1901-1979. Ses recherches portent notamment sur la théorie des signes. C’est à Morris qu’on doit la systématisation, largement suivie, de la théorie des signes en syntaxe, sémantique et pragmatique. Il porta un intérêt tout particulier au problème des différents comportements humains en relation avec l’utilisation des signes. D’où une théorie générale du discours, et des analyses sur les différents types de discours. À la base de ces recherches, on trouve également des préoccupations éthiques et politiques. Son œuvre principale est: Signs, Language and Behaviour (1946) et on trouvera en français son ouvrage Logique positiviste et science empirique (1937). Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF 1984. Nagel Ernest, philosophe américain né en Tchécoslovaquie, 1901- 1985. S’intéresse particulièrement au problème de l’explication en science et à celui du réductionnisme. Bien que lié au néopositivisme, il refuse de réduire la philosophie à une analyse du langage et revendique pour celleci une fonction critique générale. Œuvres principales: Logic and Scientific Method (1934) Logic without metaphysics (1935). Pour élargir: P. Jacob, L’empirisme logique, Éditions de Minuit, 1980. Natorp Paul, philosophe allemand, 1854-1924. Membre de l’école de Marbourg. Cherche à établir les principes qui fondent la connaissance scientifique en remontant, tout comme Kant, d’une donnée à ses conditions de possibilité. Mais si la méthode de Kant pour examiner le problème de la connaissance a une valeur éternelle, Natorp, à la différence de celui-ci, pense que le système des déterminations fondamentales ou des éléments transcendantaux ne peut être établi une fois pour toutes en raison du caractère dynamique de la science. Pour élargir: H. Dussort, L’école de Marbourg, Paris, PUF, 1963. Neumann Johann Ludwig von, mathématicien et physicien américain d’origine hongroise, 1903-1957. Il travailla à Princeton où il participa, entre autres, à la mise au point de la première bombe atomique.
Héritier de Hilbert et de l’école formaliste, il consacre ses premiers travaux mathématiques à la théorie des ensembles de Cantor. Reprenant l’axiomatisation de Zermelo, il procède à l’axiomatisation de la théorie des ensembles, en réfléchissant plus particulièrement au rôle de l’axiome de fondation. Plus tard, il travaille, dans le cadre du finitisme de Hilbert, sur l’idée de non-contradition des mathématiques. Ces recherches révèlent un triple souci épistémologique: montrer, d’abord, que la réduction des nombres aux notions ensemblistes, c’est-à-dire à la logique, est possible; puis définir l’idée de construction dans les mathématiques, au niveau d’un métalangage où interviennent, à parts égales, les notions de classe et de relation d’ordre; démontrer, enfin, que cette construction logico-mathématique ne peut pas légitimer, seule, des inférences sur les processus mentaux implicites à la notion de nombre. Sur la base de ces travaux mathématiques, Neumann se consacre à partir de 1927, à l’axiomatisation, selon le programme formaliste de Hilbert, de la mécanique quantique. Les concepts quantiques sur la nature des mesures en physique sont définis dans le cadre mathématique d’un espace de Hilbert (c’est le théorème de von Neumann sur l’irréversibilité des mesures en physique quantique). Mais il va surtout élaborer une analyse mathématique entièrement probabiliste de la mécanique quantique: interprétant, de ce point de vue, les relations d’incertitude de Heisenberg, il déduit, par un raisonnement resté célèbre, qu’il est impossible de rétablir une représentation concrète de la réalité microphysique par l’utilisation de variables cachées. On lui doit également des recherches dans le domaine de l’économie. Dans les dernières années de sa vie il s’intéresse aux problèmes de logique et d’analyse numérique posés par les ordinateurs. Ses travaux ont été réunis dans les Collected Works, 6 vol. 1961-1963. Newton sir Isaac, physicien, mathématicien et astronome britannique, 1642-1727. L’apport principal de Newton aux mathématiques est le calcul infinitésimal (appelé par lui calcul des fluxions). En mécanique, en une théorie scientifique complète et rigoureuse les connaissances existantes, en leur donnant toute leur généralité et en mettant à jour toute leur portée, ceci grâce à la notion de gravitation universelle qui identifie la pesanteur terrestre et les attractions entre les corps célestes. Cette mécanique est fondée sur trois principes: a) inertie (explicitée par Galilée et Descartes);
b) proportionnalité de la force et de l’accélération (entrevue par Galilée); c) égalité de l’action et de la réaction, triviale dans l’action par contact mais qu’il étend aux actions à distance. Adhérant à l’héliocentrisme, il appliqua sa mécanique àl’explication des mouvements des planètes. Son œuvre principale fut les Principes Mathématiques de Philosophie Naturelle (1687). Pour élargir: A. Koyré, Études newtoniennes, Gallimard, 1968. Nietzsche Friedrich, philosophe allemand, 1844-1900. Sa philosophie se veut une démystification des valeurs traditionnelles. S’élevant contre la culture de masse, sa philosophie exprime un dédain de l’existence banalisée et une exaltation de l’aventure de la vie. Se libérant de ce qui le mutile, c’est-à-dire de ce qu’il y a d’humain en lui, et répondant au principe de la volonté de puissance, l’homme retrouve en lui le surhumain, c’est-à-dire une plénitude dans laquelle il se détermine et agit selon une morale de maître, répondant à sa nature la plus profonde, et non pas selon une morale d’esclave, comme celle en vigueur qui nous vient de la tradition judéo-chrétienne. Ses œuvres principales furent L’origine de la tragédie (1872), Humain, trop humain (1878), Le Gai savoir (1882), Par delà le bien et le mal (1886), Ainsi parlait Zarathoustra (1883-1885), La volonté de puissance (posthume). Pour élargir: K. Jaspers, Nietzsche, Introduction à sa philosophie, Gallimard, 1950. Ockham ou Guillaume d’Ockham ou Occam ou Ocham ou Okam, philosophe anglais, 1285 ou 1290-1347 ou 1349. On lui doit une philosophie nouvelle visant le dépassement aussi bien de l’aristotélisme (défendu à cette époque par les dominicains) que le néoplatonisme (défendu essentiellement par les franciscains), en ce qui concerne notamment la solution proposée par ceux-ci au problème des universaux, c’est-à-dire les genres et les espèces. Pour les premiers, les genres et les espèces sont des abstractions nécessaires à la pensée; pour les deuxièmes, il s’agit d’entités réelles. Ockham, lui-même franciscain, propose une solution franchement opposée à la tradition de son ordre. Les universaux n’existent pas pour lui in re. Toutefois, contrairement à la tradition aristotélicienne qui nie l’existence des universaux et admet les idées individuelles, Ockham affirme que le lien entre le fait ou l’objet
empirique, et la notion que l’entendement s’en fait, est un mot, celui-ci étant défini à son tour non pas comme une convention purement arbitraire, mais comme une convention pour ainsi dire profonde. Ses œuvres principales sont: Commentaires sur les Sentences, Somme de Logique, Physique. Pour élargir: L. Baudry, G. d’Ockham, sa vie, ses œuvres, ses idées sociales et politiques, 1950. Œrsted Hans Christian, physicien et chimiste danois, 1777-1851. En 1820, il découvrit le magnétisme dans une célèbre expérience où l’on vit une aiguille aimantée dévier au voisinage d’un courant électrique; cette découverte suscita les travaux d’Ampère et Faraday. Oparin Alexandre Ivanovitch, savant russe, 1894-1980. Le point de départ de ses travaux est l’observation que, si l’atmosphère de la Terre avait été aussi riche en oxygène au moment de l’apparition de la vie, celui-ci aurait capté les molécules d’hydrogène qui se libéraient dans les réactions chimiques élémentaires, empêchant ainsi la formation des molécules organiques complexes; d’où l’hypothèse, dont il est l’auteur avec son collègue l’anglais J. Haldane, suivant laquelle l’atmosphère a un jour été pauvre en oxygène et riche en hydrogène. On lui doit divers ouvrages sur l’apparition et le développement de la vie dans l’univers, parmi lesquels ont paru en français L’origine de la vie sur la Terre (Paris, Masson, 1964) et La vie dans l’univers (Moscou, éditions en langues étrangères, 1968). Oppenheimer Julius Robert, physicien américain, 1904-1967. Il travailla dans le domaine de la théorie quantique atomique et fut conduit à diriger à Los Alamos les recherches qui menèrent à la réalisation des premières armes nucléaires. Plus tard à l’époque de la guerre froide, il s’opposa à la poursuite de ces travaux, fut accusé de sympathies communistes et écarté de ses responsabilités. Après la guerre froide il retrouva son statut et reçut le prix Enrico Fermi pour ses contributions scientifiques. Pour élargir: Michel Biezunski, Histoire de la physique moderne, La Découverte, 1993. Pascal Blaise, mathématicien, physicien et philosophe français, 16231662.
D’une grande précocité, il écrivit à 16 ans un Essai sur les sections coniques et, à dix-huit, inventa la machine à calculer. Sa vie est marquée par deux périodes: la première tournée vers le monde et la science, la deuxième tournée vers la religion et la métaphysique; il se retira en 1654 à l’abbaye de Port Royal. Le sentiment de la vanité du monde, uni à sa soif de connaissance scientifique, provoquent dans l’esprit de Pascal une déchirure et une contradiction qui l’habitèrent jusqu’à la fin de sa vie et qui se reflètent dans son œuvre principale: les Pensées sur la religion, plus connues sous le titre de Pensées. Cette œuvre devait constituer la base d’une apologie de la religion chrétienne. Toute la philosophie de Pascal se fonde sur une conception de l’homme qu’il décrit comme un être intermédiaire entre deux extrêmes: le divin et le bestial, entre lesquels il est déchiré continuellement; il ne peut trouver refuge ni dans le divertissement mondain, ni dans la contemplation intellectuelle. Il n’y a que la religion et la foi qui puissent amener l’esprit à la croyance en Dieu qui, seule, peut apporter la paix et l’équilibre. Pascal affirma une logique du cœur qui est la faculté amenant à la connaissance des vérités éternelles; cette faculté a en propre d’intégrer la rationalité au sein de la foi personnelle. L’un des aspects les plus connus de la philosophie de Pascal est l’argument par lequel il tente d’amener le non croyant à la foi. Il s’agit de son célèbre pari, d’après lequel il invite le non croyant à miser sur l’existence de Dieu. Voici son argument: Dieu existe ou bien il n’existe pas; il n’y a pas de moyen terme et nous sommes obligés de choisir; si nous pesons le gain et la perte quant à ce pari, si Dieu existe vraiment, on a tout à gagner (c’est-à-dire la béatitude) et si Dieu n’existe pas, nous n’avons rien à perdre; “gagez donc sans hésiter”, conclut Pascal. Sa philosophie s’attache également à décrire la fragilité et la faiblesse de la nature humaine: “l’homme est un roseau pensant”, c’est-à-dire qu’il possède cette nature contradictoire d’être en même temps foncièrement fragile, et désireux et capable d’absolu. Ses œuvres principales sont les Provinciales (1656-1657) et les Pensées (1670). Pour élargir: J. Mesnard, Pascal, l’homme et l’œuvre, Hatier, 1951. Pavlov Ivan, physiologiste russe, 1849-1936. Prix Nobel de physiologie en 1904. Il est particulièrement connu pour ses travaux sur les réflexes conditionnés, ses recherches sur l’activité nerveuse supérieure et sur celle
des grands hémisphères cérébraux. Après avoir élaboré la notion de réflexes conditionnés à travers l’observation des comportements animaux, il a étendu ses thèses à la psychologie humaine, qui se caractérise pour lui par l’apparition d’un second système de signalisation de type symbolique (le langage). Mais la réflexion de Pavlov ne réduit pas pour autant l’ensemble du comportement humain, notamment les fonctions supérieures, à un système de réflexes conditionnés. Son œuvre principale est Les réflexes conditionnés (1935). Pour élargir: H. Cuny, Pavlov, Seghers, 1962. Peano Guiseppe, mathématicien italien, 1858-1932. Son œuvre principale réside dans une construction axiomatique de l’ensemble des entiers naturels; il donna d’autres axiomatisations, comme celles de la théorie des ensembles, de la géométrie projective, etc. On lui doit la description d’une courbe qui “remplit un carré”, qui utilise l’ensemble triadique de Cantor, et des développements en algèbre linéaire, sur la base des travaux de Grassman (l’un des deux “inventeurs” des espaces vectoriels). Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Peirce Charles Sanders, logicien, mathématicien et philosophe américain, 1839- 1914. Il est le fondateur du pragmatisme, qu’il présente comme une théorie de la signification, identifiant le sens d’un terme ou d’une proposition à l’ensemble des effets qu’ils produisent. Il est considéré comme le pionnier de la sémiotique où il classifia les signes en icônes, indices et symboles selon la nature de la relation du signe à l’objet (respectivement ressemblance, contiguïté ou convention). On lui doit aussi la logique des relations. Ses écrits ont été rassemblés dans des Collected Papers, 1931-1960. Pour élargir: B. Russell, Histoire de la philosophie occidentale, Gallimard, 1953. Piaget Jean, biologiste, psychologue et épistémologue suisse, 1896-1980. Ses premiers travaux portent sur le phénomène de l’intelligence, qu’il conçoit comme l’organe d’adaptation de l’individu à son milieu; à travers son intelligence l’individu façonne le milieu, lequel à son tour, par la
résistance qu’il oppose, engendre des modifications dans la structure de la conscience. Piaget porte une attention toute particulière à ces mécanismes afin d’éclairer la genèse et l’évolution de la pensée. Dans une deuxième étape, la recherche de Piaget s’étend de la pensée tout court à la genèse et à la structure de la pensée scientifique. Voir épistémologie génétique. Ses œuvres principales sont: Le langage et la pensée chez l’enfant (1923), La psychologie de l’intelligence (1947), L’épistémologie génétique (1950). Pour élargir: J.-M. Dolle, Pour comprendre Jean Piaget, Privat, Toulouse, 1974. Planck Max Karl, physicien allemand, 1858-1947. Ses premiers travaux ont porté sur le domaine de la thermodynamique. Étudiant le problème du “corps noir”, c’est-à-dire les aspects thermiques du rayonnement électromagnétique que la mécanique classique n’arrivait pas à expliquer, il fut amené à concevoir l’hypothèse suivant laquelle certains échanges d’énergie ne pouvaient s’effectuer que de manière discontinue; cette hypothèse, qui le conduisit à apprécier les premiers travaux d’Einstein sur la quantification de l’énergie électromagnétique, mena un peu plus tard à la formulation de la théorie des quanta. Pour élargir: A. Einstein et L. Infeld, L’évolution des idées en physique, Payot, 1963. Platon, philosophe grec, 428-347 av. J.-C. Créateur du dialogue comme forme d’exposition de la philosophie, Platon en composa vingt huit, où sa pensée est souvent exprimée par la bouche de son maître Socrate. La métaphysique platonicienne distingue deux mondes: le monde sensible, celui où se succèdent générations et corruptions de toutes choses, et le monde intelligible, ou monde des Idées. Les idées sont les archétypes dont les choses sensibles ne sont que les copies imparfaites, reflétant plus ou moins vaguement leur modèle. La connaissance réside dans l’accès de l’esprit à ces idées; cet accès est en réalité une sorte de souvenir (réminiscence) d’un savoir existant en nous comme endormi. Par l’allégorie de la caverne, Platon illustre la difficile élévation de l’âme de l’univers des choses à celui des idées, et de celui-ci à l’idée suprême qui est celle du Bien, fondement ontologique de toute chose et guide du comportement moral, dont le but ultime est de faire
régner la justice. Sur le plan collectif, ce but ne peut s’accomplir que par une organisation très précise de l’État, de type communautaire, gouvernée par des sages ou des philosophes. Il fut le créateur de l’Académie. Ses œuvres principales sont La République, Apologie de Socrate, Le Banquet, Le Menon, Le Sophiste, Les Lois. Pour élargir: J. Brun, Platon et l’Académie, PUF, 1960; P.-M. Schuhl, L’œuvre de Platon, Hachette, 1954. Poincaré Henri, mathématicien et philosophe français, 1854-1912. On doit à Poincaré des contributions importantes dans divers domaines. Dans le domaine de la logique, Poincaré introduit l’idée que la logique formelle, classique ou mathématique, a besoin de l’intuition pour être créatrice. L’intuition de Poincaré est une faculté synthétique (au sens de Kant) de l’intellect, qui a des racines dans “la conscience subliminale” où se continue le travail conscient. La fonction synthétique de l’intuition se révélerait, par exemple, dans le raisonnement appelé “induction mathématique” où l’on fait la synthèse d’une infinité de syllogismes “en cascade” pour obtenir la conclusion. Le rejet de l’existence d’un espace ou d’un temps absolus est caractéristique de sa pensée, de même que l’idée d’une interaction entre l’observateur et l’objet observé, qui sera amenée à ses dernières conséquences par Heisenberg. L’aspect le plus connu et le plus original de cette philosophie est sans doute le conventionnalisme, c’est-à-dire la conception de la science comme un savoir relatif et conventionnel; cette particularité, examinée d’abord au niveau des géométries, s’étend ensuite à toutes les sciences. Dans chaque cas les axiomes sont des “définitions déguisées” qui ne relèvent nullement de l’expérience, quoique certains d’entre eux puissent être intuitifs. Nous choisissons les uns plutôt que les autres parce qu’ils sont plus commodes. Dans le domaine mathématique on lui doit de nombreuses contributions: il a jeté les fondements de l’étude qualitative des équations différentielles, qu’il a appliquée dans le fameux problème des trois corps ( mécanique céleste). Ses travaux en géométrie algébrique lui ont permis d’étudier des courbes algébriques définies sur des surfaces et des courbes analytiques définies par des équations différentielles linéaires. Son intérêt pour les
problèmes topologiques lui permit de définir les outils fondamentaux de la topologie algébrique. Il a mené de nombreux travaux dans le domaine de la physique mathématique (comme par exemple le problème de Dirichlet) de même que dans le domaine de l’électrodynamique. Ses œuvres principales sont: La science et l’hypothèse (1902), La valeur de la science (1907), Science et Méthode (1909). Popper Sir Karl Raimund, philosophe britannique d’origine autrichienne, 1903- 1994 On peut distinguer dans son œuvre a) un versant socio-politique, exprimé notamment dans La Société ouverte et ses ennemis, combattant les idéologies totalitaires et closes qui prêchent des changements fondamentaux dans la société (révolutions), en leur opposant une technologie sociale de modifications partielles et graduelles et b) un versant épistémologique, exprimé notamment dans La logique de la découverte scientifique, où il avance l’idée selon laquelle ce qui caractérise la science n’est pas la vérifiabilité des hypothèses, mais au contraire leur capacité à être réfutées, capacité dont dépend leur perfectibilité et, par là, le progrès du savoir. Ses œuvres principales sont: La société ouverte et ses ennemis (1945), La logique de la découverte scientifique (1935), Conjectures et Réfutations (1962), Misère de l’historicisme (1944). Pour élargir: K. Popper, La quête inachevée, Calmann-Lévy, 1974; R. Bouveresse, Karl Popper, Vrin, 1978; J.-F Malherbe, La philosophie de Karl Popper et le positivisme logique, PUF, 1980. Ptolémée Claude, astronome, mathématicien et géographe grec, 100-170. Auteur d’un système du monde qui fit autorité jusqu’à Copernic. Dans ce système, la Terre est le centre de l’univers et reste immobile. Les planètes, y compris le Soleil, décrivent un petit mouvement circulaire, l’épicycle, autour d’un centre qui lui-même décrit un grand cercle autour de la Terre. Son œuvre essentielle fut L’Almageste. Pour élargir: J.-P. Verdet, Une histoire de l’astronomie, Seuil, 1990. Pythagore, philosophe et mathématicien grec, 570-480 av. J.-C. Sa vie est peu connue. Il aurait fondé une communauté religieuse. Partisan de la réincarnation, il affirmait que la pratique de la vertu délivre
l’âme de cette “roue des naissances” que sont les réincarnations successives. On lui attribue l’invention des tables de multiplication, du système décimal et du théorème qui porte son nom. Sa philosophie est fondée sur l’idée que le nombre est la source de toutes choses et capable de rendre toutes les choses intelligibles. On peut interpréter cette philosophie comme la première tentative de pénétration intellectuelle de la réalité. Pour élargir: J.-F. Mattéi, Pythagore et le pythagorisme, PUF, 1992. Quine Willard Van Orman, philosophe américain, 1908-1992. Plus attiré par la philosophie logique de tradition européenne que par le pragmatisme américain, il a inscrit, dès le début des années 30, ses propres recherches dans le droit fil de celles de Frege, Russell et Carnap. Très vite pourtant, il se distingue de ces derniers par un intérêt plus poussé pour l’ontologie, ainsi que par sa manière très personnelle d’appliquer la logique à l’analyse de la réalité. On doit à Quine des travaux importants de logique mathématique. Parmi ses œuvres traduites figurent: Philosophie de la logique (1975), Relativité et Ontologie, (1977), Le Mot et la Chose,(1978), Méthodes de Logique, Quiddités (1992), Poursuite de la vérité (1993). Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. Ramus Petrus (Pierre de la Ramée), philosophe français, 1515-1572. Sa pensée est caractérisée par une opposition violente à la pensée d’Aristote, exprimée dans la dissertation intitulée Quae cumque ab Aristotele dicta essent commentitia esse (Tout ce qu’affirma Aristote est faux). Ramus condamne particulièrement les règles logiques du célèbre philosophe qu’il juge non seulement stériles, mais dangereuses, car elles étouffent et oppriment la création, donc les arts et les sciences. Il faut suivre une dialectique naturelle; dans celle-ci on peut reconnaître deux parties: la première, traitant de l’ inventio, a la mission de découvrir des arguments, la deuxième, iudicium, de les organiser. Vers la fin de sa vie, Ramus revendiqua toutefois Aristote, mais il s’agit alors d’après lui du vrai Aristote, et non pas de l’Aristote de l’ Organon dont, d’après Ramus, ce dernier n’était même pas l’auteur. Outre sa dissertation contre Aristote, on peut citer Animadversiones et Dialecticae Institutiones.
Pour élargir: R. Barroux, Pierre de la Ramée et son influence philosophique, 1922. Reichenbach Hans, logicien et philosophe allemand, 1891-1953. L’essentiel de son œuvre est consacré à l’étude des implications philosophiques de la théorie de la relativité et de la mécanique quantique. Pour éliminer les anomalies de cette dernière, il a proposé une logique trivalente. Cependant son apport majeur a consisté en une définition fréquentielle de la probabilité, où celle-ci est identifiée à la fréquence limite dans une suite infinie d’événements. Ses œuvres principales sont: Wahrscheinlichkeitslehre (1935) et Direction of Time (posthume). Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF 1984. Renan Ernest, écrivain et historien des religions français, 1823-1892. Élevé de façon extrêmement pieuse, il quitte le séminaire de SaintSulpice à Paris, suite à une crise religieuse, et se consacre à l’étude de la philologie hébraïque. Sa rencontre avec Marcelin Berthelot est décisive dans son parcours intellectuel; cette rencontre marque le début de sa foi dans la science positive et le progrès social. Son œuvre principale, L’avenir de la science, représente un manifeste de la foi scientiste. Il critique toutefois le positivisme de Comte. Il y a dans son œuvre plusieurs autres centres d’intérêt: l’étude des “productions spontanées” de l’humanité, en particulier les langues et la religion, d’où d’importantes études de linguistique comparée et d’histoire des religions. Outre L’avenir de la science (1890), il écrivit une Vie de Jésus (1863) qui connût un grand succès. Pour élargir: André Cresson: Renan, sa vie son œuvre, sa philosophie, 1949. Rickert Heinrich, philosophe allemand, 1863-1936. Se plaçant dans une perspective néokantienne, il affirma la primauté de la raison pratique sur la raison pure. Il s’est interrogé sur la relation entre le règne des valeurs et celui de la réalité, et a posé le troisième règne, celui de la culture.
Ses œuvres principales furent L’objet de la connaissance (1892), Problèmes des fondements de la méthodologie, de l’ontologie et de l’anthropologie (1934). Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. Riemann Bernhard, mathématicien allemand, 1826-1866. Sa théorie des surfaces “à plusieurs feuillets” élargit le champ de l’étude des fonctions d’une variable complexe, en transformant des fonctions “multiformes” (comme par exemple la racine carrée complexe qui, à tout complexe non nul, associerait deux complexes distincts) en un faisceau de fonctions de type classique (à une valeur de la variable, on associe une valeur déterminée et une seule); dans le cas de la racine carrée, son idée revient à créer “au-dessus des complexes” une surface “double”, de telle sorte qu’à chaque complexe non nul on associe deux images, situées chacune dans des “copies virtuelles” de l’ensemble des complexes, que l’on pourrait imaginer comme deux feuillets situés l’un au-dessus de l’autre; une particularité de ce “feuilletage” est que le complexe zéro ne possède qu’une seule image, ces deux feuillets superposés se retrouvent donc et se recollent en un seul point correspondant à zéro. Cette construction a ainsi fait apparaître des objets géométriques “abstraits” et mis en évidence des propriétés nouvelles, comme celle de “multiplicité” d’un point; d’où la naissance d’une discipline mathématique nouvelle: la topologie. Dans le domaine de l’analyse, il élargit le champ de l’intégrale à un ensemble de fonctions plus grand que ce qu’autorisait l’intégrale “de Cauchy”; l’intégrale “de Riemann” est encore celle qui domine l’enseignement du premier cycle dans les différents pays, bien qu’elle soit considérée comme insuffisante pour l’usage des mathématiciens comme pour celui des utilisateurs de cette discipline, et elle a été enrichie (par exemple par Henri Lebesgue). On lui doit aussi l’hypothèse (hypothèse de Riemann) – non encore démontrée – sur la répartition des solutions complexes de la fonction zêta. Il est l’auteur d’un mémoire célèbre: Sur les hypothèses qui servent de fondement à la géométrie. Pour élargir: Jean Claude Pont, La topologie algébrique des origines à Poincaré, PUF, 1974. Roscelin de Compiègne, penseur français, env. 1050-1120.
Son œuvre est marquée par la crainte philosophique de voir substantialiser les universaux, les qualités ou les chimères et par celle du retour aux archétypes grecs qui expliquaient le concret par l’abstrait plutôt que le contraire. Pour lui, seul l’individu est réel et les universaux ne sont que des flatus voces. Œuvres: Patrologie latine, Petrus Abelardus. Pour élargir: F. Picavet, Roscelin, philosophe et théologien, d’après la légende et d’après l’histoire, Alcan, 1911. Ross Sir David, philosophe et historien de la philosophie écossais, 18771966. Il fut le protagoniste de la renaissance de l’éthique intuitionniste qui est essentiellement anti-utilitariste et anti-pragmatique. Dans le juste et le bien il voit le mécanisme de l’éthique fondamentale, et développe avec précision l’idée subtile que notre devoir est de nous mettre en position de faire objectivement l’acte qui nous semble subjectivement être notre devoir lui-même. Parmi ses œuvres, The Right and the Good (1935), The Foundations of Ethics (1939). Russell Bertrand, philosophe et logicien britannique, 1872-1970. C’est dans Principia Mathematica (1910-1913), rédigé avec Whitehead, qu’il affirme la logique comme base des notions et des développements mathématiques. Son ambition est la mise au point d’un système permettant la reconstruction complète des mathématiques en partant d’un nombre restreint de concepts logiques premiers. Gödel montra plus tard qu’un tel programme est irréalisable. Son œuvre reflète également une préoccupation pour les ambiguïtés du langage, les paradoxes et les curiosités verbales. Soit par exemple l’expression “l’actuel roi de France est chauve”; ce type de proposition n’est pas pour lui, comme pour d’autres logiciens, de la même nature que “Socrate est mortel”, car le sujet est en question. Pour résoudre ce type de difficultés, il élabore une théorie des descriptions susceptible de s’appliquer aux propositions, pour déterminer si celles-ci sont vraies ou non. Dans la ligne des expressions à problèmes, les paradoxes retiennent particulièrement l’attention de Russell; selon Russell, il y a paradoxe parce qu’une proposition mélange différents niveaux logiques, niveaux définis dans sa théorie des types. L’analyse logique s’étend ensuite à la résolution de problèmes non
seulement verbaux mais aussi épistémologiques, dans la mesure où ceuxci font intervenir le langage. C’est à cette préoccupation qu’on doit la classification tripartite des énoncés en vrais, faux et dépourvus de sens, classification reprise ensuite par les néopositivistes. Outre l’œuvre citée, il propose sa théorie des descriptions dans son célèbre article On denoting (1905). Pour élargir: Bertrand Russell, Histoire de mes idées philosophiques, Gallimard, 1961. Rutherford Nelson Ernest, lord, physicien anglais, 1871-1937. Prix Nobel de chimie 1908. On lui doit la découverte en 1899 de la radioactivité du thorium. Il distingue les rayons alpha et bêta dans le rayonnement des radioéléments et établit avec Soddy en 1903 la loi des transformations radioactives. Il mesure le quotient e/m de la charge par la masse des particules alpha, et montre que celles-ci sont constituées par des noyaux d’hélium. Il calcule avec H. Geiger l’énergie libérée dans les transformations radioactives. Il réalise en 1919 la première transmutation provoquée, celle de l’azote en oxygène, par un bombardement au moyen des rayons alpha du radium, et observe le même type de transformation pour les autres éléments. Il détermine avec Aston la masse du neutron, et imagine un modèle d’atome analogue au système solaire, formé d’un noyau central d’électrons satellites. Sartre Jean-Paul, philosophe et écrivain français, 1905-1980. Chef de file de l’existentialisme en France, fondateur de la revue Les Temps Modernes en 1945. On peut situer le point de départ de sa philosophie dans la différenciation entre être et exister. Alors que les choses sont, seul l’homme existe (ex sistere, sortir de), c’est-à-dire échappe aux déterminations des objets; il n’a donc pas de nature: il construit cette nature; c’est dans ce sens que Sartre affirme chez l’homme la priorité de l’existence sur l’essence. La différence entre l’être-en-soi et l’être-pour-soi dans cette philosophie est particulièrement importante. Le premier est l’être compact sans rapport à soi-même tandis que le pour-soi, l’homme est ce qui est une pure relation surgissant comme résultat de la conscience et de la liberté. Solitude fondamentale, contingence, angoisse métaphysique, mauvaise foi, être en
situation sont d’autres thèmes de la philosophie de Sartre et de l’existentialisme. Son œuvre principale est L’Être et le Néant (1943). Ces idées sont exprimées aussi bien dans des œuvres littéraires que dans des pièces de théâtre. Les plus importantes sont, parmi les premières La Nausée (1938), et parmi les secondes Les Mouches (1943), Huis Clos (1944). Pour élargir: C. Audry, Jean-Paul Sartre, Seghers, 1966. Saussure Ferdinand de, linguiste suisse, 1857-1913. A jeté les bases de la linguistique moderne en introduisant la différence entre langue et langage, et en introduisant la notion de structure pour l’étude du phénomène de la langue. Son œuvre principale fut le Cours de linguistique générale (1916). Pour élargir: Georges Mounin, Ferdinand de Saussure ou le structuraliste sans le savoir, Seghers, 1967. Scheler Max, philosophe allemand, 1874-1928. Influencé par la phénoménologie husserlienne, il distingue entre l’essence et l’intelligible, affirme l’indépendance des valeurs éternelles et immuables, et en même temps reconnaît l’historicité de l’homme. Ses œuvres principales furent Le formalisme en éthique et l’éthique matérielle des valeurs (1913-1916), La place de l’homme dans le cosmos (1928). Pour élargir: G. Gurvitch, Les tendances actuelles de la philosophie allemande, Vrin, 1949. Schlick Moritz, philosophe allemand, 1882-1936. Intéressé d’abord par la physique, il se tourna vers la philosophie, plus particulièrement la philosophie des sciences. L’école néopositiviste ou Cercle de Vienne est issue d’un séminaire qu’il organisa et dont les positions s’exprimèrent dans la revue Erkenntnis. Ses propres positions ont été développées dans ses ouvrages: Théorie Générale de la connaissance (1925), Espace et temps dans la physique contemporaine (1917), Questions d’éthique (1930). Schrödinger Erwin, physicien autrichien, 1887-1961. Ses travaux donnèrent une assise à la théorie quantique; il est avant tout l’auteur de l’équation qui porte son nom où il considère les énergies des
états stationnaires d’un système quantique comme les valeurs propres d’un certain opérateur; il établit l’équivalence entre ce point de vue, appelé ondulatoire et celui, matriciel, de Heisenberg. Plus tard, Born interpréta la fonction d’onde de Schrödinger en termes probabilistes. Il reçut le prix Nobel en 1933, conjointement avec Dirac, qui avait modifié l’équation d’onde pour la rendre compatible avec la relativité restreinte. Schrödinger, qui prit part aux débats épistémologiques liés à la mécanique quantique, a tenté une interprétation de la biologie dans son ouvrage What is life?. Pour élargir Jean-Marc Lévy Leblond, Françoise Balibar, Quantique. Rudiments, Interéditions, CNRS, Paris, 1984. Sénèque, philosophe latin, 2 av. J.-C.- 65 apr. J.-C. Il fut le précepteur de Néron, avant que celui-ci ne lui ordonne de se suicider. Sénèque défend une attitude stoïcienne, appliquée à la morale et aussi à la politique. L’homme individuel aussi bien que l’homme d’état doivent suivre une discipline de vie, qui est essentiellement une lutte contre les passions et qui, seule, peut apporter le bonheur et la sagesse. Ses œuvres principales sont: Consolations, De la constance du sage, De la tranquillité de l’âme. Pour élargir: P. Aubenque et J. M. André, Sénèque, Seghers, 1964. Shannon Claude Elwood, mathématicien américain, né en 1916. A travaillé dans des domaines de la mathématique appliquée; il est à l’origine de la théorie de l’information, dont il a donné les bases théoriques dans son ouvrage Mathematical theory of communication, publié en 1949. Schelling Friederich, philosophe allemand, 1775-1854. Sous l’influence de Fichte, il développe d’abord une philosophie de la nature ainsi qu’une philosophie de l’esprit marquée par le romantisme. Il affirme une identification absolue de l’esprit et de la nature, connue par intuition intellectuelle. Il se consacra ensuite à des travaux d’esthétique et s’intéressa à la philosophie de la religion; il décrit celle-ci comme ayant pour but de retrouver l’unité perdue (par le péché et la chute) de notre être par rapport à l’absolu.
Parmi ses œuvres: Idées pour une philosophie de la nature (1979), Philosophie de la religion (1804), Les Âges du Monde (1815). Pour élargir: E. Bréhier, Schelling, Paris, 1912. Simmel Georg, sociologue et philosophe allemand, 1858-1918. Simmel essaye de déterminer les invariants qui se dissimulent dans le flot continuel de la vie sociale, c’est-à-dire les actions réciproques entre les individus. Ces invariants, constitutifs de toute institution sociale, sont définis indépendamment de tout contenu et appelés “formes”. Il est le fondateur du formalisme en sociologie, courant que l’on peut définir comme la tentative de construire une “géométrie sociale”. Bien qu’il n’ait pu atteindre son but, il eut une grande influence sur le développement de la sociologie. Ses œuvres principales sont: Sociologie et épistémologie, Les problèmes de la philosophie de l’histoire (1892), Soziale Differenzierung (1890). Pour élargir: F. Léger, La pensée de Georges Simmel, Kiné Éditeur, 1968. Smith Adam, économiste britannique, 1723-1790. Les principaux points de sa doctrine sont: la considération du travail comme source de la richesse, la théorie de la valeur fondée sur les notions de l’offre et de la demande, la théorie de l’autorégulation de la société (chacun répondant à ses intérêts, une harmonie s’instaure dans la société comme par l’action d’une “main invisible”), la liberté du commerce, et la concurrence privilégiée et élevée à la hauteur d’un axiome. Son œuvre principale fut Recherches sur la nature et les causes de la richesse des nations (1776). Pour élargir: R. Heilbroner, Les grands économistes, Seuil, 1970. Spencer Herbert, philosophe britannique, 1820-1903. L’idée directrice de l’œuvre de Spencer est celle de l’évolution naturelle, en vertu d’une loi de passage fatal de l’homogène à l’hétérogène, de l’indéfini au défini, du simple au complexe. Ce principe s’applique aussi bien au domaine de la nature, qu’à ceux de la psychologie et de la sociologie. À leur tour, toutes les mutations que nous observons dans ces différents domaines sont la manifestation d’un être absolu inaccessible: la Force. Ainsi l’évolution est, pour Spencer, l’essence même de la réalité toute entière et elle atteint par là une portée métaphysique.
Ses œuvres les plus importantes: Principes de Psychologie (1855), Premiers Principes (1862), Principes de biologie (1864), Principes de sociologie (1877-1896). Pour élargir: G. Gurvitch, Trois chapitres d’histoire de la sociologie: Auguste Comte, Karl Marx, Herbert Spencer, CDU, 1958. Spengler Oswald, philosophe allemand, 1880-1936. Son système est construit sur la constatation du déclin de la société occidentale depuis le XIXe siècle. Dans une ample philosophie de l’histoire au déterminisme absolu, sans place pour le hasard ou le contingent, il décrit les grandes cultures depuis l’Égypte jusqu’à la culture occidentale, en passant par l’Inde, la Chine, la Grèce, etc., dans lesquelles il reconnaît une jeunesse, une maturité et un déclin. Il établit la différence dans chacune d’entre elles entre culture et civilisation, la première étant l’authentique création de l’esprit, tandis que dans la seconde l’intelligence prend le dessus et annonce le déclin. Ces conclusions sont appliquées à l’Europe achevant sa course; incapable de recréer sa culture, elle abandonne son avenir entre les mains des “ingénieurs”, ce qui donne aux Allemands la mission historique de sauver la dernière race héroïque et puissante. Son œuvre la plus connue est Le Déclin de l’Occident (1918). Pour élargir: F. Alquié, Le rationalisme de Spengler, PUF, 1981; R. Misrahi, Spengler, introduction et choix de textes, Seghers, 1964. Spinoza Baruch, philosophe hollandais d’origine judéo-portugaise, 16321677. Sa philosophie peut être interprétée comme une tentative de chercher dans la connaissance le bien suprême, susceptible de donner à l’individu la sérénité de l’esprit. Ce bien suprême n’est autre que la connaissance de Dieu, qui est à son tour l’unité de l’univers, c’est-à-dire ce qui existe, ou encore la Réalité, la Substance ou la Nature. Ce que nous connaissons de celle-ci, ce sont ses attributs, c’est-à-dire la pensée et l’étendue, et ses modes qui sont les choses singulières. La réalité dont parle Spinoza est ainsi éminemment positive. Dans un pareil système, où tout est Dieu, on a vu un panthéisme et même un athéisme. En tout cas cette conception de la réalité comme identique à Dieu (et non comme émanant de lui) fait de ce système une métaphysique très singulière et profondément originale. Spinoza tente de donner à sa démarche la rigueur des raisonnements
mathématiques; son Éthique est ainsi construite more geometrico, c’est-àdire qu’elle procède au moyen d’axiomes, de définitions et de démonstrations. Ses œuvres principales furent le Traité théologico-politique (1670), le Traité de la réforme de l’entendement (1677) et l’Éthique (1677). Pour élargir: R. Misrahi, Spinoza, éditions. J. Grancher, 1992. Spranger Eduard, philosophe allemand, 1882-1963. Disciple de Dilthey, il compléta et systématisa les travaux de celui-ci, spécialement en ce qui concerne l’approfondissement de la notion de compréhension. Comprendre est pour lui saisir le sens; la compréhension est possible parce que ce qui est compris a un sens, c’est-à-dire un rapport à une totalité structurée. Ses travaux portent également sur les rapports entre culture et éducation, et contiennent des réflexions sur le rôle de l’éducateur, dont la fonction est moins de transmettre des contenus que de former les esprits. Ses Œuvres ont été rassemblées en 9 volumes. Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. Tarski Alfred, logicien et mathématicien américain d’origine polonaise, 1902-1983. Introduit en logique et en philosophie l’idée moderne de vérité comme concept sémantique. Il reprend l’idée classique de la vérité comme correspondance, déjà définie par Aristote, mais introduit l’idée selon laquelle la vérité d’une proposition est formulable seulement dans une méta proposition. Pour affirmer ou nier la vérité d’une proposition, il faut donc deux niveaux de langage que l’on peut préciser à l’aide des guillemets: ““La neige est blanche” est vrai si et seulement si la neige est blanche”. Cette distinction importante montre qu’on ne peut pas décider de la vérité ou de la fausseté d’une proposition dans son propre langage. Son œuvre principale est Logique, Sémantique, Métamathématique (1956). Pour élargir: Pierre Jacob, L’empirisme logique, Éditions de Minuit, Paris, 1980, chap. “Le renouveau du réalisme”, p. 257. Taylor sir Edward Burnett, ethnologue britannique, 1832-1917.
Il proposa une théorie animiste selon laquelle la mentalité primitive conçoit la réalité comme composée d’êtres dotés d’une âme et donc animés d’intentions (que ce soient des hommes, des animaux, des minéraux ou de végétaux). Cette théorie fut largement critiquée, notamment par Mauss et Durkheim. Son livre Anthropology, an introduction to the Study of Man and Civilization (1881) contient, outre ses propres théories, un résumé de la science anthropologique de l’époque. Pour élargir: J. Poirier, Histoire de l’ethnologie, PUF, 1969. Thalès de Milet, philosophe, astronome et géomètre grec, 625-547 av. J.C. Son système philosophique admet que tout provient de l’élément aquatique, aussi bien la vie que les autres éléments. Pour élargir: P.-M. Schuhl, Essai sur la formation de la pensée grecque, A. Michel, 1934. Waismann Friederich, philosophe allemand émigré en Angleterre, 18961959. Appartient pendant son séjour à Vienne au cercle néopositiviste et rejoint par la suite des positions proches de la pensée de Wittgenstein. II soutient une thèse conventionnaliste des mathématiques. On lui doit également l’idée selon laquelle en vertu de leur caractère “ouvert”, les notions empiriques ne sont jamais tout à fait vérifiables. Ses travaux figurent dans Einführung in das mathematische Denken: die Begriffsbildung der Modern Mathematik. Pour élargir: P. Jacob, L’empirisme logique, éd. de Minuit, 1980. Watson John B., psychologue américain, 1878-1958. On doit à Watson une réaction vigoureuse contre la psychologie traditionnelle du XIXe siècle et contre les méthodes introspectionnistes. Ce n’est pas en se penchant sur nous-mêmes et en cherchant les mobiles de nos actes que nous parviendrons à constituer une psychologie objective. Le seul objet d’étude de cette discipline doit être constitué par ce qui est observable par tous, autrement dit le comportement. D’où le nom de sa théorie: le béhaviorisme. Son œuvre principale est Le béhaviorisme (1925).
Pour élargir: P. Naville, La psychologie du comportement- le béhaviorisme de Watson, Gallimard 1963. Weierstrass Karl, mathématicien allemand, 1815-1897. Avec Cauchy et Riemann il contribua à mettre l’analyse sur des bases rigoureuses, donnant une formulation aux notions comme celles de limites, continuité qui n’avaient alors qu’une interprétation vague. On lui doit la notion de convergence uniforme d’une suite de fonctions, ainsi que des développements de la notion de fonction analytique, ce qui lui permit de développer son approche consistant en l’étude “locale” des fonctions. Il développa le premier l’idée d’une fonction continue sur un intervalle et n’admettant de dérivée en aucun point et contribua à l’étude des fonctions elliptiques. Pour élargir: Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Hermann, 1978. Weyl Hermann, mathématicien allemand, 1885-1955. Élève de Hilbert, on lui doit la première construction rigoureuse des fonctions de Riemann et des travaux importants en théorie des nombres; il s’est considéré comme intuitionniste. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987. Whewell William, philosophe britannique, 1794-1866. Se fondant sur une étude historique des procédés de la science naturelle, il recherche et essaye de déterminer les éléments a priori intervenant dans la découverte scientifique et leur rapport avec les éléments procédant de l’expérience. L’ a priori consiste principalement en des idées vides ou des représentations générales, mais il ne s’agit pas de structures figées ou statiques; il s’agit au contraire de formes qui se modifient avec l’évolution de la connaissance. Quant aux faits eux-mêmes, la science ne consiste pas à les cueillir tels que nous les percevons, mais à les organiser au moyen d’hypothèses. La philosophie de Whewell représente la reconnaissance de la valeur de l’hypothèse, et donc de la méthode expérimentale, dans la construction de la science. Ses œuvres principales furent Philosophy of inductive sciences founded upon their history (1840), On the philosophy of Discovery (1860). Pour élargir: R. Blanché, Le rationalisme de Whewell, Alcan, 1935.
Whitehead Alfred North, philosophe et mathématicien américain, d’origine britannique, 1861-1947. On distingue trois périodes dans son œuvre: les recherches mathématiques et logiques, les recherches épistémologiques et la quête métaphysique. Les premières donnent lieu aux célèbres Principia Mathematica (1910-1913) en collaboration avec Bertrand Russell. Les questions épistémologiques qu’il aborde ensuite sont solidaires en fait de ses positions métaphysiques; adhérant à l’empirisme, il essayera par la suite de concilier le monde de la perception et celui de la science. Il aboutit à une vision organique de la nature et à un vitalisme. Pour élargir: B. Russell, Histoire de mes idées philosophiques, Gallimard, 1961. Wiener Norbert, mathématicien américain, 1894-1964. Esprit très précoce, il acheva un premier cycle universitaire en mathématiques à 14 ans et une thèse de philosophie à 18 ans. Professeur au MIT, il y a mené de brillantes recherches en mathématiques, puis fondé la cybernétique, développant des notions comme celles de contrôle et de filtre qui sont d’une extrême importance dans le domaine de l’automatique. Son œuvre principale fut Cybernetics, or Control and Communication in the Man and the Machine (1948). Pour élargir: L. Couffignal, La cybernétique, PUF, 1963. Wittgenstein Ludwig Joseph, philosophe et logicien allemand, naturalisé britannique, 1889-1951. De l’extrême complexité de la philosophie de Wittgenstein, écrite de façon discontinue et sous forme d’aphorismes, on peut extraire un fil conducteur: celui des rapports entre le langage et le monde. Le langage est considéré comme une image du monde; à son tour le monde est l’ensemble non pas des choses mais des faits élémentaires. Dans cet aspect de sa philosophie, Wittgenstein soutient une thèse voisine de celle de Russell: toute proposition douée de sens peut être composée d’atomes logiques. Car une proposition qui n’est pas composée à partir de faits simples ou atomiques n’a pas de sens. Wittgenstein radicalise la distinction tripartite de Russell: propositions vraies, fausses et dépourvues de sens. Ces dernières ne sont pas pour lui des propositions ne respectant pas la théorie des types logiques (selon la théorie des types de Russell),
mais des propositions sans objet. Ainsi, la métaphysique est composée exclusivement de cette espèce d’énoncés et est en conséquence dépourvue de signification. Son œuvre principale est le Tractatus logico-philosophicus (1921). Pour élargir: A. Ayer, Wittgenstein, Seghers, 1986. Wundt Wilhelm, psychologue et physiologiste allemand, 1832-1920. Dans ses travaux, on retient plus particulièrement la formation d’une psychologie scientifique, mais cette œuvre est solidaire d’une réflexion philosophique plus large destinée à combattre le positivisme régnant et à le dépasser. Ce dépassement est atteint par la reconnaissance de l’autonomie et de la spécificité des sciences de l’esprit (que le positivisme voulait réduire aux sciences de la nature). Dans ce but, Wundt propose une psychologie scientifique destinée à servir de pont entre les sciences naturelles et les sciences de la culture. Il s’agit d’une psychologie expérimentale qui s’en tient aux données de l’expérience externe aussi bien qu’à celles de l’expérience interne, c’est-à-dire au vécu du sujet. Son œuvre principale est Éléments de psychologie physiologique (18731874). Pour élargir: Dictionnaire des philosophes, sous la direction de D. Huisman, PUF 1984. Zermelo Ernst, mathématicien allemand, 1871-1953. On lui doit une première axiomatisation de la théorie des ensembles, qui fut parachevée par A. Fränkel et Skolem dans les années 20 (qui porte leurs noms en commun) et le théorème suivant lequel tout ensemble peut être bien ordonné; ce dernier résultat est équivalent à l’axiome du choix. Pour élargir: Jean Dieudonné, Pour l’honneur de l’esprit humain, Hachette, 1987.
BIBLIOGRAPHIE Aristote, Les Seconds Analytiques, Traduction J. Tricot, Vrin, Paris 1987. Baldus Richard, Formalismus und Intuitionismus in der Mathematik, Braun, Karlsruhe, 1924. Barlett Frederic C. “The Relevance of Visual Imagery to the Process of Thinking”, British Journal of psychology, George Allen & Unwin, Londres, XVIII, (1927), 23. - Thinking: An Experimental and Social Study, Basic Books, New York, 1958. Bates D. R. (éd.), The Earth and its Atmosphere, Basic Books, New York 1957. Battro A. M., “Psicología, geometría y filosofía del espacio visual”, Rev. Latinoamer. de Filosofía, V (1969), 19-31. Baylis, C. A., “Are Some Propositions Neither True Nor False?”, Philosophy of Science, III, (1936), 157. Bergson, Henri, “Introduction à la métaphysique et de morale, XI, (1903),1.
métaphysique”,
Revue
de
- L’évolution créatrice, (1907), Presses Universitaires de France, Paris, 1948. - “L’intuition philosophique”, Revue de métaphysique et de morale, XIX, (1911), 809. Bernard Claude, Introduction à l’étude de la médecine expérimentale, (1865), Flammarion, Paris 1952.
Beth E. W., «Semantic Construction of Intuitionist Logic”, Medelingen der Koninklijke Nederlandse Akademie van Wettenschappen, Afd. Letterkunde, N. S., XIX, N° 11, (1956), 357. - “Cogito ergo sum raisonnement ou intuition?”, Dialectica, XII,(1958), 223. Bishop, Errett, Foundations of Constructive Analysis, McGraw-Hill (1967). - “The crisis in contemporary mathematics”, Historia Mathematica, 2 (1975), 507-517. Black Max, The Nature of mathematics, Routledge & Kegan Paul, Londres, 1933. Bôcher Maxime, “The Fundamental Conceptions and Methods of Mathematics”, Bulletin of the American Mathematical Society, XI (1905), 115. Bunge, Mario, “La fenomenología y la ciencia”, Cuadernos Americanos, (México), X, n° 4 (1951), 108. - “Do computers think?”, British Journal for the Philosophy of Science, 7, 139, 212, (1956). - Metascientific Queries. Springfield, III, Charles W. Thomas, 1959. - Causality: The Place of the Causal Principle in Modern Science. Harvard University Press, Cambridge, Mass. 1959. - “The Place of Induction in Science”, Philosophy of Science, XXVII (1960) 262. - Ética y Ciencia, Siglo Veinte, Buenos Aires, 1960. - “The Weight of Simplicity in the Construction and Assaying of Scientific Theories”, Philosophy of Science, XXVIII (1961), 120. - “Ethics as a Science”, Philosophy and Phenomenological Research, XXIl 139 (1961). - The Myth of Simplicity, Englewood Cliffs, Prentice-Hall, N. Jersey 1963. - Foundations of Physics, Springer, Berlin-Heidelberg-New York, 1967. - Filosofía de la física, Ariel, Barcelona 1978. Trad. française de F. Balibar, “Philosophie de la Physique”, Seuil, Paris, 1975.
- “The Weight of Simplicity in the Construction and Assaying of Scientific Theories”, Philosophy of Science, XI (1961), 120. - “Ethics as a Science”, Philosophy and Phenomenological Research, XXIl 139 (1961). - The Myth of Simplicity, Englewood Cliffs, Prentice-Hall, N. Jersey 1963. - Foundations of Physics, Springer, Berlin-Heidelberg-New York, 1967. - Filosofía de la física, Ariel, Barcelona 1978. Trad. française de F. Balibar, “Philosophie de la Physique”, Seuil, Paris, 1975. - Treatise on Basic Philosophy, 8 tomes publiés jusqu’à présent, Dordrecht, Reidel, 1974, 1977, 1979, 1983, 1985. - La investigación científica, 2e éd. Trad. de M. Sacristán, Ariel, Barcelona, 1983. - Controversias en física, Tecnos, Madrid, 1983. - The Mind-Body Problem, Pergamon Press Oxford, (1980) - Racionalidad y realismo,. Alianza Universidad, Madrid, 1985. - Seudociencia e ideología,. Alianza Universidad, Madrid 1985. - Philosophy of Science and Technology, 2 volumes,Reidel, Dordrecht, 1985. - El problema mente-cerebro, Tecnos, Madrid 1985. Borel Émile, “Logique et intuition en mathématiques”, Revue de métaphysique et de morale, XV (1907), 273. Bridgman P. W., Reflections of a Physicist, Philosophical Library, New York 1955. Brouwer L. E. J., “Intuitionism and Formalism”, Bulletin of the American Mathematical Society, XX (1913), 81. Cannon Walter B, The Way of an Investigator, Norton, New York 1945. Carnap Rudolf, “Die logizistische Grundlegung der Mathematik”, Erkenntnis, II 1931, 91. - Foundations of Logic and Mathematics, dans International Encyclopedia of Unified Science, vol. I, n° 3, University of Chicago Press, Chicago, 1939.
- Logical Foundations of Probability, The University of Chicago Press, Chicago, 1950. Cobb Stanley, Foundation of Neuropsychiatry, 5e éd., Williams & Wilkins, Baltimore 1952. Courant Richard et Robbins, Herbert, What is Mathematics?, Oxford University Press, Londres, 1941. Couturat Louis, Les principes des mathématiques,, Alcan, Paris 1905. - “Logitisque et intuition”, Revue de métaphysique et de morale, XXI 1913, 260. Curry Haskell B., Outlines of a Formalist Philosophy of Mathematics, North-Holland, Amsterdam 1951. Denjoy Arnaud, “Rapport général”, Congrès International de Philosophie des Sciences (Paris, 1949), Hermann, Paris, 1951. Descartes René, Oeuvres, édité par V. Cousin, Levrault, Paris 1824-26. Dewey John, Essays in Experimental Logic (1916), Dover, New York 1953. Dieudonné Jean, “L’axiomatique dans les mathématiques modernes”, Congrès International de Philosophie des Sciences (Paris, 1949), Hermann, Paris, 1951, III. Dilthey Wilhelm, Gesammelte Werke, Teubner, Leipzig-Berlin 1923. Trad. française de S. Mesure, “Œuvres”, éd. du Cerf, Paris, 1988. Dubos René J., Louis Pasteur Free Lance of Science, Little Brown, Boston 1950. Trad. française par Elysabeth Dussause, Louis Pasteur Franc-tireur de la science, PUF, Paris, 1955. Dummet Michael, Elements of Intuitionism, Clarendon Press. Oxford Eady E. T., “Climate”. dans The Earth and Its Atmosphere, compil. par D.R. Bates, Basic Books, New York 1957. Evans Bergen, The Natural History of Nonsense (1946), Vintage Books, New York,1959. Ewing A.C., “Reason and Intuition”, Proceedings of the British Academy, XXVII (1941). Feigl Herbert, et Brodbeck, May (compilateurs), Readings in the Philosophy of Science, Appleton-Century-Crofts, New York, 1953.
Feyerabend Paul K., Against Method, Verso, Londres, 1975. trad. française de Baudouin Jourdant et Agnès Schlumberger, Contre la méthode, éd. du Seuil, Paris, 1979. Forrester, J. W., “Counterintuitive behavior of social systems”, Theory and Decision, 2 (1971) 109-140. Frank Philipp, Modern Science and Its Philosophy, Harvard University Press, Mass. Cambridge 1949. Freud Sigmund, Introduction à la psychanalyse, trad. S. Jankelevitch, Payot, Paris, 1990. Freudenthal, Hans, “Le développement de la notion d’espace depuis Kant”, Sciences, n° 3 (1959). Germani Gino, “The Developement and Present State of Sociology in Latin America”, Transactions of the Fourth World Congress of Sociology, International Sociological Association, Londres, (1959), vol.1. Gilhoy K., Thinking: Directed, Undirected and Creative, Academic Press. Londres Goodman Nelson, Fact, Fiction, Forecast, Athlone Press, Londres, 1954;. Harvard University Press, Cambridge, Mass, 1955. Trad. française de Pierre Jacob, Faits, fictions et prédictions, avant-propos de Hilary Putnam, 4e édition, Les éditions de Minuit, Paris, 1985. Hadamard Jacques, The Psychology of Invention in the Mathematical Field (1945), Dover, New York, 1954. Hahn Hans, “The Crisis of Intuition”, dans The World of Mathematics, compilé par J.R. Newman, Simon & Schuster, New York, 1956. Hartmann Nicolai, Einführung in die Philosophie. 3e ed., Luise Hanckel, Osnabrück, 1954. Heyting A., “Die intuitionistische Grundlegung der Mathematik”, Erkenntnis, II (1931), 106. - Intuitionism: An Introduction, North Holland, Amsterdam, 1956. - “La conception intuitionniste de la logique”, Les études philosophiques, XI (1956), 226. - “Intuitionism in Mathematics”, vol. 1 de Philosophy in the Mid-Century, compilé par R. Klibansky, La Nuova Italia, Florence 1958.
- (compilateur), Constructivity in Mathematics: Proceedings of the Colloquim, held at Amsterdam, 1957, North-Holland, Amsterdam 1959. Hilbert David, Grundlagen der Geometrie (1899), 7e ed., Teubner, Leipzig Berlin, 1930.Trad. française: Les Fondements de !a géométrie; édition critique avec introduction et compléments, préparée par Paul Rossier. Paris, Dunod, 1971. - “Uber das Unendliche”, Mathematische Annalen, XCV, (1925), 161. - avec Coen-Vossen, S. C., Anschauliche Geometrie, Springer, Berlin, 1932 Husserl Edmund, Husserliana, Martinus Nijhoff, La Haye, 1950. - Philosophy der Arithmetik, Haacke, Leipzig, 1891. Trad. française de Jacques English, “Philosophie de l’arithmétique”, PUF, Paris, 1972. - Ideen zu einer reinen Phaenomenologie und phaenomenologischen Philosophie, Max Niemeyer, Halle, 1913. Trad. française de Paul Ricœur, Idées directrices pour une phénoménologie et une philosophie phénoménologiques pures, Gallimard, Paris, 1950. James William, Essays in Radical Empiricism and a Pluralistic Universe (1909), Longmans, Green, New York, 1958. Kant Immanuel, Kritik der reinen Vernunft (1781,1787), édition de R. Schmidt, Meiner, Hambourg, 1952. Trad. française de Ferdinand Alquié, Critique de la raison pure, Gallimard, Paris, 1992. Klein Felix, Elementarmathematik von höheren Standpunkt aus, Teubner, Leipzig, 1908. Klemm Friedrich, A History of Western Technology, trad. anglaise de D. Waley Singer, Charles Scribner’s Sons, New York 1959. Koch Sigmund (éd.), Psychology: A Study of a Science, vol11, McGrawHill, New York, 1959. Kolnai Aurel, The War Against the West, Gollancz, Londres, 1938. Kuhn Thomas S., The Structure of Scientific Revolutions, University of Chicago Press, Chicago, 1962. Trad. française de Laure Meyer, La structure des révolutions scientifiques, Flammarion, Paris, 1989. Le Lionnais F. (compilateur), Les grands courants de la pensée mathématique, Les Cahiers du Sud, Paris, 1848. Le Roy Edouard, La pensée intuitive, 2 vols., Boivin, Paris, 1929 et 1930.
Libby Walter, “The Scientific Imagination”, Scientific Monthly, XV (1922), 263. Mach Ernst, Erkenntnis und Irrtum, Barth, Leipzig, 1905. Traduction française: La Connaissance et l’Erreur, éditions Vigdor. Margenau Henry, “Phenomenology and Physics”, Philosophy and Phenomenological Research, V, (1944), 269. Martindale C., Cognition and Consciousness, 111, Dorsey Press. Homewood. McKellar Peter, Imagination and Thinking, Cohen & West, Londres, 1957. Medawar P., Induction and Intuition in Scientific Thought, American Philosophical Society, Philadelphy, 1969. Mikuliskij S. R. et Jarosevkij, M. G., “Psychologie des wissenschatfliches Schaffens und Wissenschaftslehre”, Zeitschrift für allgemeine Wissenschaftstheorie, I (1970), 83-103. Mises Richard Von, Positivism: A Study in Human Understanding, Harvard University Press, Cambridge, Mass, 1951. Moore G. E., Principia Ethica (1903), Cambridge University Press, Cambridge, Mass. 1959. Nagel Ernest et Newman, James R., Gödel’s Proof, New York University Press, New York,1958. Trad. française de Ernest Nagel et Jean-Baptiste Scherrer, “Le théorème de Gödel”, Seuil, Paris, 1989. Neumann Johann Von, “Die formalistische Mathematik”, Erkenntnis, II (1931), 116.
Grundlegung
der
Osgood Charles E., Method and Theory in Experimental Psychology, Oxford University Press, New York, 1953. Trad. française. Pap Arthur, Elements of analytic Philosophy, Macmillan, New York 1949. Pappert Seymour, Mindstorms, Basic Books, New York, 1980. Trad. française de Rose- Marie Vassallo-Villaneau, Jaillissement de l’esprit, ordinateurs et apprentissage, Flammarion, Paris, 1981. Pederson-Krag Geraldine, “The Use of Metaphor in Analytic Thinking”, Psychoanalytic Quarterly, XXV (1956), 66. Peirce Charles S., Values in a Universe of Chance, compilé par P. Wiener, New York Doubleday 1958. Piaget Jean, La psychologie de l’intelligence, Armand Collin, Paris, 1970.
Platt Washington et Baker, Ross A., “The Relation of the Scientific “Hunch” to Research”, Journal of Chemical Education, VIII (1931), 1969. Poincaré Henri, La valeur de la science, Paris, Flammarion, 1906. - Science et méthode, Paris, Flammarion, 1908. Polanyi Michael, Personal Knowledge, University of Chicago Press. Chicago. Polya G., Mathematics and Plausible Reasoning, 2 vols., Princeton University Press, Princeton 1954. Trad. française. Popper Karl R., The Logic of Scientific Discovery (1935), Hutchinson, Londres 1959. Trad. française de Nicole Thyssen-Rutten et Philippe Devaux, préface de Jacques Monod, La logique de la découverte scientifique, Payot, Paris, 1973. - “On the Sources of Our Knowledge”, Indian Journal of Philosophy, I, 3 (1959). Quine Willard V., From a Logical Point of View, Harvard University Press, Cambridge,Mass 1953. - Word and Object, The Technological Press of the M.I.T. et Wiley, New York, 1960. Trad. française de Joseph Dopp et Paul Gochet, Le mot et la chose, Flammarion, Paris, 1977. Reichenbach Hans, The Philosophy of Space and Time (1928), Dover Publications Inc., New York, 1958. Rey Pastor Julio, Introducción a la matemática superior, Biblioteca Corona, Madrid, 1916. Ribot Théodule, Essai sur l’imagination créatice, Alcan, Paris, 1900. Russel Bertrand, Mysticism and Logic (1918), Penguin Books, Londres, 1953. - “On Vagueness”, Australasian Journal of Psychology and Philosophy, I (1923), 84. Scheler Max, Der Formalismus in der Ethik und die materiale Wertethik (1916), Francke, Berne, 1954. Trad. française de Maurice de Gandillac, Le formalisme et l’éthique matériale des valeurs, Gallimard, Paris, 1991. Schiller F. C. S., “Hypothesis”, dans le vol. II de Studies in the History and Method of Science, compilé par C. Singer, Clarendon Press, Oxford, 1921.
Schlick Moritz, Allgemeine Erkenntnislehre, 2e ed., Springer, Berlin 1925. Sellars Roy Wood; McGill, J. et Farber, Marvin (comp.), Philosophy for the Future, Macmillan, New York, 1949. Seyle Hans, From Dream to Discovery, McGraw-Hill, New York, 1964. Trad. française, Du rêve à la découverte: l’esprit scientifique, La presse, Montréal, 1973. Spinoza Baruch, Éthique, texte bilingue, trad. française de Ch. Appuhn, Garnier, Paris, 1909. Springbett B. M.; Dark J. G. et Clake, “An Approach to the Measurement of Creative Thinking”, Canadian Journal of psychology,XI 1957, 9. Stern Alfred, “Significado de la fenomenología”, Minerva, Buenos Aires, I(1944), 197. - “Max Scheler, filósofo de la guerra total y del estado totalitario”, Minerva, II, 1945, 109. Struik, Dirk J., “Mathematics”, dans Philosophy for the Future, compilé par R. W. Sellars et al., New York, Macmillan, 1949. Suppes Patrick, Introduction to Logic, Van Nostrand, Princeton 1957. Tarski Alfred, Logic, Semantics, Metamathematics, Trad. en anglais par J. H. Woodger, Clarendon Press, Oxford, 1956. Trad. française sous la direction de Gilles Gaston Granger, Logique, Sémantique, Métamathématique, Armand Collin, Paris, 1972. Taylor Donald W., Berrye Paul C., et Block Clifford H., “Does Group Participation when Using Brainstorming Facilitate or Inhibit Creative Thinking?”, Administrative Science Quarterly, III (1958) 23. Waismann Friedrich, Einführung in das mathematische Denken: Die Begriffsbildung der modernen Mathematik, Gerold, 1936. Wertheimer Max, Productive Thinking, Harper & Brothers, New York et Londres, 1945. Weyl Hermann, Philosophy of Mathematics and Natural Science, Princeton University Press, Princeton, 1949. Whewell William, History of the Inductive Sciences, 3e éd., 2 vols, Appleton, New York, 1858. - Novum Organum Renovatum, 3e éd., Parker, Londres, 1858.
Wilder Raymon, L., Introduction to the Foundations of Mathematics, Whiley, New York, 1952. Yukawa Hideki, Creativity and Intuition, Kodansha International, Tokio, 1973. Zilsey Edgar, “Phenomenology and Natural Science “, Philosophy of Science, VIII, 1941, 26.
Œuvres citées dans les glossaires Alquié Ferdinand, Le rationalisme de Spengler, Paris, PUF, 1981. Andoyer H., L’œuvre scientifique de Laplace, Paris, Payot, 1922. Ardouin P., Georges Cuvier, promoteur de l’idée évolutionniste et créateur de la biologie moderne, Expans. scientifique française, 1970. Aron Raymond, La philosophie critique de l’histoire, Paris, Vrin, 1950. - Les étapes de la pensée sociologique, Paris, Gallimard, 1967. Aubenque P. et André J. M., Sénèque, Paris, Seghers, 1964. Audry C., Jean-Paul Sartre, Paris, Seghers, 1966. Ayer Alfred, Langage, Vérité et Logique, Paris, Flammarion, 1956. - Wittgenstein, Paris, Seghers, 1986. Balandier Georges, Gurvitch, sa vie, son œuvre, Paris, PUF, 1972. Barnett Lincoln, Einstein et l’univers, Paris, Gallimard, 1951. Barroux R., Pierre de la Ramée et son influence philosophique, 1922. Baudry L., G. d’Ockham, sa vie, ses œuvres, ses idées sociales et politiques, Paris, Vrin, 1950. Belaval Y., Leibniz, initiation à sa philosophie, Paris, Vrin, 1964. Bell E. T., Les Grands mathématiciens, Paris, Payot, 1939. Bernard Claude, La Méthode expérimentale, Paris, éditions Vigdor, version Lector, 1993. Blanché Robert, La méthode expérimentale et la philosophie de la physique, Paris, A. Colin, 1969.
- Introduction à la logique contemporaine, Paris, A. Colin, 1968. - L’induction scientifique et les lois naturelles, Paris, PUF, 1975. - La logique et son histoire, d’Aristote à Russell, Paris, A. Colin, 1970. - Le rationalisme de Whewell, Paris, Alcan, 1935. Bonnet Claude, Manuel Pratique de Psychophysique, Paris, Armand Colin, 1986. Borel Émile, Probabilité et Certitude, Paris, PUF, 1963. Boss G., John Stuart Mill: induction et utilité, Paris, PUF, 1990. Boudot Maurice, Logique inductive et probabilité, Paris, A. Colin, 1972. Boutot Alain, Heidegger, Paris, PUF, 1970. Boutoul G., Histoire de la sociologie, Paris, PUF, 1961. Boutroux É., William James, Paris, A. Colin, 1911. Bouveresse R., Karl Popper, Paris, Vrin, 1978. Broglie Louis de, Un itinéraire scientifique, Paris, La Découverte, 1987. Brun Jean, Platon et l’Académie, Paris, PUF, 1960. - Aristote et le Lycée, Paris, PUF, 1961. - L’épicuréisme, Paris, PUF, 1971. - Le Stoïcisme, Paris, PUF 1958. - Les Présocratiques, Paris, PUF, 1973. Buican, Denis, Darwin et le darwinisme, Paris, PUF, 1987. Bunge Mario, La science, sa méthode et sa philosophie, Paris, éditions Vigdor, 1994. - Causality; the Place of the Causal Principle in Modern Science, Cambridge, Mass. Harvard University Press, 1959. Casanova G., L’algèbre de Boole, Paris, PUF, 1979. Cazeneuve Jean, Sociologie de Marcel Mauss, Paris, PUF, Paris, 1968. - Lévy-Bruhl, Paris, PUF, 1965. Chalmers Alan, Qu’est-ce que la science? Récents développements en philosophie des sciences, Paris, La Découverte, 1987. Chevalier J., Bergson, Paris, Plon, 1940.
Clavelin Maurice, La philosophie naturelle de Galilée, Paris, A. Colin, 1968. Combès M., Fondements des mathématiques, Paris, PUF, 1971. Copi Irving, Introduction to Logic, New York, The MacMillan Company, 1953. Cornu A., K. Marx et F. Engels, leur vie et leur œuvre, Paris, PUF, 1955. Couffignal L., La cybernétique, Paris, PUF, 1963. Couturat Louis, De Leibnitz à Russell, Paris, Presses de l’école normale supérieure (1983). Cresson A. et Deleuze G., David Hume, sa vie, son oeuvre, Paris, PUF, 1952. Cresson, André, Claude Bernard, sa vie son œuvre, Paris, PUF 1960. - Francis Bacon, sa vie son œuvre, Paris, PUF 1956. - Henri Bergson, sa vie, son œuvre, Paris, PUF, 1961. Cuny H., Pavlov, Paris, Seghers, 1962. D’Hondt Jacques, Hegel et le hégélianisme, Paris, PUF, 1991. Dahan-Dalmedico A. et Peiffer J, Une histoire des mathématiques, routes et dédales, Paris, Seuil, 1986. Daumas M., Lavoisier, Paris, Gallimard, 1949. de Romilly, Jacqueline, Introduction et présentation dans Hérodote, Œuvres complètes, Paris, Gallimard, 1989. de Rouilhan Philippe, Frege les paradoxes de la représentation, Paris, Éditions de Minuit, 1988. de Waelhens Alphonse, La philosophie de Martin Heidegger, Louvain, Nauwaelaerts, 1942. - Une philosophie de l’ambigüité, l’existentialisme de Maurice Merleau Ponty, 1951. Deheuvels P., La probabilité, le hasard, la certitude, Paris, PUF, 1982. Delachet A., La Topologie, Paris, PUF, 1978. Delay J., La Psychophysiologie humaine, Paris, PUF, 1945. Devaux P., Les aventuriers de la science, Paris, Magnard, 1947. Dolle J.-M., Pour comprendre Jean Piaget, Toulouse, Privat, 1974.
Dussort, H., L’école de Marbourg, Paris, PUF, 1963. Duvignaud J., Durkheim, Paris, PUF, 1965. Einstein A. et Infeld L., L’évolution des idées en physique, Paris, Payot, 1963. Einstein Albert, La théorie de la Relativité restreinte et générale, exposé élémentaire, Paris, Paris, Gauthier-Villars, 1969. Ekeland Ivar, Le chaos, Paris, Flammarion, 1995. Falletta Nicolas, Le Livre des Paradoxes, Paris, Belfond éditeur, 1983. Faure R, Boss J.-P. et le Garff, A., La recherche opérationnelle, Paris, PUF 1980. Flourens Pierre, Histoire des travaux et des idées de Buffon, Paris, Éditions Aujourd’hui, 1975. Foulquié Paul, La Dialectique, Paris, PUF 1949. Gaillard Christian, Jung, Paris, PUF, 1975. Geymonat L., Galilée, Paris, Laffont, 1968. Gilson Étienne, Constantes philosophiques de l’être, Paris, Vrin, 1983. - La philosophie au Moyen-âge, Paris, Payot, 1830. Gouhier Henri, La philosophie d’A. Comte, esquisses, Paris, Vrin, 1987. Grmek Mirko, Claude Bernard et la méthode expérimentale, Paris, éd. Vigdor. Groethuyssen Bernard, Anthropologie philosophique, Paris, Gallimard, 1953. Guillaime Paul, Psychologie de la forme, Paris, Flammarion, 1937. Gurvitch G., Trois chapitres d’histoire de la sociologie: Auguste Comte, Karl Marx, Herbert Spencer, CDU, 1958. - Les tendances actuelles de la philosophie allemande, Paris, Vrin, 1949. Gusdorff G., Les sciences humaines et la pensée occidentale, t. III: La révolution galiléenne, Payot 1969. Hamelin Octave, Le système de Descartes, Paris, éditions Vigdor. Heilbroner R., Les grands économistes, Paris, Seuil, 1970. Hempel Carl, Éléments d’épistémologie, Paris, A. Colin édition, 1972.
Hirtz H., Faraday, Paris, Gauthier-Villard, 1969. Huisman Denis, L’esthétique, PUF, 1954. Itard Jean Les livres arithmétiques d’Euclide, Paris, Hermann, 1962 Jaccard Roland, Freud, Paris, PUF, 1983. - La tentation nihiliste, Paris, PUF, 1961. Jacob François, La logique du vivant, Paris, Gallimard, 1970. Jacob Pierre, L’empirisme logique, Paris, Éditions de Minuit, 1990. Jacquard Albert, Les probabilités, Paris, PUF, 1974. Jacques Jean, Berthelot, autopsie d’un mythe, Paris, Belin, 1987. Jaspers Karl, Autobiographie philosophique, Paris, Aubier, 1963. - Les grands philosophes, IVe partie, Paris, Plon, 1972. - Nietzsche, Introduction à sa philosophie, Paris, Gallimard, 1950. Koestler Arthur, Les Somnambules, Paris, Calman-Lévy, 1960;. Kojève A., Kant, Paris, Gallimard, 1973. - Introduction à la lecture de Hegel, Paris, Gallimard, 1947. Koyré Alexandre, Du Monde clos à l’univers infini, Paris, Gallimard, 1988. - Études Newtoniennes, Paris, Gallimard, 1968. - La révolution astronomique, Paris, Hermann, 1974. - La révolution astronomique, Paris, Hermann, 1974. Kuhn Thomas, La Révolution copernicienne, Paris, Fayard, 1973. - La structure des révolutions scientifiques, Paris, Flammarion, 1970. Lacroix Jean, Kant et le kantisme, Paris, PUF 1977. - La sociologie d’A. Comte, Paris, PUF, 1973. Lagache Daniel, La Psychanalyse, Paris, PUF, 1982. Lalande André, Vocabulaire technique et critique de la philosophie Paris, PUF, 1993. Lefebvre Henri, Pour connaître la pensée de Karl Marx, Paris, Bordas, 1966. Lefevre R., Condillac, Paris, Seghers, 1966.
Léger François, La pensée de Georges Simmel, Paris, Kiné éditions, 1968. Leroy A.-L., Locke, sa vie son œuvre, avec un exposé de sa philosophie, Paris, PUF, 1964. - George Berkeley, Paris, PUF, 1959. Leroy, J.-F., Charles Darwin, Paris, Seghers, 1966. Llinarès Armand, Raymond Lulle, philosophe de l’action, Grenoble, Allier, 1963. Lochak Georges, Louis de Broglie, Paris, Flammarion, 1992. Lorentz Edward N., “Le battement des ailes d’un papillon au Brésil peutil causer une tornade au Texas?”, in The essence of chaos, University of Washington Press, 1993. Lyotard J.-F., La phénoménologie, Paris, PUF, 1954. Madiner G., Conscience et Amour. Essai sur le “Nous”, 1938. Maisonneuve Jean, Psychologie sociale, Paris, PUF, 1950. Malherbe J.-F., Thomas Hobbes, Paris, Vrin, 1984. - La philosophie de Karl Popper et le positivisme logique, Paris, PUF, 1980. Malherbe M., La philosophie empiriste de D. Hume, Paris, Vrin, 1976. Mantoy B., Lamarck, Paris, Seghers, 1968. Mattéi J.-F., Pythagore et le pythagorisme, Paris, PUF, 1992. Mead M., Du givre sur les ronces, autobiographie, Paris, Seuil, 1977. Merleau-Ponty Jacques, Sur la genèse des théories physiques: Galilée, Ampère, Einstein, Paris, Vrin, 1974. - Einstein, Paris, Flammarion, 1993. Mesnard J., Pascal, l’homme et l’œuvre, Paris, Hatier, 1951. Mill John Stuart, L’Utilitarisme, Paris, Flammarion, 1988. Misrahi Robert, Spinoza, Paris, éditions. J. Grancher, 1992. - Martin Buber, philosophe de la relation, Paris, Seghers, 1968. - Spengler, introduction et choix de textes, Paris, Seghers, 1964. Moreau P. F., Hobbes, philosophie, science, religion, Paris, PUF, 1989.
Mounin Georges, Ferdinand de Saussure ou le structuraliste sans le savoir, Paris, Seghers, 1967. Naville P., La psychologie, science du comportement: le bahaviorisme de Watson, Gallimard 1963. Ouvrage collectif, Dictionnaire des philosophes, sous la direction de D. Huisman, PUF, 1984. - Grand Dictionnaire de la Psychologie, sous la direction de H. Bloch, Paris, Larousse, 1992. - La Sociologie, Les Dictionnaires Marabout Université, dirigé par Jacques Dumont et Philippe Vandooren, Paris, Marabout, 1972. - Abrégé d’Histoire des Mathématiques, 1700-1900, sous la direction de J. Dieudonné, Paris, Hermann, 1978. - Encyclopédie internationale des sciences et des techniques, sous la direction scientifique de Pierre Auger, Mirko Grmek et Michel Catin, Presses de la Cité, Paris, 1971. Paty Michel, Einstein philosophe, Paris, PUF, 1993. Piaget Jean, Le Structuralisme, Paris, PUF, 1987. Picavet F., Roscelin, philosophe et théologien, d’après la légende et d’après l’histoire, Paris, Alcan, 1911. Poincaré Henri, La science et l’Hypothèse, Paris, Flammarion, 1968. Poirier Jean, Histoire de l’ethnologie, Paris, PUF, 1969. Poirier Jean-Pierre, Laurent Antoine de Lavoisier, Paris, Éditions Py, 1993. Pont Jean Claude, La topologie algébrique des origines à Poincaré, Paris, PUF, 1974. Popper Karl, Conjectures et Réfutations, Paris, Payot, 1985. - La quête inachevée, Paris, Calmann-Lévy, 1974. - Logique de la Découverte Scientifique, Paris, Payot, 1973. Reuchlin Maurice, Histoire de la Psychologie,Paris, PUF, 1969. Ribstein M., G. K. Chesterton, création romanesque et imagination, Paris, Klincksieck, 1981. Rodis-Lewis Geneviève, Descartes et le rationalisme, Paris, PUF, 1966.
Russell Bertrand, Histoire de mes idées philosophiques, Paris, Gallimard, 1961. - Histoire de la philosophie occidentale, Paris, Gallimard, 1953. Sartre Jean-Paul, L’existentialisme est un Humanisme, Paris, Nagel, 1970. Schuhl Pierre-Maxime, Essai sur la formation de la pensée grecque, Paris, A. Michel, 1934. - L’œuvre de Platon, Paris, Hachette, 1954. Smullyan R., Les théorèmes d’incomplétude de Gödel, Paris, Masson, 1993. Souffrin P., Trois études sur l’œuvre d’Archimède, in Cahiers d’histoire et de philosophie des sciences, Paris, CNRS, 1980. Souriau Étienne, Clefs pour l’esthétique, Paris, Seghers, 1970. Tort Patrick, Vénus physique. Lettre sur le progrès de la science, Paris, Aubier-Flammarion, 1980. Toulmins S., L’explication scientifique, Paris, A. Colin, 1973. Van Tieghen Ph., Dictionnaire des littératures, Paris, PUF, 1984. Vax Louis, L’empirisme logique, Paris, PUF, 1970. - Lexique Logique, Paris, PUF, 1982. Verdet J.-P., Une histoire de l’astronomie, Seuil, 1990. Vessereau A., La statistique, Paris, PUF, 1968. Wolff J., Histoire de la pensée économique, de l’origine à nos jours, 1991.