Logique
Un article de Wikipédia, l'encyclopédie libre.
La logique (du grec λόγος (logos), signifiant entre autres, raison ou discours) est dans une première approche l'étude des règles formelles que doit respecter toute déduction correcte.
Elle est depuis l'Antiquité l'une des grandes disciplines de la philosophie, avec l'éthique et la métaphysique. En outre, on a assisté durant le XXe siècle au développement fulgurant d'une approche mathématique et informatique de la logique. Elle trouve depuis le XXe siècle de nombreuses applications en ingénierie, en linguistique, en psychologie cognitive, en philosophie analytique ou en communication.
Sommaire |
[modifier] Les différentes approches
De manière très générale il existe quatre approches de la logique :
- L’approche historique qui s’intéresse à l’évolution et au développement de la logique et tout particulièrement à la syllogistique aristotélicienne et aux tentatives depuis Leibniz de faire de la logique un véritable calcul algorithmique. Cette approche historique est tout particulièrement intéressante pour la philosophie car aussi bien Aristote que les Stoïciens ou que Leibniz ont travaillé comme philosophes et comme logiciens. Voir aussi l’article histoire de la logique.
- L’approche mathématique : la logique mathématique contemporaine est liée aux mathématiques, à l’informatique et à l'ingénierie.
- L’approche philosophique : la philosophie et surtout la philosophie analytique reposent sur un outillage d’analyse et argumentatif provenant d'une part des développements logiques réalisés au cours de l'histoire de la philosophie et d'autre part des développements récents de la logique mathématique. Par ailleurs, la philosophie et surtout la philosophie de la logique se donnent pour tâche d’éclairer les concepts fondamentaux et les méthodes de la logique.
- Enfin, la quatrième approche est celle informatique qui s'attaque à l'automatisation des calculs et des démonstrations, aux fondements théoriques de la conception des systèmes, de la programmation et de l'intelligence artificielle[1]. L'approche informatique est cruciale parce que c'est en essayant de mécaniser les raisonnements, voire de les automatiser, que la logique et les mathématiques vivent une véritable révolution au début du 21ème siècle. Les conséquences épistémologiques de ces développements sont encore largement insoupçonnées.
[modifier] Histoire
La logique est à l'origine la recherche de règles générales et formelles permettant de distinguer un raisonnement concluant de celui qui ne l'est pas. Elle trouve ses premiers tâtonnements dans les mathématiques et surtout dans la géométrie mais c'est principalement sous l'impulsion des Mégariques et ensuite d'Aristote qu'elle prit son envol.
La logique a très tôt été utilisée contre elle-même, c'est-à-dire contre les conditions mêmes du discours : le sophiste Gorgias l'utilise dans son Traité du non-être afin de prouver qu'il n'y a pas d'ontologie possible : « ce n'est pas l'être qui est l'objet de nos pensées ». La vérité matérielle de la logique est ainsi ruinée. Le langage acquiert ainsi sa propre loi, celle de la logique, indépendante de la réalité. Mais les sophistes ont été écartés de l'histoire de la philosophie (sophiste a pris un sens péjoratif), si bien que la logique, dans la compréhension qu'on en a eu par exemple au Moyen Âge, est restée soumise à la pensée de l'être. Au XVIIe siècle Leibniz fit des recherches fondamentales en logique qui révolutionnèrent profondément la logique aristotélicienne même si Leibniz se réclama constamment de la tradition des syllogismes d'Aristote. Il fut le premier à imaginer et à développer une logique entièrement formelle. Emmanuel Kant, quant à lui, définit la logique comme «une science qui expose dans le détail et prouve de manière stricte, uniquement les règles formelles de toute pensée». L'œuvre d'Aristote appelée l'Organon, où figure notamment l'étude du syllogisme, fut longtemps considérée comme le manuel de référence sur ce sujet. Mais la naissance d'une logique formelle dépassant la structure binaire entre sujet et attribut à partir du XIXe siècle, a profondément changé cet état de fait. Ainsi Gottlob Frege et Russell remplacent-t-ils l'analyse prédicative par une distinction entre fonction et argument.
Il a fallu attendre le début du XXe siècle pour que le principe de bivalence soit clairement remis en question de plusieurs façons différentes :
- La première façon considère des logiques trivalentes qui ajoutent une valeur indéterminée, elles sont dues à Stephen Cole Kleene, Jan Lukasiewicz et Bochvar et se généralisent en logiques polyvalentes.
- La deuxième façon insiste sur le démontrable. Il y a donc ce qui est démontrable et le reste. Dans ce « reste », il peut y avoir des propositions réfutables, c'est-à-dire dont la négation est démontrable et des propositions au statut incertain, ni démontrable, ni réfutable. Cette approche est tout à fait compatible avec la logique classique bivalente, et on peut même dire que l'un des apports de la logique du XXe siècle est d'avoir analysé clairement la différence entre la démontrabilité et la validité, qui, elle, repose sur une interprétation en terme de valeurs de vérité. Mais la logique intuitionniste se fonde elle sur une interprétation des démonstrations, la sémantique de Heyting — ainsi une preuve de l'implication s'interprète par une fonction qui à une preuve de l'hypothèse associe une preuve de la conclusion, plutôt que sur une interprétation des énoncés par des valeurs de vérité. On a pu cependant après coup donner des sémantiques qui interprètent les énoncés, comme celle de Beth, ou celle de Kripke dans laquelle le concept de base est celui de monde possible. La logique intuitionniste est également utilisée pour analyser le caractère constructif des démonstrations en logique classique. La logique linéaire va encore plus loin dans l'analyse des démonstrations.
- La troisième façon est due à Lotfi Zadeh qui élabore une logique floue (fuzzy logic), dans laquelle une proposition est vraie selon un certain degré de probabilité (degré auquel on assigne lui-même un degré de probabilité). Voir aussi l'article sur la théorie de la complexité algorithmique.
- La quatrième façon, qui est peut-être le retour aux sources, est celle de la logique modale qui par exemple atténue (possible) ou renforce (nécessaire) des propositions. Si Aristote s'intéresse déjà aux modalités, le XXe siècle, sous l'impulsion initiale de Clarence Irving Lewis, apporte une étude plus approfondie de celles-ci, et Saul Aaron Kripke donne une interprétation des énoncés des logiques modales utilisant des mondes possibles.
[modifier] Mathématiques
Dans ce dernier cas, sa position est un peu particulière d'un point de vue épistémologique, puisqu'elle est à la fois un outil de définition des mathématiques, et une branche de ces mêmes mathématiques, donc un objet.
[modifier] Notions élémentaires de logique formelle
Un langage logique est défini par une syntaxe, c'est-à-dire un système de symboles et de règles pour les combiner sous formes de formules. De plus, une sémantique est associée au langage. Elle permet de l'interpréter, c'est-à-dire d'attacher à ces formules ainsi qu'aux symboles une signification. Un système de déduction permet de raisonner en construisant des démonstrations.
La logique comprend classiquement :
- la logique des propositions (aussi appelée calcul des propositions),
- la logique des prédicats.
Considérons un langage logique. Ce dernier est soit :
- un langage propositionnel, on parle alors de logique des propositions,
- un langage contenant des notations pour des entités avec des quantifications sur ces entités, on parle alors de logique des prédicats.
[modifier] Syntaxes
La syntaxe de la logique des propositions est fondée sur des variables de propositions appelées également atomes que nous notons avec des lettres minuscules (p, q, r, s, etc.). Ces symboles représentent des propositions sur lesquelles on ne porte pas de jugement vis-à-vis de leur vérité : elles peuvent être soit vraies, soit fausses, mais on peut aussi ne rien vouloir dire sur leur statut. Ces variables sont combinées au moyen de connecteurs logiques qui sont, par exemple :
- le connecteur binaire disjonctif (ou), de symbole: ∨ ;
- le connecteur binaire conjonctif (et), de symbole: ∧ ;
- le connecteur binaire de l'implication, de symbole: → ;
- le connecteur monadique de la négation (non), de symbole: ¬.
Ces variables forment alors des formules complexes.
La syntaxe de la logique du deuxième ordre, contrairement à celle du premier ordre, considère d'une part les termes qui représentent les objets étudiés, et d'autre part les formules qui sont des propriétés sur ces objets. Dans la suite nous noterons V l'ensemble des variables (x,y,z…), F l'ensemble des symboles de fonctions (f,g…) et P l'ensemble des symboles de prédicats (P,Q…). On dispose également d'une application dite d'arité m.
Qu'en est-il de la signification d'une formule ? C'est l'objet de la sémantique. Là encore, elle diffère selon le langage envisagé.
En logique traditionnelle (appelée aussi classique), une formule est soit vraie soit fausse. Plus formellement, l'ensemble des valeurs de vérité est un ensemble B de deux booléens : le vrai et le faux. La signification des connecteurs est définie à l'aide de fonctions de booléens vers des booléens. Ces fonctions peuvent être représentées sous la forme de table de vérité.
La signification d'une formule dépend donc de la valeur de vérité de ses variables. On parle d'interprétation ou d'affectation. Toutefois, il est difficile, au sens de la complexité algorithmique, d'utiliser la sémantique pour décider si une formule est satisfaisante (ou non) voire valide (ou non). Il faudrait pour cela pouvoir énumérer toutes les interprétations. Leur nombre est exponentiel.
Une alternative à la sémantique consiste à examiner les preuves bien formées et à considérer leurs conclusions. Cela se fait dans un système de déduction. Un système de déduction est un couple (A,R), où A est un ensemble de formules appelées axiomes et R un ensemble de règles d'inférence, c'est-à-dire de relations entre des ensembles de formules (les prémisses) et des formules (la conclusion).
On appelle dérivation à partir d'un ensemble donné d'hypothèses une suite non vide de formules qui sont : soit des axiomes, soit des formules déduites des formules précédentes de la suite.
Une démonstration d'une formule φ à partir d'un ensemble de formules Γ est une dérivation à partir de Γ dont la dernière formule est φ.
[modifier] Quantification
On introduit essentiellement deux quantificateurs dans la logique moderne :
- (il existe au moins un), appelé quantificateur existentiel.
- (pour tout), appelé quantificateur universel.
Grâce à la négation, les quantificateurs existentiels et universels jouent des rôles duaux et donc, en logique classique, on peut fonder le calcul des prédicats sur un seul quantificateur.
[modifier] Égalité
Un prédicat binaire, que l'on appelle égalité, énonce le fait que deux termes sont égaux quand ils représentent le même objet. Il est géré par des axiomes ou schémas d'axiomes spécifiques. Cependant parmi les prédicats binaires c'est un prédicat très particulier, dont l'interprétation usuelle n'est pas seulement contrainte par ses propriétés énoncées par les axiomes : en particulier il n'y a usuellement qu'un prédicat d'égalité possible par modèle, celui qui correspond à l'interprétation attendue (l'identité). Son adjonction à la théorie préserve certaines bonnes propriétés comme le théorème de complétude du calcul des prédicats classique. On considère donc très souvent que l'égalité fait partie de la logique de base et l'on étudie alors le calcul des prédicats égalitaire.
Dans une théorie qui contient l'égalité, un quantificateur, qui peut être défini à partir des quantificateurs précédents et de l'égalité, est souvent introduit :
- (il existe un et un seul).
D'autres quantificateurs peuvent être introduits en calcul des prédicats égalitaires (il existe au plus un objet vérifiant telle propriété, il existe deux objets ...), mais des quantificateurs utiles en mathématiques, comme « il existe une infinité ... » ou « il existe un nombre fini ... » ne peuvent s'y représenter et nécessitent d'autres axiomes (comme ceux de la théorie des ensembles).
[modifier] Notes
[modifier] Voir aussi
Sur la philosophie :
Sur la logique mathématique :
[modifier] Bibliographie
- Jean-Pierre Belna, Histoire de la logique, 2005
- Robert Blanché & Jacques Dubucs, La logique et son histoire: d'Aristote à Russell, Paris, Armand Colin, 1996
- François Chenique, Eléments de Logique Classique, Paris, L'Harmattan, 2006
- Pascal Engel, La Norme du vrai, philosophie de la logique, Paris, Gallimard, 1989
- (en)Michael R. Genesereth and Nils J. Nilsson, Logical Foundations of Artificial Intelligence, 1987 [détail des éditions]
- Paul Gochet & Pascal Gribomont, Logique. Vol. 1: méthodes pour l'informatique fondamentale, Paris, Hermès, 1990
- Paul Gochet & Pascal Gribomont, Logique. Vol. 2: méthode formelle pour l'étude des programmes, Paris, Hermès, 1994
- Paul Gochet, Pascal Gribomont & André Thayse, Logique. Vol. 3: méthodes pour l'intelligence artificielle, Paris, Hermès, 2000
- (en)William Kneale & Martha Kneale, The development of logic, Oxford, Clarendon Press, 1962
- François Lepage, Eléments de logique contemporaine, Montréal, Les Presses de l'Université de Montréal, 1991
- Dirk Pereboom, Logique et logistique, Genève, INU PRESS, [1995].ISBN 2-88155-002-9.
- Xavier Verley, Logique symbolique, Ellipses, 1999
Théorie de la connaissance |
Concept · Connaissance (philosophie) · Conscience · Croyance · Dialectique · Empirisme · Épistémologie · Espace · Imagination · Jugement · Langage · Logique · Mémoire · Métaphysique · Pensée · Phénoménologie · Philosophie du langage · Psychologie cognitive · Raison · Rationalisme · Réalité · Science · Sciences cognitives · Sociologie de la connaissance · Temps · Vérité |
- Portail de la philosophie
- Portail des mathématiques
- Portail de l’informatique
- Portail de la logique
- Portail sur les sciences