Séminaires LIRICA Nadia Creignou 26/03/2018 14h30--16h00 Salle Frumam ?? étage, campus St-Charles A Complexity Theory for Hard Enumeration Problem Complexity theory provides a wealth of complexity classes for analyzing the complexity of decision and counting problems. Despite the practical relevance of enumeration problems, the tools provided by complexity theory for this important class of problems are very limited. In particular, complexity classes analogous to the polynomial hierarchy and an appropriate notion of problem reduction are missing. In this work, we lay the foundations for a complexity theory of hard enumeration problems by proposing a hierarchy of complexity classes and by investigating notions of reductions for enumeration problems. Luigi Santocanale ??/??/2018 14h30--16h00 Salle Frumam ?? étage, campus St-Charles Closure ordinals of intuitionisitc propositional formulas For each formula phi(x) (which contains the variable x positively) there exists a positive integer n such that phi^n(false) (iterated substitution of phi for x, and then substitute x for false) denotes the least fixed point of phi. n is called the closure ordinal of phi. In this talk, I'll settle the correspondence between the intuitionistic propositional calculus and Heyting algebras. Then, using the algebraic framework, I''ll show how to produce upper bounds for closure ordinals, for restricted classes of formulas (the general case has been already exposed to this audience). Tiziano Dalmonte 12/02/2018 14h30--16h00 Salle Frumam 2 étage, campus St-Charles Semantic based labelled sequent calculi for non-normal modal logics It is often argued that modal logic K is too strong when some possible interpretations of the modality are considered. To cite one example, if associated to an epistemic interpretation of box, it may easily lead to logical omniscience. For this reason non-normal modal logics are introduced. These are a family of logics strictly weaker than K, defined modularly starting from the weakest one, logic E, that is obtained by adding to the propositional calculus the rule of congruence A<->B / boxA <-> boxB. In this talk we firstly present two semantics for these logics. The first one is standard and makes use of neighbourhood frames. The second one is original and makes use of so-called weak frames. Completeness of logics with respect a certain class of weak frames is proved by means of the method of canonical models. We also show that the standard and the weak semantics are equivalent. Then we introduce two kinds of external sequent calculi for these logics, called LSE* and WkLSE*, and discuss their relations and differences. In particular, we show that LSE* enjoy standard structural properties, most notably admissibility of cut, that permit to prove completeness syntactically. The calculi WkLSE* are restricted to the so called 'proper' sequents, i.e. a suitably defined class of sequents that contains in particular all sequents of the form =>x:A. Completeness of WkLSE* is proved by showing that all proper sequents derivable in LSE* are derivable also in WkLSE*. Labelled calculi behave particularly well from the point of view of countermodel building, since countermodels can be directly defined using the information given by a branch of a failed proof search. The main difference between the two kinds of calculi concerns the type of models that are obtained in this way. In particular, from a failed proof search in LSE* we obtain a standard neighbourhood model, while from a failed proof search in WkLSE* we obtain a weak model. Finally, we define a simple proof search procedure for WkLSE* that is always terminating. Adrian Haret Invité par Nadia et Odile http://logic-cs.at/phd/students/adrian-haret/ TU Wien 22/01/2018 11h00--12h30 Salle Frumam 2 étage, campus St-Charles Choosing what to believe: Belief change from a Social Choice perspective The topic of belief change is focused on the dynamics of knowledge: how to update, revise and combine information of diverse origins, when that information is encoded in some logical formalism. One prominent approach to belief change is axiomatic: start by formulating properties that a rational operator is expected to satisfy, and then study concrete functions that satisfy the properties. Historically, this has led to various ways of representing belief change operators, some of which employ concepts that will be familiar to economists working on foundational topics. I will argue that, when we look under the hood of most belief change operators, we find the same kind of machinery that powers results in Social Choice Theory. I will talk about the significance and prospects of this fact for Belief Change. Sara Negri Department of Philosophy, University of Helsinki http://www.helsinki.fi/~negri/ Invité par Nicola 12/01/2018 11h00--12h30 Salle Frumam 3 étage, campus St-Charles STIT modalities through labelled sequent calculus STIT is an acronym for ``seeing to it that'', used to designate a family of agentive modalities traditionally defined upon indeterminist frames enriched with agency; their semantics builds upon a combination of Prior-Thomason-Kripke branching-time semantics and Kaplan’s indexical semantics, whereas their proof theory has been largely restricted to axiomatic systems, with the exception of isolated contributions that use labelled tableaux. We shall recall the semantics of branching time frames with agents and choices and on its basis gradually develop a labelled sequent calculus for multi-agent deliberative STIT. We shall illustrate the well known property of ``impossibility of delegation'' as a derivation in the calculus, give an indirect completeness proof, and present some open problems. Clément Carbonnel Université de Oxford https://homepages.laas.fr/ccarbonn/drupal/node/11 4/12/2017 14h30--16h00 Salle Frumam III étage, campus St-Charles The complexity of general-valued CSPs seen from the other side The general-valued CSP (VCSP) is a generalisation of CSP in which soft constraints are permitted and the goal is to find the minimum possible cost over all assignments. VCSP has an equivalent formulation in terms of homomorphisms between two valued structures: one that captures the structure of the constraint network (the "left-hand side valued structure") and one that captures the cost functions associated with each constraint (the "right-hand side valued structure"). In this talk we present a precise characterisation of all classes of bounded-arity left-hand side structures that give rise to a tractable restriction of VCSP, and we outline a proof based on a novel equivalence notion between valued structures. We also present a necessary and sufficient condition for a left-hand side valued structure to be solvable by the k-th level of the Sherali-Adams LP hierarchy and discuss search VCSPs, in which one is additionally required to output an assignment of minimum cost. José-Luis Vilchis Medina Séminaire joint avec l'équipe CANA du LIF 27/11/2017 14h30--16h00 Salle Frumam II étage, campus St-Charles Raisonnement non-monotone et prise de décision incertaine : application à un planeur autonome L’exposé aborde l’étude d’un planeur autonome et de la prise de décision de pilotage, dans un environnement incertain. Dans ce cadre, le but d’un pilote de planeur est de rester en l’air le plus longtemps possible en prenant en compte des contraintes qui peuvent être contradictoires : contraintes de vol, recherche d’ascendance(thermal), réglementation aéronautique, sécurité … Dans un premier temps, nous allons essentiellement intéressés à modéliser le système capable de gérer des situations contradictoires et incertaines. Pour ce faire, nous allons utiliser un type de logique non-monotone, la logique des défauts de Reiter. Dans un deuxième temps, pour la prise de décision incertaine, nous allons définir une approche basée sur un critère non-probabiliste, pour choisir l’extension qui contient les actions optimales. Enfin, nous montrerons quelques résultats. Charles Greillois 6/11/2017 14h30--16h00 Salle 301 (près du DII), campus St-Charles Termination of higher-order probabilistic programs Higher-order probabilistic programming languages have recently been introduced as a way to describe probabilistic models, that may be used for instance in robotics or in machine learning, and these languages have been successful so far. The programs written in these languages are quite unusual: the fact that they are of higher-order means that they are built from functions, which can take themselves functions as arguments. I will explain in this talk how we can use type theory (a way to annotate the functions with the properties they satisfy) in a way which ensures that the typable programs terminate with probability 1 -- or, in other words, have probability 0 to diverge. I will also explain how we can hope to capture more properties of higher-order probabilistic programs in the future using similar methods. Bertrand Granier Granier2017.pdf 23/10/2017 14h30--16h00 Salle FRUMAM 3ème étage, campus St-Charles Les fondements des mathématiques, de Frege à Lawvere On commencera par une analyse historique de la notion de "fondements des mathématiques", en montrant comment la réflexion de Frege et Brouwer sur cette notion se fait dans le cadre de la philosophie de la connaissance développée par Kant dans la Critique de la Raison Pure et son Cours de logique (énoncés mathématiques comme jugements synthétiques a priori). On rappellera ensuite comment la "crise des fondements" mène à l'axiomatisation de la théorie des ensembles, et à l'unification des mathématiques dans celle-ci ; cette unification suggère une interprétation philosophique selon laquelle la théorie des ensembles est fondationnelle, au sens où elle donnerait une explication définitive de la nature des objets mathématiques. C'est le point de vue exprimé par exemple par Paul Cohen ou Kreisel. On montrera ensuite comment la théorie des catégories permet, via la notion de topos élémentaire de Lawvere-Tierney, d'envisager un point de vue plus général, dans lequel la catégorie des ensembles est un cas particulier de topos. Se pose alors la question de savoir si la construction possible de la catégorie des ensembles dans la théorie des catégories est une simple construction mathématique qui ne remet pas en cause la "primauté logique" de la notion d'ensemble, ou s'il faut l'interpréter autrement. Le point de vue de Lawvere est que la notion de fondements doit être comprise non plus comme justification de la validité des énoncés mathématiques ou recherche de la nature ultime des objets mathématiques, mais comme une entreprise proprement mathématique permettant de mettre au jour des structures universelles omniprésentes dans les mathématiques, comme la notion d'adjonction. Silvio Ghilardi Université de Milan https://homes.di.unimi.it/ghilardi/ Professeur invité à AMU 16/10/2017 14h30--16h00 Salle FRUMAM 3ème étage, campus St-Charles Interpolation, Amalgamation and Combination We study the conditions under which existence of interpolants (for quantifier-free formulae) is modular, in the sense that it can be transferred from two first-order theories T1 , T2 to their combination T1 ∪ T2 . As an interesting application, we relate the combinability criterion we obtain for theories sharing a common Horn subtheory to superamalgamability conditions known from propositional logic and we use this fact to derive old and new results concerning fusions transfer of interpolation properties in modal logic. [Joint work with A. Gianola] Luigi Santocanale 2/10/2017 14h30--16h00 Salle FRUMAM II étage, campus St-Charles Decidabilité de FO² J'exposerai la preuve de la décidabilité du fragment FO² de la logique du premier ordre. Une formule appartient à FO² si son langage est relationnel (avec égalité) et utilise au plus deux variables. Marianna Girlando 12/06/2017 14h00--16h00 Salle FRUMAM III étage, campus St-Charles Logiques conditionnelles: de la sémantique aux systèmes de preuve Les logiques conditionnelles enrichissent le langage de la logique classique propositionnelle avec un nouveau opérateur, apte à formaliser énoncés (pour exemple: énoncés contrefactuels) qui ne peuvent pas être capturés avec l'implication matérielle de la logique classique. Les logiques conditionnelles ont été développés à partir des années 1970, avec des motivation principalement philosophiques; après, elles ont trouvé applications dans multiples domaines, comme intelligence artificielle et la représentation des croyances. Dans la littérature, on trouve différents systèmes de sémantiques pour les logiques conditionnelles, tous basées sur la sémantique relationnelle (modèles de Kripke). Par contre, le développement de la théorie de la démonstration pour les logiques conditionnelles - donc la définition des calculs formels pour décider la validité d'une formule - n'a pas encore été développée dans sa totalité. Dans ce séminaire, à caractère introductif, on veut faire un résumé des différents systèmes de preuve développés jusqu'au moment pour les logiques conditionnelles. On va présenter des calculs de sequents analytiques, internes et externes, basées à la fois sur les différents systèmes de sémantique, en remarquant les points de force des systèmes et les problèmes qui restent ouvert. Belaïd Benhamou 29/05/2017 14h00--16h00 Salle FRUMAM III étage, campus St-Charles Le principe des symétries en logiques classiques et son extension aux logiques et raisonnements non-monotones La symétrie est par définition un concept multidisciplinaire. Il apparaît dans de nombreux domaines allant des mathématiques à l'intelligence artificielle, de la chimie et de la physique. Il révèle des formes et des usages différents, même à l'intérieur du même domaine. En général, il renvoie à une transformation qui laisse invariant (ne pas modifier sa structure fondamentale et / ou ses propriétés ) un objet (un chiffre, une molécule, un système physique, une formule ou un réseau de contraintes). Par exemple, la rotation d'un échiquier jusqu'à 180 degrés donne un échiquier qui est indiscernable de celui d'origine. La symétrie est une propriété fondamentale qui peut être utilisée pour étudier ces différents objets, analyser finement ces systèmes complexes ou réduire la complexité de calcul lorsqu'il s'agit de problèmes combinatoires. La symétrie a été bien étudiée dans les logiques classiques et dans la programmation par contraintes depuis plus d'une décennie. Au début, Krishnamurthy a montré que certaines formules difficiles admettent de courtes démonstrations lors de l'extension du système de preuve par résolution de la logique propositionnelle par la règle de symétrie. Le groupe de Marseille travaillant sur la symétrie a développé le principe des symétries dans les années 1990, a montré comment les symétries peuvent être détectées et utilisées efficacement dans les solveurs SAT (logique propositionnelle) et solveurs CSP (Benhamou 94). Toutefois, en Intelligence Artificielle, on manipule souvent des informations incomplètes et nous devons inclure l'incertitude pour raisonner avec des connaissances contenant des exceptions et la non-monotonie. Plusieurs logiques non monotones ont été introduites à cet effet, mais pour autant que nous savons, la notion de symétrie pour ces cadres n'avaient pas encore été étudiée ou reste peu étudiée. Dans cet exposé, nous parlerons d'abord de cette notion de symétrie dans les logiques classiques, ensuite nous montrons comment elle est étendue à quelques logiques non-monotones comme les logiques préférentielles, les X-logiques et la logiques des défauts (NMR 2010). Nous donnerons de nouvelles règles d'inférence en utilisant la symétrie pour les X-logiques et la logique des défauts. Nous montrerons comment mettre en œuvre le raisonnement par symétrie pour ces logiques non-monotones et nous prouvons que certaines symétries qui n'existent pas dans les logiques classiques sont paradoxalement bien présentes dans ces formalismes. Enfin, nous avons choisi le cadre des ASP (Answer Set Programming) pour mettre en œuvre et implémenter la symétrie dans le raisonnement non-monotone (LPAR 2013). L'ASP est un cadre non-monotone très utilisé, il est considéré comme un fragment de la logique des défauts. Nous parlerons ici de la notion des symétries locales et celle des symétries globales. Nous montrons comment les symétries locales d'un programme logique peuvent être détectées de manière dynamique au moyen des automorphismes de sa représentation graphique. Nous donnons également des propriétés qui permettent d'éliminer les symétries dans les solveurs ASP afin d'améliorer leurs efficacités. Lionel Nguyen Van The 24/04/2017 16h00--18h00 Salle FRUMAM III étage, campus St-Charles La théorie de Fraïssé, un pont entre structures finies et groupes topologiques Le but de cet exposé sera de présenter dans quelle mesure les travaux de Roland Fraïssé, effectués à partir des années 50, permettent de lier l'étude de certaines classes de structures finies (les classes de Fraïssé) à celle de certains groupes topologiques. Cette correspondance est désormais un outil classique, et je tâcherai de présenter à l'aide de plusieurs exemples simples comment elle peut être exploitée pour aller de la combinatoire à la dynamique topologique, et réciproquement. http://www.logic.univie.ac.at/2009/esi/pdf/nguyenvanthe1.pdf http://www.logic.univie.ac.at/2009/esi/pdf/nguyenvanthe2.pdf http://www.logic.univie.ac.at/2009/esi/pdf/nguyenvanthe3.pdf http://www.math.unt.edu/~mpc0061/logicgroup/fraissestructures1.pdf https://arxiv.org/pdf/math/0305241.pdf VanThe170424.pdf Frédéric Olive Séminaire initialement prévu le 20/03, mais reporté. 3/04/2017 14h00--16h00 Salle FRUMAM III étage, campus St-Charles Quelques éléments de complexité descriptive (IIème épisode) La complexité descriptive est ce domaine de la logique qui s’efforce de corréler la complexité algorithmique des problèmes (les ressources consommées par les algorithmes qui les résolvent) avec leur complexité syntaxique (la richesse syntaxique mobilisée par les langages qui les décrivent). En somme, il s’agit de répondre à la question : un problème est-il d’autant plus dur à résoudre qu’il est difficile à décrire. La logique est appréciée ici pour deux de ses vertues : d’une part, le langage logique donne lieu à une notion naturelle de ressource syntaxique ; d’autre part, la description d'un problème par une formule logique à une portée opérationnelle : on peut en déduire un calcul qui résout le problème. Cet exposé se veut introductif et supposera le moins de prérequis possibles. Je préciserai la problématique, évoquerai un ou deux résultats fondateurs du domaine et si j’en ai le temps, je tenterai de donner quelques idées d’un travail récent sur la caractérisation logique du temps linéaire sur automates cellulaires. Luigi Santocanale 20/03/2017 14h00--16h00 Salle FRUMAM III étage, campus St-Charles Logique modale monotone pour les treillis Frédéric Olive 6/03/2017 16h00--18h00 Salle FRUMAM III étage, campus St-Charles Quelques éléments de complexité descriptive La complexité descriptive est ce domaine de la logique qui s’efforce de corréler la complexité algorithmique des problèmes (les ressources consommées par les algorithmes qui les résolvent) avec leur complexité syntaxique (la richesse syntaxique mobilisée par les langages qui les décrivent). En somme, il s’agit de répondre à la question : un problème est-il d’autant plus dur à résoudre qu’il est difficile à décrire. La logique est appréciée ici pour deux de ses vertues : d’une part, le langage logique donne lieu à une notion naturelle de ressource syntaxique ; d’autre part, la description d'un problème par une formule logique à une portée opérationnelle : on peut en déduire un calcul qui résout le problème. Cet exposé se veut introductif et supposera le moins de prérequis possibles. Je préciserai la problématique, évoquerai un ou deux résultats fondateurs du domaine et si j’en ai le temps, je tenterai de donner quelques idées d’un travail récent sur la caractérisation logique du temps linéaire sur automates cellulaires. Luigi Santocanale 13/02/2017 15h00--16h00 Salle FRUMAM II étage, campus St-Charles Ordinaux de clôture pour le mu-calcul modal. Travail en collaboration avec M. J. Gouveia, Université de Lisbonne Le mu-calcul modale est une extension de la logique (poly)modale K avec des opérateurs de plus petit et de plus grand point-fixe. On peut calculer le plus petit point-fixe d'une fonction monotone (ou croissante) f par approximation ordinale : si on pose f⁰(∅) = ∅, f^{α+1}(∅) = f(fᵅ(∅)) et, pour un ordinal limite β, fᵝ(∅) = ⋃_{β < α} fᵅ(∅), alors le plus petit point fixe de f est fᵅ(∅) pour un ordinal α. Si φ est une formule du mu-calcul avec la variable x positive dans φ, on se pose la question de l'existence d'un ordinal de clôture de φ. On dit que α est l'ordinal de clôture de φ si (1) pour tout modèle M, φMᵅ(∅) est le plus petit point fixe de φM, et (2) il existe un modèle M tel que, pour tout ordinal β < α, φMᵝ(∅) n'est pas le plus petit point-fixe de φM. Ici, φM est la fonction monotone induite par la formule φ et le modèle M. Czarnecki a montré que tout ordinal α < ω^2 est l'ordinal clôture d'une formule du mu-calcul ; Afshari et Leigh ont montré que ces ordinaux sont les seuls ordinaux de clôture des formules φ qui ne contiennent pas de plus grand points-fixes. Nous prouvons que Ω, le plus petit ordinal non dénombrable, est un ordinal de clôture d'une formule du mu-calcul. Nous prouvons aussi que les ordinaux de clôture du mu-calcul sont fermés par rapport à la somme ordinale. Nos résultats passent par la découverte d'un fragment du mu-calcul dont l'interprétation des formules, en tant que fonctions monotones, est toujours ℵ₁-continue. Eric Würbel 6/02/2017 15h00--17h00 Salle FRUMAM II étage, campus St-Charles Programmation par answer sets et changement de croyances La programmation par answer set (ASP : answer set programming) est un paradigme de programmation logique. Son existence remonte aux années 90 et aux travaux sur la sémantique de la négation en Prolog, les bases de données déductives et les logiques non monotones. Un des intérêts d'ASP est de fournir un cadre expressif à la représentation des connaissances et au raisonnement en IA. Son succès vient en grande partie de l'existence de solveurs efficaces. Après une présentation des fondements d'ASP, j'envisage celui-ci comme langage de représentation de connaissances, et m'intéresse à des problèmes de changement de croyances. Deux problèmes sont envisagés : (i) que se passe-t-il si une nouvelle information est ajoutée à un programme ASP, entrainant une incohérence (je serai amené à discuter de cette notion dans le cadre des programmes ASP). Ce problème est celui de la révision. (ii) Si on considère $n$ sources d'information représentées par $n$ programmes ASP, et que leur union aboutit à une situation incohérente, comment procéder à la fusion de ces sources ? Wurbe170206.pdf Guilhem Jaber ENS Lyon 23/01/2017 15h00--17h00 Salle FRUMAM II étage, campus St-Charles Invité par Luigi Extending Dependent Type Theory with Forcing Forcing has been introduced by P. Cohen to prove the independence of the Continuum Hypothesis in Set Theory, and widely used in intuitionistic and modal logic as Kripke semantics. While generally considered as a semantic construction, it can also be seen syntactically as a proof translation. In this talk, we will present such forcing proof translations, for the Calculus of Constructions, a dependent type theory which is the foundation of the proof assistant Coq. Using them, we can extend the logic behind Coq with new principles, while keeping its fundamental properties: soundness, canonicity and decidability of type-checking. Furthermore, following the Curry-Howard proof/program correspondence, this also gives us, as we will see, a computational interpretation of forcing that corresponds to a ``monotonic'' version of the reader monad. So we will first consider a forcing translation coming from the restatement of forcing as (pre)sheaves models. However, this translation suffers from coherence problems. By decomposing this translation using P. Levy's call-by-push-value, we will see that this translation is call-by-value, but that there exists an other, more mysterious, call-by-name forcing translation, which does not suffer from such coherence problems. Finally, we will see an example of forcing translation using natural numbers as forcing conditions, which allows us to extend the theory with guarded recursive types. This is joint work with G. Lewertowski, P.-M. Pedrot, M. Sozeau and N. Tabareau. Pierre Siegel 16/01/2017 15h00--17h00 Salle FRUMAM II étage, campus St-Charles Randonnée autour des Systèmes Biologiques, des Logiques non-monotones et des Systèmes Dynamiques Finis Du point de vue logique et représentation des connaissances, un système biologique peut être considéré comme un ensemble d’éléments qui interagissent entre eux. Par exemple une cellule est un ensemble de protéines/gênes qui interagissent pour la faire survivre se reproduire et mourir. Pour l’Intelligence Artificielle la cellule pose des problèmes intéressants. Il faut d’abord formaliser les interactions, mais une formalisation en logique « classique » est difficile car elle donne des incohérences. Ensuite ce que l’on sait vient en grande partie d’expériences longues et coûteuses. On ne connaît donc qu’une petite partie des interactions et cette connaissance peut être révisable, incertaine, contradictoire et fausse. Il faut aussi essayer de compléter les interactions in-silico. D’autre part la complexité algorithme est importante et il est nécessaire de donner des techniques pour donner des temps de calcul raisonnables dans la pratique. Ces questions sont étudiées depuis longtemps en IA en utilisant en particulier des logiques non-monotones et des techniques issues de la programmation par contraintes. Je présenterai des résultats obtenus avec Andrei Doncescu et Tan Le [1] en utilisant la logique des défauts. D’un autre côté, les systèmes biologiques peuvent être étudiées dans le contexte des réseaux d’automates et des Systèmes Dynamiques Finis (SDF). Des théorèmes fondateurs ont porté sur les cycles d’interactions et leur étude est fondamentale. Mais une représentation par la logique des défauts (et par la plupart des logiques non-monotones) n’est pas adaptée. Par exemple pour un cycle « impair » on n’a pas d’extension (de solution, de point fixe..). Cette absence d’extension pour les logiques des défauts a été étudiée avec Camilla Schwind [2]. Cette étude a donné la Logique des Hypothèses. Pour cette logique on a toujours des extensions mais certaines de ces extensions, bien caractérisées, sont « étranges » (et leur utilité n’était pas claire). Avec Sylvain Sené et Andrei Doncescu j’étudie une représentation des cycles (et plus généralement des SDD) en utilisant la logique des hypothèses. Pour cette représentation les « étranges » extensions peuvent permettre de discriminer certains comportements asymptotiques stables et instables. Le but à moyen terme est de faire des liens formels entre la logique des hypothèses et les SDF. Un autre but est de donner des algorithmes efficaces pour calculer les cycles stables et instables. Je présenterai quelques résultats. [1] Andrei Doncescu and Pierre Siegel. Emerging Trends in Computational Biology, Bioinformatics, and Systems Biology, chapter DNA Double-Strand Break–Based Nonmonotonic Logic, pages 409–427. In Emerging Trends in Computer Science and Applied Computing. Elsevier, August 2015. 
 [2] P. Siegel, C. Schwind (93) Modal logic based theory for nonmonotonic reasoning. Journal of Applied Non classical Logic, vol 3 - n° Florent Capelli Birkbeck College, Birkbeck, University of London Chercheur invité par Nadia et Frédéric 12/12/2016 15h00--17h00 Salle FRUMAM II étage, campus St-Charles Restrictions structurelles des formules CNF : applications au comptage et à la compilation de connaissances Il est connu que le problème SAT, de décider si une formule CNF admet une solution, est facile lorsque la forme des clauses est restreintes, comme 2-SAT ou Horn-SAT. Cependant des problèmes plus compliqués, comme compter le nombre de solutions, restent aussi durs que le cas général pour de telles restrictions: #2-SAT est aussi dur que #SAT. Heureusement, des restrictions sur l'interaction entre les variables et les clauses permettent de trouver d'importantes classes de formules pour lesquelles le problème peut être résolu en temps polynomial. Dans cet exposé, nous commencerons par présenter comment on peut restreindre l'interaction entre les variables et les clauses et comment on peut les utiliser pour le comptage. Nous montrerons ensuite que ces algorithmes peuvent être vus comme une traduction d'une formule CNF vers une classe de circuits booléens ayant des propriétés intéressantes sur lesquels on peut résoudre en temps polynomial de nombreux problèmes d'agrégation comme le comptage pondéré ou l'énumération. Enfin, nous étudierons les limites de ces méthodes algorithmiques en exhibant des formules CNF n'ayant pas de tels circuits de petite taille. Farid Nouioua 5/12/2016 10h30--13h00(environ) salle Gérard Jaumes, au rez-de-chaussée du bâtiment Polytech du Campus de ST Jérôme Autour du traitement d'informations imparfaites. Contributions au : Raisonnement, Vérification et Optimisation. (Soutenance HDR) Line Jakubiec 21/11/2016 14h00--16h00 Salle FRUMAM II étage, campus St-Charles Le Langage naturel peut-il être logique ? Le traitement symbolique du langage écrit est basé sur la représentation logique des phrases ou des concepts véhiculés par les phrases. L'intérêt de la logique pour décrire la syntaxe et la sémantique du langage naturel n'est plus à démontrer. En particulier, des études récentes basées sur les théories des types présentent des particularités intéressantes pour analyser syntaxiquement ou sémantiquement des énoncés. En tant que utilisatrice du système Coq, je me suis penchée sur la question de la formalisation de certains aspects du langage naturel dans ce $\lambda$-calcul typé, pour réaliser une analyse de phrases simples en français. Dans cet exposé, je vous parlerai de cette étude et de mes perspectives de recherche dans ce cadre. L'exposé portera plus précisément sur la définition formelle du contexte d'énoncé des phrases (hiérarchie de concepts) dans le système Coq; puis nous nous baserons sur cette représentation pour réaliser l'analyse de phrases. Nous montrerons ensuite comment vérifier, à l'aide du typage, que l'énoncé est valide syntaxiquement et sémantiquement en proposant des modèles généraux de phrases. L'étude réalisée et basée sur diverses fonctionnalités de Coq présente: - des spécifications naturelles et générales de modèles de phrases, - une approche pour la représentation d'une hiérarchie de concepts, - une analyse sémantique automatique de phrases. Jakubiec161121.pdf Vincent Risch 7/11/2016 14h00--16h00 Salle FRUMAM II étage, campus St-Charles Une (petite) promenade formelle sur les chemins du raisonnement et de l'argumentation Après un rappel de quelques approches canoniques proposées ces dernières années en IA pour la formalisation du raisonnement et de l'argumentation, cet exposé sera consacré à la présentation d'un calcul issu des X-logiques [Siegel, Forget, 96], et destiné à la simulation d'un échange argumentatif entre deux agents formels. J'aborderai la question d'une articulation entre raisonnement et argumentation à partir de la représentation d’un agent artificiel raisonnant sur un ensemble d'attitudes possibles face à un argument donné, et comme préliminaire à la génération d'un nouvel argument donné en réponse par cet agent. En particulier, à partir du caractère paraconsistant des X-logiques, il est facile d'exhiber la matrice non–déterministe d'une logique quadri-valuée, matrice dont découle directement un calcul de type n–séquents. La réduction à un calcul de séquents classiques peut alors être opérée à partir de la méthode proposée par [Avron, Ben-Naim, Konikowska, 09]. Au final, la logique obtenue se présente comme une généralisation de la logique Source Processeur La Plus Générale (Most General Source-Processor Logic), ce qui permet en retour de considérer l'utilisation de cette dernière au sein de notre propre système argumentatif. Un lien inattendu avec la cumulatitivité de la X-logique sous-jacente est établi. argumentation, logiques multivaluées, X– logiques, matrices non–déterministes, n–séquents Risch161107.pdf Nicola Olivetti 17/10/2016 14h00--16h00 Salle FRUMAM II étage, campus St-Charles Logique des croyances conditionnelles multi-agent: analyse sémantique et système de preuve Olivetti161017.pdf Luigi Santocanale 3/10/2016 14h00--16h00 Salle FRUMAM II étage, campus St-Charles Théories quasi-équationnelles de la jointure naturelle et de la réunion interne Après avoir argumenté que la jointure naturelle et la réunion interne (de tables, dans les bases de données relationnelles) peuvent se considérer comme le inf et le sup dans une classe de treillis (les treillis relationnels) je souhaite parcourir avec vous le chemin qui mène à montrer que l'ensemble des quasi-équations valables dans cette classe de treillis est indécidable. Je mentionnerai, en route, les sujets suivants : * logique modales multidimensionnelle S5, algèbres cylindriques, algèbre de relations et algèbre relationnelle * problèmes indécidables dans les domaines mentionnés ci-dessus * indécidabilité des plongements dans une classe de structures, indécidabilité de la théorie quasi-équationnelle de ces structures * treillis relationnels, algèbre relationnelle, et logique modale * réduction du problème du plongement vers les treillis relationnels vers le problème du recouvrement par un graphe de Hamming Santocanale161003.pdf