Séminaires LFI

Les séminaires de l’équipe LFI du LIP6 sont ouverts à tous, ils sont organisés en présentiel (avec une diffusion en visio-conférence) sur le campus Pierre et Marie Curie de Sorbonne Université, à Jussieu (accès).

Année 2024

  • Séminaire LFI / LIP6 du 18 avril 2024, à 11h:
    « Choquet-Wasserstein pseudo-distances via optimal transport in Dempster-Shafer theory »

    par Davide Petturiti (Dpt of Economics, University of Perugia, Italy).
    Résumé : The marginal problem is considered in Dempster-Shafer theory, by investigating the structure of a suitable set of bivariate joint belief functions having fixed marginals, through copula theory. Next, we formulate two Kantorovich-like optimal transport problems, either seeking to minimize the Choquet integral of a given cost function with respect to the reference set of joint belief functions or its dual functional. A noticeable application is obtained by choosing a metric as cost function: this permits to define pessimistic and optimistic Choquet-Wasserstein pseudo-distances, that can be used to compare belief functions on the same space. Finally, given an arbitrary belief function, we address the problem of computing a “closest” belief function in some distinguished sub-classes, by minimizing one of the two Choquet-Wasserstein pseudo-distances. [Work in collaboration with Silvia Lorenzini (University of Perugia) and Barbara Vantaggi (Sapienza University of Roma)]
    Bio : Davide Petturiti is Associate Professor in Mathematical Methods for Economics and Actuarial and Financial Sciences, in the Department of Economics, at the University of Perugia (Italy) since 2019. He obtained his qualifications to the functions of Professor in Italy (ASN) in Mathematical Analysis, Probability and Statistics in 2021, and in Mathematical Methods for Economics and Actuarial and Financial Sciences in 2020. His research work focuses on artificial intelligence and decision theory.
    Lieu du séminaire : salle de conférences, SCAI, bâtiment Esclangon, 1er étage, Sorbonne Université, Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris
    Lien zoom : https://zoom.us/j/92957819847?pwd=eCtmT1dCbmd6QlhsOTBuVmpOOXJiQT09
    (ID de réunion: 929 5781 9847; Code: 20240418).
    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society

  • Séminaire LFI / TRAIL du 15 février 2024, à 10h:
    « Contributions à l’Intelligence Artificielle Explicable : Développement d’ExpressIF® au Service de l’Industrie et des Sciences » par Jean-Philippe Poli (CEA List, Saclay).

    Résumé : Aujourd’hui, les entreprises, les hôpitaux et les laboratoires de recherche doivent prendre des décisions complexes rapidement, notamment à cause de l’hétérogénéité et de la qualité des informations et des données dont ils disposent. Nous proposons depuis une quinzaine d’années d’accompagner ces acteurs dans leurs prises de décision avec notre outil ExpressIF® qui est une intelligence artificielle symbolique basée sur la logique floue. Nos travaux contribuent à proposer une intelligence artificielle explicable, capable de raisonner, d’apprendre et de justifier ses décisions tout en gardant l’Humain au centre de ces décisions.

    Bio : Jean-Philippe Poli est chercheur (HDR) au CEA List, à Saclay. Arrivé en post-doctorat, il y développe ExpressIF®, un outil basé sur l’inférence floue, qu’il applique à des projets sécurité. Aujourd’hui, il est responsable de l’équipe de recherche ExpressIF® qui poursuit la recherche et le développement autour de ce logiciel qui est transféré auprès des partenaires industriels ou d’autres laboratoires. Il est également enseignant à CentraleSupélec et dispense des formations d’acculturation en IA auprès de grands groupes et dans des formations en science des matériaux.

    Lieu du séminaire : Salle n°405, couloir 24-25, 4e étage (accès par la tour 24), LIP6, Sorbonne Université, Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris

    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society


  • Séminaire LFI / TRAIL du 8 février 2024, à 14h:
    « When factorization meets argumentation: towards argumentative explanations for recommendations » par Jinfeng Zhong (Université Paris Dauphine-PSL).
    Lieu du séminaire : Salle Jacques Pitrat, n°105, couloir 25-26, 1er étage (accès par la tour 26), LIP6, Sorbonne Université, Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris
    Résumé : Existing recommender systems frequently utilize factorization-based models, which are known for their efficiency in predicting ratings. However, the explicit semantics of the latent factors they learn are not always clear, complicating the task of explaining the recommendations. In contrast, argumentation-based methods have emerged as a significant tool in the realm of explainable artificial intelligence. In response, we propose a novel framework that synergizes factorization-based methods with argumentation frameworks (AFs). The integration of AFs provides clear semantics at each stage of the framework, enabling it to produce easily understandable explanations for its recommendations. In this framework, for every user-item interaction, an AF is defined in which the features of items are considered as arguments, and the users’ ratings towards these features determine the strength of these arguments. This perspective allows our framework to treat feature attribution as a structured argumentation procedure, where each calculation is marked with explicit semantics, enhancing its inherent interpretability. Additionally, our framework seamlessly incorporates side information, such as user contexts, leading to more accurate predictions. We anticipate at least three practical applications for our framework: creating explanation templates, providing interactive explanations, and generating contrastive explanations. Through testing on real-world datasets, we have found that our framework, along with its variants, not only surpasses existing argumentation-based methods but also competes effectively with current context-free and context-aware methods.

    Bio : I am a Temporary Lecturer and Research Assistant at Université Paris Dauphine-PSL. I successfully defended my Ph.D. thesis on the 30th of November 2023 (supervised by Elsa NEGRE). The focus of my thesis was Generality and Explainability in Recommender Systems, a topic that resonates within the field of artificial intelligence. Before joining LAMSADE for my doctoral studies, I pursued a Master’s degree at Université Paris Dauphine-PSL and completed my engineering education at AgroParisTech, under the guidance of Antoine CORNUEJOLS and Juliette Dibie. My academic path commenced with a Bachelor’s degree from Shanghai Jiao Tong University. My research interests are deeply rooted in artificial intelligence, focusing on general explainability and interpretability. This includes specialized areas like argumentation for explainable recommendations, counterfactual reasoning in the context of explainable recommendations, and methodologies for evaluating explanations.

    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society


  • Séminaire LFI du 18 janvier 2024, à 17h:
    « Modèles et utilité de la notion de conscience » par Gérard Sabah (Académie des Technologies).
    Lieu du séminaire : Salle Jacques Pitrat, n°105, couloir 25-26, 1er étage (accès par la tour 26), LIP6, Sorbonne Université, Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris
    Résumé : Après une présentation rapide de la notion de conscience et l’évocation de certains auteurs qui en ont proposé des modèles, je présenterai son utilité pour le traitement automatique des langues, ainsi que la vision de Jacques Pitrat pour la résolution de problème, avant de conclure par une vision de son rôle dans l’avenir.

    Bio : Gérard Sabah (1948), diplômé de l’École Polytechnique en 1971, entre au CNRS où il fait toute sa carrière. Docteur de 3e cycle en 1973, puis Docteur d’État ès sciences en 1978. Il est l’auteur de plus 200 articles et ouvrages en informatique linguistique et a dirigé plus de 60 thèses sur le sujet.
    Il a été président de l’Association pour la Recherche Cognitive, rédacteur en chef du bulletin de l’Association française d’intelligence artificielle et « Fellow » de l’ECCAI (renommée European Association for Artificial Intelligence en 2016). Il est actuellement membre de l’Académie des Technologies.

    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society


Année 2023

  • Séminaire LFI / TRAIL du 22 juin 2023, à 14h:
    « Génération d’explications contrefactuelles réalistes et robustes » par Victor Guyomard, Orange Labs et Université de Rennes, France.
    Lieu du séminaire : Salle n°211, couloir 55-65, Sorbonne Université, Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris (à l’entrée sur le campus, tourner vers la droite et atteindre la tour numérotée 55, monter au second étage et, parmi les 4 couloirs possibles, choisir celui indiqué 55-65 pour atteindre la salle 211
    plan du campus)
    Lien zoom :
    (closed)
    Résumé : L’objectif de la thèse est d’expliquer les décisions individuelles prises par l’IA en mettant l’accent sur les explications contrefactuelles. Dans cette présentation, Victor introduira deux contributions :1) le développement de VCnet, un modèle auto-explicatif qui combine un prédicteur et un générateur de contrefactuels qui sont appris simultanément. L’architecture est basée un autoencodeur variationnel, conditionné à la sortie du prédicteur pour générer des contrefactuels réalistes (proche de la distribution de la classe cible). VCnet est capable de générer des prédictions ainsi que des explications contrefactuelles sans avoir à résoudre un autre problème de minimisation.
    2) la proposition d’un nouveau formalisme, CROCO, pour générer des explications contrefactuelles robustes à la variation des entrées du contrefactuel. Cette forme de robustesse implique de trouver un compromis entre la robustesse du contrefactuel et la proximité avec l’exemple à expliquer. CROCO génère des contrefactuels robustes tout en gérant efficacement ce compromis et en garantissant à l’utilisateur une robustesse minimale. Des évaluations empiriques sur des ensembles de données tabulaires confirment la pertinence et l’efficacité de l’approche proposée.
    Références :


    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society

  • Séminaire TRAIL / TRAIL du 7 avril 2023, à 15h (2 exposés):
    • « Human-Centered AI: How Can We Support End-Users to Interact with AI? » par Katrien Verbert (KU Leuven).
      Résumé : Despite the long history of work on explanations in the Machine Learning, AI and Recommender Systems literature, current efforts face unprecedented difficulties: contemporary models are more complex and less interpretable than ever. As such models are used in many day-to-day applications, justifying their decisions for non-expert users with little or no technical knowledge will only become more crucial. Although several explanation methods have been proposed, little work has been done to evaluate whether the proposed methods indeed enhance human interpretability. Many existing methods also require significant expertise and are static. Several researchers have voiced the need for interaction with explanations as a core requirement to support understanding. In this talk, I will present our work on explanation methods that are tailored to the needs of non-expert users in AI. In addition, I will present the results of several user studies that investigate how such explanations interact with different personal characteristics, such as expertise, need for cognition and visual working memory.
    • « Visual Explanations for AI Decisions: Fostering Trust in AI through Transparency and Control » par Jeroen Ooge (KU Leuven).
      Résumé : Automated systems increasingly support decision-making with AI. While such automation often improves working efficiency, it also raises questions about the origin and validity of model outcomes. Explaining model outcomes is not trivial: AI models are black boxes to people unfamiliar with AI. A promising solution to realise explainable AI (XAI) is visualisation. Through interactive visualisations, people can better understand models’ behaviour and reasoning process, which helps them contextualise model outcomes. Important here is that different people and different contexts require different solutions. Thus, human-centred XAI methods are essential. In this talk, Jeroen will cover his XAI work on transparency and control, applied in healthcare and education. He will demonstrate some of the many visual interfaces he designed, and also present the user studies he conducted to study their impact on people’s behaviours, for example, their trust in AI decisions.

    Lieu du séminaire : salle de conférence de SCAI, bâtiment Esclangon, 1er étage, 4 place Jussieu, 75005 Paris
    Lien zoom et inscription (gratuite mais obligatoire)

    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society

  • Séminaire LFI / TRAIL du 2 mars 2023, à 10h30:
    « Une approche orientée utilisateurs pour des IA ontologiquement explicables » par Grégory Bourguin, LISIC, Univ. du Littoral Côte d’Opale, Calais, France.
    Lieu du séminaire : Salle Jacques Pitrat n°105, couloir 25-26, 4 place Jussieu, 75005 Paris
    Lien zoom :
    (closed)
    Résumé : La démocratisation des outils basés sur l’Apprentissage Profond (AP), souvent qualifiés de boites noires, s’est accompagnée de questionnements concernant la confiance que leurs utilisateurs peuvent leur accorder. Il est apparu qu’expliquer à un utilisateur final le rationnel ayant mené à une décision peut être aussi important que la décision elle-même. Cet exposé a pour objectif de présenter les premiers travaux de recherche de l’équipe SysReIC dans la création de classifieurs d’images capables de fournir des explications au niveau d’abstraction des experts du domaine d’application. Les ontologies permettent de capturer les connaissances des utilisateurs et l’inférence ontologique permet des déductions explicables à haut niveau d’abstraction. Souhaitant tirer parti de la puissance de l’AP et des propriétés des ontologies, la solution proposée est un pipeline de classification hybride constitué d’un module d’AP pour extraire des features ontologiques, combiné à un module de raisonnement implémenté sous forme de tenseurs et nommé OntoClassifier. La démarche est illustrée en réutilisant la fameuse ontologie des Pizzas de l’Université de Manchester. Les réflexions issues de ces premières expérimentations posent de nombreuses questions de recherches qui restent à aborder pour développer plus avant l’approche proposée.
    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
  • Séminaire du jeudi 19 janvier 2023, à 10h30 reporté en raison de la grève:
    « Intelligence géospatiale maritime : analyse des données de mobilités maritimes » par Cyril Ray, École Navale / Arts et Métiers.
    Lieu du séminaire : Salle n°105, couloir 25-26, 4 place Jussieu, 75005 Paris
    Lien Zoom : (mis ici le jour d’avant)
    Abstract
    : (format pdf)
    Le trafic maritime mondial se développe continûment avec une tendance à l’accroissement.
    Cependant il est également confronté à de nombreuses fluctuations, parfois à la baisse, dues notamment à l’évolution des relations socio-économiques entre les pays, à la situation pandémique, aux conflits pouvant affecter les zones maritimes stratégiques, aux changements climatiques qui peuvent, par exemple, affecter la localisation des ressources halieutiques…
    La révolution numérique dans le monde maritime (capteurs, bases de données, systèmes d’information, communications numériques, …) et l’impact de l’intelligence artificielle modifient profondément les modes d’intégration, de traitement et d’analyse de données maritimes générées quotidiennement et favorise une meilleure compréhension des mobilités maritimes ; analyse des navires (qui sont-ils, quelles sont leurs caractéristiques, etc.), analyse de leurs comportements maritimes à court terme (où se déplacent-ils, à quelle vitesse, etc.) et analyse de leurs situations maritimes à moyen/long terme (dans quel contexte se déplacent-
    ils, pourquoi, quel est le contexte international, etc.).
    Dans cette présentation, nous abordons une partie des travaux de l’école navale sur l’analyse de données de mobilité maritime. La présentation abordera les données elles-mêmes ; la question de leur qualité, incertitude et falsification. Dans une deuxième partie, les modèles de base de données relationnelle et graphe développés seront présentés. Enfin une série non exhaustive de différents algorithmes et analyses réalisés seront présentés..
    Bio: Cyril Ray est maître de conférences en informatique à l’Institut de Recherche de l’Ecole Navale (IRENav), France.
    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society

Année 2022

  • Séminaire du 1er décembre 2022, à 14h reporté (grève SNCF) au 19 janvier 2023:
    « Intelligence géospatiale maritime : analyse des données de mobilités maritimes » par Cyril Ray, École Navale / Arts et Métiers.
  • Séminaire du 25 octobre 2022, à 10h30:
    « Logical entropy and aggregation of fuzzy orthopartitions » par Stefania Boffa, University of Milano-Bicocca, Italy.
    Lieu du séminaire : Salle n°405, couloir 24-25, 4 place Jussieu, 75005 Paris
    Abstract :
    Fuzzy orthopartitions are generalizations of standard fuzzy partitions useful to model situations where both vagueness and uncertainty are involved. We intend to focus on the so-called lower and upper entropies, which subsume the concept of entropy in partition logic and measure the quantity of information contained in a fuzzy orthopartition. We mainly show some basic properties that characterize lower and upper entropies and highlight the connections between such entropy measures and novel operations and orderings on fuzzy orthopartitions.
    Bio: Stefania Boffa is a post-doctoral researcher at the University of Milano-Bicocca (Department of Informatics, Systems and Communication), Italy.
    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
  • Séminaire du 26 juillet 2022, à 11h: « Do explanations enhance trust in AI for healthcare applications? «  par Bénédicte Legastelois, King’s College London (Informatics Department)
    Lieu du séminaire : Salle Jacques Pitrat, n°105, couloir 25-26, 4 place Jussieu, 75005 Paris
    Résumé :
    In this presentation, I will discuss the impact of using explainable AI on stakeholders’ trust regarding their expectations. I will start with an overview of different studies published on this subject, especially in the healthcare domain. Then, I will present a case study in which I have looked at the quantitative and qualitative performances of a few explanation techniques, as well as regarding the question of
    interpretabilty of the given explanations. I propose to reflect on the issues raised in the literature and my experiment and argue that
    existing computer science research in XAI does not address the real trust-related concerns of healthcare professionals. I will, therefore,
    conclude by proposing a number of new research questions to address these concerns.Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
  • Séminaire du 2 juin 2022, à 10h: « Fouille de séquences de mobilité sémantique : comparaison, analyse et découverte de comportements » par Clément Moreau , Université de Tours / BRED — Banque Populaire
    Lieu du séminaire : Salle Jacques Pitrat, n°105, couloir 25-26, 4 place Jussieu, 75005 Paris

    Résumé :
    “Dites-moi ce que vous avez fait, je vous dirai qui vous êtes”. Cet aphorisme, inspiré du livre Fondation de Isaac Asimov, interroge sur la prédictibilité et la compréhension actuelle de l’humain basée sur ses actions passées. Sommes-nous ce que nous faisons ? Cette question est devenue aujourd’hui un enjeu majeur pour de nombreux domaines comme le profilage d’individus ou les systèmes de recommandation qui cherchent, dans les actions passées des utilisateurs, un révélateur de leurs comportements futurs ou de leur psychologie.
    Dans cette présentation, nous ancrons la précédente réflexion dans le cadre de la mobilité humaine et proposons la mise en place d’une méthodologie complète pour l’analyse et la découverte de comportements depuis un ensemble de séquences de mobilité sémantique.
    Un processus d’apprentissage non supervisé (i.e., clustering) est en charge de l’extraction des comportements notamment via l’élaboration deux nouvelles mesures pour la comparaison de telles séquences d’actions humaines. Inspirées de la distance d’édition et de la distance de Hamming, celles-ci s’appuient sur les ontologies et la logique floue afin de pallier les lacunes des distances originelles et permettent de mieux tenir compte des spécificités comportementales humaines telles que les habitudes.
    Une phase d’explicabilité post-process est assurée via un ensemble d’indicateurs visuels et statistiques afin de traduire les clusters en comportements intelligibles.
    Ces apports ont été appliqués sur différents jeux de données réelles issus du domaine de la mobilité – physique (mobilité urbaine) et virtuelle (exploration de base de données) — et ont permis d’améliorer significativement le processus d’interprétation et de découverte de comportements.

    Bio: Clément Moreau est actuellement Data Scientist et chargé R&D au sein de la Direction Développement et Connaissance Client de la BRED — Banque Populaire.

     

Année 2021

  • Séminaire du 29 avril 2021, à 16h: « Beyond Accuracy: A Multi-Objective Approach to Machine Learning » par Prof. Yaochu Jin , University of Surrey, Guildford, U.K.
    Lieu du séminaire : en visio-conférence.
    Résumé :
    Machine learning is inherently a multi-objective optimization problem, and its multiple objectives are typically conflicting to each other. Instead of converting the multiple objectives into a single one using hyperparameters, like commonly done in traditional machine learning, this talk presents a Pareto-based approach to multi-objective machine learning, where the aim is to achieve multiple models representing tradeoffs between accuracy and complexity, accuracy and interpretability, or accuracy and diversity. Examples of multi-objective generation of interpretable fuzzy systems, extraction of interpretable symbolic rules from trained neural networks, multi-objective feature extraction, and multi-objective federated learning will be given. The talk is concluded by a brief summary and an outline of remaining challenges.

    Bio: Yaochu Jin received the B.Sc., M.Sc., and Ph.D. degrees from Zhejiang University, Hangzhou, China, in 1988, 1991, and 1996, respectively, and the Dr.-Ing. degree from Ruhr University Bochum, Germany, in 2001.
    He is currently a Distinguished Chair, Professor in Computational Intelligence, Department of Computer Science, University of Surrey, Guildford, U.K., where he heads the Nature Inspired Computing and Engineering (NIICE) Group. He was a « Finland Distinguished Professor » of University of Jyvaskyla, Finland, and « Changjiang Distinguished Visiting Professor », Northeastern University, China. His main research interests include data-driven evolutionary optimization, evolutionary learning, trustworthy machine learning, and morphogenetic self-organizing systems.
    Dr Jin is presently the Editor-in-Chief of the IEEE TRANSACTIONS ON COGNITIVE AND DEVELOPMENTAL SYSTEMS and the Editor-in-Chief of Complex & Intelligent Systems. He is the recipient of the 2018 and 2021 IEEE Transactions on Evolutionary Computation Outstanding Paper Award, and the 2015, 2017, and 2020 IEEE Computational Intelligence Magazine Outstanding Paper Award. He was named by the Web of Science as « a Global Highly Cited Researcher » in 2019 and 2020. He is a Fellow of IEEE.
    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society

     

  • Séminaire du 8 avril 2021, à 10h: « Intelligences collectives naturelles et artificielles » par Evelyne Lutton, Directrice de recherche à l’INRAE, UMR MIA-Paris, INRAE-AgroParisTech.
    Lieu du séminaire : en visio-conférence. Lien de connexion Zoom:

    Résumé : L’irruption de la notion de collectif dans les interactions homme-machine et les techniques IA (apprentissage et optimisation) ouvre de nouvelles perspectives pour les outils numériques. Sur la base d’exemples personnels, cet exposé identifie quelques questions de recherche, en considérant différents contextes, de l’utilisateur individuel à l’écosystème d’utilisateurs. Les questions liées aux développements d’applications participatives semblent particulièrement difficiles et intéressantes.

     

    Bio: Evelyne Lutton est Ingénieure civile de Télécom Paris (1986), Docteure en mathématiques appliquées de Télécom Paris (1990) et Habilitée à diriger des recherches en informatique (1999) à l’université d’Orsay. Elle est directrice de recherche à l’INRAE (département MathNum) depuis 2013, après avoir été chercheuse à l’INRIA pendant 23 ans où elle a dirigé trois équipes de recherche FRACTALES, COMPLEX et APIS.
    Sa recherche concerne l’IA, l’optimisation interactive, les algorithmes évolutionnaires, la coopération-coévolution et les systèmes complexes, avec des applications en traitement du signal, des images et en modélisation de processus agro-alimentaires et biologiques.
    Elle est aussi co-animatrice, avec Véronique Bellon-Maurel, de la cellule de réflexion DigiGrAL de l’INRAE, consacrée à la digitalisation de la chaîne agri-alimentaire.

    Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society

  • Séminaire du 2 mars 2021, à 17h: « Developmental Machine Learning, Curiosity and Deep Reinforcement Learning » par Pierre-Yves Oudeyer , Directeur de recherche à l’Inria et responsable de l’équipe FLOWERS à l’Inria et l’Ensta ParisTech.
    Lieu du séminaire : en visio-conférence.
    Lien de connexion Zoom:
    Résumé :
    Current approaches to AI and machine learning are still fundamentally limited in comparison with autonomous learning capabilities of children. What is remarkable is not that some children become world champions in certains games or specialties: it is rather their autonomy, flexibility and efficiency at learning many everyday skills under strongly limited resources of time, computation and energy. And they do not need the intervention of an engineer for each new task (e.g. they do not need someone to provide a new task specific reward function).
    I will present a research program (Kaplan and Oudeyer, 2004; Oudeyer et al., 2007; Gottlieb and Oudeyer, 2019) that has focused on computational modeling of child development and learning mechanisms in the last decade. I will discuss several developmental forces that guide exploration in large real world spaces, starting from the perspective of how algorithmic models can help us understand better how they work in humans, and in return how this opens new approaches to autonomous machine learning.
    In particular, I will discuss models of curiosity-driven autonomous learning, enabling machines to sample and explore their own goals and their own learning strategies, self-organizing a learning curriculum without any external reward or supervision. I will introduce the Intrinsically Motivated Goal Exploration Processes (IMGEPs-) algorithmic framework, and present two families of IMGEPs: population-based IMGEPs (Baranes and Oudeyer, 2013; Forestie et al.,2017) with learned goal spaces (Pere et al., 2018), which have allowed sample efficient learning learning of skill repertoires in real robots, and goal-conditioned Deep RL-based IMGEPs, which enable strong generalization properties when they are modular (Colas et al., 2019), in particular when leveraging the compositionality of language to imagine goals in curiosity-driven exploration (Colas et al., 2020).References:

    Bio: Dr. Pierre-Yves Oudeyer is Research Director (DR1) at Inria and head of the Inria and Ensta-ParisTech FLOWERS team (France). Before, he has been a permanent researcher in Sony Computer Science Laboratory for 8 years (1999-2007). He studied theoretical computer science at Ecole Normale Supérieure in Lyon, and received his Ph.D. degree in artificial intelligence from the University Paris VI, France. He has been studying lifelong autonomous learning, and the self-organization of behavioural, cognitive and cultural structures, at the frontiers of artificial intelligence, machine learning, cognitive sciences and educational technologies. He has been developing models of intrinsically motivated learning, pioneering curiosity-driven learning algorithms working in real world robots, and developed theoretical frameworks to understand better human curiosity and autonomous learning. He also studied mechanisms enabling machines and humans to discover, invent, learn and evolve communication systems. He has published two books, more than 100 papers in international journals and conferences, holds 8 patents, gave several invited keynote lectures in international conferences, and received several prizes for his work in developmental robotics and on the origins of language. In particular, he is laureate of the Inria-National Academy of Science young researcher prize in computer sciences, and of an ERC Starting Grant EXPLORERS. He is also editor of IEEE CIS Newsletter on Cognitive and Developmental Systems where he organizes interdisciplinary dialogs in cognitive science, AI and robotics, as well as associate editor of IEEE Transactions on Cognitive and Developmental Systems and Frontiers in Neurorobotics. He has been chair of IEEE CIS Technical Committee on Cognitive and Developmental Systems.

    Séminaire organisé conjointement avec l’IEEE France Section Life Members Affinity Group et le chapitre Computational Intelligence de l’IEEE France Section (http://ieee-ci.lip6.fr/).

Année 2020

  • Séminaire du 17 décembre 2020, à 10h: « La similarité dans l’analogie et la métaphore » par Charles Tijus, EA 4004 – Cognitions Humaine et Artificielle, FED 4246 – LUTIN.
    Lieu du séminaire : en visio-conférence.

    Résumé : Dans les systèmes cognitifs naturels ou artificiels, les entités (objets, situations, organisations, événements) sont généralement mises en relation « à long terme » par catégorisation extensive (regrouper en différenciant / différencier en regroupant) et intensive (généraliser en spécifiant / spécifier en généralisant) à des fins de représentation (taxonomie) mais aussi de raisonnement et de prise de décision (ontologie). Dans un tel système de représentation, lorsqu’une nouvelle entité cible (inconnue) doit être représentée et raisonnée, elle doit être rangée avec ses homologues respectant la similarité catégorielle extensive et intensive.

    La pensée analogique et la métaphorique reflètent des compétences d’adaptation, de flexibilité cognitive, de créativité et d’innovation permettant des performances en raisonnement, compréhension, raisonnement, prise de décision et résolution de problème. Il s’agit de pensées pour lesquelles deux entités sont mises en relations « à court terme » en dehors de la similarité catégorielle ; ces dernières relevant de domaines différents. Dans ces deux cas, lorsqu’une entité cible X doit être représentée ou raisonnée, une entité X doit être trouvée pour servir de source à des fins de raisonnement analogique ou métaphorique.

    Le point de vue exposé et développé au séminaire est que la mesure de similarité analogique et métaphorique doit être orientée à la fois par

    • par le processus de mise en relation d’une entité X de départ et d’arrivée (cible, topique) avec une entité Y (source, véhicule) de transformation d’état de la connaissance de X : (i) pour la production de l’analogie ou de la métaphore (connaissant X, parmi toutes les entités candidates, comment trouver Y), (ii) sa compréhension (connaissant X et Y, comment comprendre la relation à Y), (iii) l’apprentissage (ne connaissant pas X, comment apprendre à reconnaître et connaitre X à partir de Y), et

    • par le but de la tâche justifiant la mise en œuvre de ce processus : nature des inférences à produire (comprendre, apprendre, résoudre).

    Une conjecture est que la mesure de similarité reposerait dans certain cas sur la catégorie attributive qui pourrait être générée littéralement, circonstanciellement, par Y pour considérer X.

    Séminaire co-organisé avec le Chapitre Français de l’IEEE Computational Intelligence Society

  • Séminaire du 19 novembre 2020, à 9h: « Deep Learning Networks for Medical Image Analysis: its past, future, and issues » by Pau-Choo (Julia) Chung, National Cheng Kung University (NCKU), Taiwan.
    Location : video conference.
    This talk is organised by the French Chapter of the IEEE Computational Intelligence Society thanks to the Distinguished Lecturer Program of the IEEE Computational Intelligence Society
    Abstract : Recent advancement of image understanding with deep learning neural networks has brought great attraction to those in image analysis into the focus of deep learning networks. While researchers on video/image analysis have jumped on the bandwagon of deep learning networks, medical image analyzers would be the coming followers. The characteristics of medical images are extremely different from those of photos and video images. The application of medical image analysis is also much more critical. For achieving the best effectiveness and feasibility of medical image analysis with deep learning approaches, several issues have to be considered. In this talk we will give a brief overview of the development of neural networks for medical image analysis in the past and the future trends with deep learning. Several issues in regard of the data preparation, techniques, and clinic applications will also be discussed.
    Biography: Pau-Choo (Julia) Chung (S’89-M’91-SM’02-F’08) received the Ph.D. degree in electrical engineering from Texas Tech University, USA, in 1991. She then joined the Department of Electrical Engineering, National Cheng Kung University (NCKU), Taiwan, in 1991 and has become a full professor in 1996. She served as the Head of Department of Electrical Engineering (2011-2014), the Director of Institute of Computer and Communication Engineering (2008-2011), the Vice Dean of College of Electrical Engineering and Computer Science (2011), the Director of the Center for Research of E-life Digital Technology (2005-2008), and the Director of Electrical Laboratory (2005-2008), NCKU. She was elected Distinguished Professor of NCKU in 2005 and received the Distinguished Professor Award of Chinese Institute of Electrical Engineering in 2012. She also served as Program Director of Intelligent Computing Division, Ministry of Science and Technology (2012-2014), Taiwan. She was the Director General of the Department of Information and Technology Education, Ministry of Education (2016-2018). She served the Vice President for Members Activities, IEEE CIS (2015-2018).Dr. Chung’s research interests include computational intelligence, medical image analysis, video analysis, and pattern recognition. Dr. Chung participated in many international conferences and society activities. She served as the program committee member in many international conferences. She served as the Publicity Co-Chair of WCCI 2014, SSCI 2013, SSCI 2011, and WCCI 2010. She served as an Associate Editor of IEEE Transactions on Neural Network and Learning Systems(2013-2015) and the Associate Editor of IEEE Transactions on Biomedical Circuits and Systems.Dr. Chung was the Chair of IEEE Computational Intelligence Society (CIS) (2004-2005) in Tainan Chapter, the Chair of the IEEE Life Science Systems and Applications Technical Committee (2008-2009). She was a member in BoG of CAS Society (2007-2009, 2010-2012). She served as an IEEE CAS Society Distinguished Lecturer (2005-2007) and the Chair of CIS Distinguished Lecturer Program (2012-2013). She served on two terms of ADCOM member of IEEE CIS (2009-2011, 2012-2014), the Chair of IEEE CIS Women in CI (2014). She is a Member of Phi Tau Phi honor society and is an IEEE Fellow since 2008.
  • Séminaire du 29 octobre 2020, à 14h« Contributions à l’étude du transfert analogique »
    par Fadi BADRA, Université Paris 13, actuellement en délégation CNRS au LIP6.Lieu : LIP6, salle 105 (1er étage), couloir 25-26, 4 place Jussieu, 75005 Paris
    Résumé : Si deux appartements sont similaires, il est plausible qu’ils aient des prix similaires ». Bien qu’il soit au coeur de la pensée humaine,
    ce type d’inférence a été relativement peu étudié en informatique, et concevoir un modèle computationnel du transfert analogique reste toujours à ce jour un défi. Dans ce séminaire, je reviendrai sur 5 années de travaux sur la modélisation qualitative du transfert analogique, je présenterai les résultats obtenus, et les enseignements qu’on peut en tirer.
    Séminaire co-organisé avec le Chapitre Français de l’IEEE Computational Intelligence Society

 

Avant 2020

    • Séminaires DAPA (Données et Apprentissage Artificiel) de 2010 à 2019 : cliquer ici