Le séminaire de l’équipe LFI est organisé au LIP6 (ou en visio-conférence en période de confinement).
Pour accéder au campus Pierre et Marie Curie à Jussieu, cliquer ici.
Année 2023
- Séminaire LFI / TRAIL du 22 juin 2023, à 14h:
« Génération d’explications contrefactuelles réalistes et robustes » par Victor Guyomard, Orange Labs et Université de Rennes, France.
Lieu du séminaire : Salle n°211, couloir 55-65, Sorbonne Université, Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris (à l’entrée sur le campus, tourner vers la droite et atteindre la tour numérotée 55, monter au second étage et, parmi les 4 couloirs possibles, choisir celui indiqué 55-65 pour atteindre la salle 211
plan du campus)
Lien zoom : (la veille de l’exposé)
Résumé : L’objectif de la thèse est d’expliquer les décisions individuelles prises par l’IA en mettant l’accent sur les explications contrefactuelles. Dans cette présentation, Victor introduira deux contributions :
1) le développement de VCnet, un modèle auto-explicatif qui combine un prédicteur et un générateur de contrefactuels qui sont appris simultanément. L’architecture est basée un autoencodeur variationnel, conditionné à la sortie du prédicteur pour générer des contrefactuels réalistes (proche de la distribution de la classe cible). VCnet est capable de générer des prédictions ainsi que des explications contrefactuelles sans avoir à résoudre un autre problème de minimisation.
2) la proposition d’un nouveau formalisme, CROCO, pour générer des explications contrefactuelles robustes à la variation des entrées du contrefactuel. Cette forme de robustesse implique de trouver un compromis entre la robustesse du contrefactuel et la proximité avec l’exemple à expliquer. CROCO génère des contrefactuels robustes tout en gérant efficacement ce compromis et en garantissant à l’utilisateur une robustesse minimale. Des évaluations empiriques sur des ensembles de données tabulaires confirment la pertinence et l’efficacité de l’approche proposée.
Références :- VCNet: A self-explaining model for realistic counterfactual generation. V. Guyomard, F. Fessant, T. Guyet, A. Termier, T. Bouadi.
- Generating robust counterfactual explanations. V. Guyomard, F. Fessant, T. Guyet, T. Bouadi, A. Termier.
Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society - Séminaire TRAIL / TRAIL du 7 avril 2023, à 15h (2 exposés):
- « Human-Centered AI: How Can We Support End-Users to Interact with AI? » par Katrien Verbert (KU Leuven).
Résumé : Despite the long history of work on explanations in the Machine Learning, AI and Recommender Systems literature, current efforts face unprecedented difficulties: contemporary models are more complex and less interpretable than ever. As such models are used in many day-to-day applications, justifying their decisions for non-expert users with little or no technical knowledge will only become more crucial. Although several explanation methods have been proposed, little work has been done to evaluate whether the proposed methods indeed enhance human interpretability. Many existing methods also require significant expertise and are static. Several researchers have voiced the need for interaction with explanations as a core requirement to support understanding. In this talk, I will present our work on explanation methods that are tailored to the needs of non-expert users in AI. In addition, I will present the results of several user studies that investigate how such explanations interact with different personal characteristics, such as expertise, need for cognition and visual working memory. - « Visual Explanations for AI Decisions: Fostering Trust in AI through Transparency and Control » par Jeroen Ooge (KU Leuven).
Résumé : Automated systems increasingly support decision-making with AI. While such automation often improves working efficiency, it also raises questions about the origin and validity of model outcomes. Explaining model outcomes is not trivial: AI models are black boxes to people unfamiliar with AI. A promising solution to realise explainable AI (XAI) is visualisation. Through interactive visualisations, people can better understand models’ behaviour and reasoning process, which helps them contextualise model outcomes. Important here is that different people and different contexts require different solutions. Thus, human-centred XAI methods are essential. In this talk, Jeroen will cover his XAI work on transparency and control, applied in healthcare and education. He will demonstrate some of the many visual interfaces he designed, and also present the user studies he conducted to study their impact on people’s behaviours, for example, their trust in AI decisions.
Lieu du séminaire : salle de conférence de SCAI, bâtiment Esclangon, 1er étage, 4 place Jussieu, 75005 Paris
Lien zoom et inscription (gratuite mais obligatoire)Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
- « Human-Centered AI: How Can We Support End-Users to Interact with AI? » par Katrien Verbert (KU Leuven).
- Séminaire LFI / TRAIL du 2 mars 2023, à 10h30:
« Une approche orientée utilisateurs pour des IA ontologiquement explicables » par Grégory Bourguin, LISIC, Univ. du Littoral Côte d’Opale, Calais, France.
Lieu du séminaire : Salle Jacques Pitrat n°105, couloir 25-26, 4 place Jussieu, 75005 Paris
Lien zoom : (closed)
Résumé : La démocratisation des outils basés sur l’Apprentissage Profond (AP), souvent qualifiés de boites noires, s’est accompagnée de questionnements concernant la confiance que leurs utilisateurs peuvent leur accorder. Il est apparu qu’expliquer à un utilisateur final le rationnel ayant mené à une décision peut être aussi important que la décision elle-même. Cet exposé a pour objectif de présenter les premiers travaux de recherche de l’équipe SysReIC dans la création de classifieurs d’images capables de fournir des explications au niveau d’abstraction des experts du domaine d’application. Les ontologies permettent de capturer les connaissances des utilisateurs et l’inférence ontologique permet des déductions explicables à haut niveau d’abstraction. Souhaitant tirer parti de la puissance de l’AP et des propriétés des ontologies, la solution proposée est un pipeline de classification hybride constitué d’un module d’AP pour extraire des features ontologiques, combiné à un module de raisonnement implémenté sous forme de tenseurs et nommé OntoClassifier. La démarche est illustrée en réutilisant la fameuse ontologie des Pizzas de l’Université de Manchester. Les réflexions issues de ces premières expérimentations posent de nombreuses questions de recherches qui restent à aborder pour développer plus avant l’approche proposée.
Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society Séminaire du jeudi 19 janvier 2023, à 10h30reporté en raison de la grève:
« Intelligence géospatiale maritime : analyse des données de mobilités maritimes » par Cyril Ray, École Navale / Arts et Métiers.
Lieu du séminaire : Salle n°105, couloir 25-26, 4 place Jussieu, 75005 Paris
Lien Zoom : (mis ici le jour d’avant)
Abstract : (format pdf)
Le trafic maritime mondial se développe continûment avec une tendance à l’accroissement.
Cependant il est également confronté à de nombreuses fluctuations, parfois à la baisse, dues notamment à l’évolution des relations socio-économiques entre les pays, à la situation pandémique, aux conflits pouvant affecter les zones maritimes stratégiques, aux changements climatiques qui peuvent, par exemple, affecter la localisation des ressources halieutiques…
La révolution numérique dans le monde maritime (capteurs, bases de données, systèmes d’information, communications numériques, …) et l’impact de l’intelligence artificielle modifient profondément les modes d’intégration, de traitement et d’analyse de données maritimes générées quotidiennement et favorise une meilleure compréhension des mobilités maritimes ; analyse des navires (qui sont-ils, quelles sont leurs caractéristiques, etc.), analyse de leurs comportements maritimes à court terme (où se déplacent-ils, à quelle vitesse, etc.) et analyse de leurs situations maritimes à moyen/long terme (dans quel contexte se déplacent-
ils, pourquoi, quel est le contexte international, etc.).
Dans cette présentation, nous abordons une partie des travaux de l’école navale sur l’analyse de données de mobilité maritime. La présentation abordera les données elles-mêmes ; la question de leur qualité, incertitude et falsification. Dans une deuxième partie, les modèles de base de données relationnelle et graphe développés seront présentés. Enfin une série non exhaustive de différents algorithmes et analyses réalisés seront présentés..
Bio: Cyril Ray est maître de conférences en informatique à l’Institut de Recherche de l’Ecole Navale (IRENav), France.
Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
Année 2022
Séminaire du 1er décembre 2022, à 14hreporté (grève SNCF) au 19 janvier 2023:
« Intelligence géospatiale maritime : analyse des données de mobilités maritimes » par Cyril Ray, École Navale / Arts et Métiers.- Séminaire du 25 octobre 2022, à 10h30:
« Logical entropy and aggregation of fuzzy orthopartitions » par Stefania Boffa, University of Milano-Bicocca, Italy.
Lieu du séminaire : Salle n°405, couloir 24-25, 4 place Jussieu, 75005 Paris
Abstract :
Fuzzy orthopartitions are generalizations of standard fuzzy partitions useful to model situations where both vagueness and uncertainty are involved. We intend to focus on the so-called lower and upper entropies, which subsume the concept of entropy in partition logic and measure the quantity of information contained in a fuzzy orthopartition. We mainly show some basic properties that characterize lower and upper entropies and highlight the connections between such entropy measures and novel operations and orderings on fuzzy orthopartitions.
Bio: Stefania Boffa is a post-doctoral researcher at the University of Milano-Bicocca (Department of Informatics, Systems and Communication), Italy.
Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
- Séminaire du 26 juillet 2022, à 11h: « Do explanations enhance trust in AI for healthcare applications? « par Bénédicte Legastelois, King’s College London (Informatics Department)
Lieu du séminaire : Salle Jacques Pitrat, n°105, couloir 25-26, 4 place Jussieu, 75005 Paris
Résumé :
In this presentation, I will discuss the impact of using explainable AI on stakeholders’ trust regarding their expectations. I will start with an overview of different studies published on this subject, especially in the healthcare domain. Then, I will present a case study in which I have looked at the quantitative and qualitative performances of a few explanation techniques, as well as regarding the question of
interpretabilty of the given explanations. I propose to reflect on the issues raised in the literature and my experiment and argue that
existing computer science research in XAI does not address the real trust-related concerns of healthcare professionals. I will, therefore,
conclude by proposing a number of new research questions to address these concerns.Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society - Séminaire du 2 juin 2022, à 10h: « Fouille de séquences de mobilité sémantique : comparaison, analyse et découverte de comportements » par Clément Moreau , Université de Tours / BRED — Banque Populaire
Lieu du séminaire : Salle Jacques Pitrat, n°105, couloir 25-26, 4 place Jussieu, 75005 ParisRésumé :
“Dites-moi ce que vous avez fait, je vous dirai qui vous êtes”. Cet aphorisme, inspiré du livre Fondation de Isaac Asimov, interroge sur la prédictibilité et la compréhension actuelle de l’humain basée sur ses actions passées. Sommes-nous ce que nous faisons ? Cette question est devenue aujourd’hui un enjeu majeur pour de nombreux domaines comme le profilage d’individus ou les systèmes de recommandation qui cherchent, dans les actions passées des utilisateurs, un révélateur de leurs comportements futurs ou de leur psychologie.
Dans cette présentation, nous ancrons la précédente réflexion dans le cadre de la mobilité humaine et proposons la mise en place d’une méthodologie complète pour l’analyse et la découverte de comportements depuis un ensemble de séquences de mobilité sémantique.
Un processus d’apprentissage non supervisé (i.e., clustering) est en charge de l’extraction des comportements notamment via l’élaboration deux nouvelles mesures pour la comparaison de telles séquences d’actions humaines. Inspirées de la distance d’édition et de la distance de Hamming, celles-ci s’appuient sur les ontologies et la logique floue afin de pallier les lacunes des distances originelles et permettent de mieux tenir compte des spécificités comportementales humaines telles que les habitudes.
Une phase d’explicabilité post-process est assurée via un ensemble d’indicateurs visuels et statistiques afin de traduire les clusters en comportements intelligibles.
Ces apports ont été appliqués sur différents jeux de données réelles issus du domaine de la mobilité – physique (mobilité urbaine) et virtuelle (exploration de base de données) — et ont permis d’améliorer significativement le processus d’interprétation et de découverte de comportements.Bio: Clément Moreau est actuellement Data Scientist et chargé R&D au sein de la Direction Développement et Connaissance Client de la BRED — Banque Populaire.
Année 2021
- Séminaire du 29 avril 2021, à 16h: « Beyond Accuracy: A Multi-Objective Approach to Machine Learning » par Prof. Yaochu Jin , University of Surrey, Guildford, U.K.
Lieu du séminaire : en visio-conférence.
Résumé :
Machine learning is inherently a multi-objective optimization problem, and its multiple objectives are typically conflicting to each other. Instead of converting the multiple objectives into a single one using hyperparameters, like commonly done in traditional machine learning, this talk presents a Pareto-based approach to multi-objective machine learning, where the aim is to achieve multiple models representing tradeoffs between accuracy and complexity, accuracy and interpretability, or accuracy and diversity. Examples of multi-objective generation of interpretable fuzzy systems, extraction of interpretable symbolic rules from trained neural networks, multi-objective feature extraction, and multi-objective federated learning will be given. The talk is concluded by a brief summary and an outline of remaining challenges.Bio: Yaochu Jin received the B.Sc., M.Sc., and Ph.D. degrees from Zhejiang University, Hangzhou, China, in 1988, 1991, and 1996, respectively, and the Dr.-Ing. degree from Ruhr University Bochum, Germany, in 2001.
He is currently a Distinguished Chair, Professor in Computational Intelligence, Department of Computer Science, University of Surrey, Guildford, U.K., where he heads the Nature Inspired Computing and Engineering (NIICE) Group. He was a « Finland Distinguished Professor » of University of Jyvaskyla, Finland, and « Changjiang Distinguished Visiting Professor », Northeastern University, China. His main research interests include data-driven evolutionary optimization, evolutionary learning, trustworthy machine learning, and morphogenetic self-organizing systems.
Dr Jin is presently the Editor-in-Chief of the IEEE TRANSACTIONS ON COGNITIVE AND DEVELOPMENTAL SYSTEMS and the Editor-in-Chief of Complex & Intelligent Systems. He is the recipient of the 2018 and 2021 IEEE Transactions on Evolutionary Computation Outstanding Paper Award, and the 2015, 2017, and 2020 IEEE Computational Intelligence Magazine Outstanding Paper Award. He was named by the Web of Science as « a Global Highly Cited Researcher » in 2019 and 2020. He is a Fellow of IEEE.
Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society - Séminaire du 8 avril 2021, à 10h: « Intelligences collectives naturelles et artificielles » par Evelyne Lutton, Directrice de recherche à l’INRAE, UMR MIA-Paris, INRAE-AgroParisTech.
Lieu du séminaire : en visio-conférence. Lien de connexion Zoom:Résumé : L’irruption de la notion de collectif dans les interactions homme-machine et les techniques IA (apprentissage et optimisation) ouvre de nouvelles perspectives pour les outils numériques. Sur la base d’exemples personnels, cet exposé identifie quelques questions de recherche, en considérant différents contextes, de l’utilisateur individuel à l’écosystème d’utilisateurs. Les questions liées aux développements d’applications participatives semblent particulièrement difficiles et intéressantes.
Bio: Evelyne Lutton est Ingénieure civile de Télécom Paris (1986), Docteure en mathématiques appliquées de Télécom Paris (1990) et Habilitée à diriger des recherches en informatique (1999) à l’université d’Orsay. Elle est directrice de recherche à l’INRAE (département MathNum) depuis 2013, après avoir été chercheuse à l’INRIA pendant 23 ans où elle a dirigé trois équipes de recherche FRACTALES, COMPLEX et APIS.
Sa recherche concerne l’IA, l’optimisation interactive, les algorithmes évolutionnaires, la coopération-coévolution et les systèmes complexes, avec des applications en traitement du signal, des images et en modélisation de processus agro-alimentaires et biologiques.
Elle est aussi co-animatrice, avec Véronique Bellon-Maurel, de la cellule de réflexion DigiGrAL de l’INRAE, consacrée à la digitalisation de la chaîne agri-alimentaire.Ce séminaire est organisé conjointement avec le Chapitre Français de l’IEEE Computational Intelligence Society
- Séminaire du 2 mars 2021, à 17h: « Developmental Machine Learning, Curiosity and Deep Reinforcement Learning » par Pierre-Yves Oudeyer , Directeur de recherche à l’Inria et responsable de l’équipe FLOWERS à l’Inria et l’Ensta ParisTech.
Lieu du séminaire : en visio-conférence.
Lien de connexion Zoom:
Résumé :
Current approaches to AI and machine learning are still fundamentally limited in comparison with autonomous learning capabilities of children. What is remarkable is not that some children become world champions in certains games or specialties: it is rather their autonomy, flexibility and efficiency at learning many everyday skills under strongly limited resources of time, computation and energy. And they do not need the intervention of an engineer for each new task (e.g. they do not need someone to provide a new task specific reward function).
I will present a research program (Kaplan and Oudeyer, 2004; Oudeyer et al., 2007; Gottlieb and Oudeyer, 2019) that has focused on computational modeling of child development and learning mechanisms in the last decade. I will discuss several developmental forces that guide exploration in large real world spaces, starting from the perspective of how algorithmic models can help us understand better how they work in humans, and in return how this opens new approaches to autonomous machine learning.
In particular, I will discuss models of curiosity-driven autonomous learning, enabling machines to sample and explore their own goals and their own learning strategies, self-organizing a learning curriculum without any external reward or supervision. I will introduce the Intrinsically Motivated Goal Exploration Processes (IMGEPs-) algorithmic framework, and present two families of IMGEPs: population-based IMGEPs (Baranes and Oudeyer, 2013; Forestie et al.,2017) with learned goal spaces (Pere et al., 2018), which have allowed sample efficient learning learning of skill repertoires in real robots, and goal-conditioned Deep RL-based IMGEPs, which enable strong generalization properties when they are modular (Colas et al., 2019), in particular when leveraging the compositionality of language to imagine goals in curiosity-driven exploration (Colas et al., 2020).References:- Baranes, A., Oudeyer, P-Y. (2013) Active Learning of Inverse Models with Intrinsically Motivated Goal Exploration in Robots, Robotics and Autonomous Systems, 61(1), pp. 49-73.
- Colas, C., Sigaud, O., Oudeyer, P-Y. (2019) CURIOUS : Intrinsically Motivated Modular, Multi- Goal Reinforcement Learning, Proceedings of International Conference on Machine Learning (ICML 2019).
- Colas, C., Karch, T., Lair, N., Dussoux, J. M., Moulin-Frier, C., Dominey, P. F., & Oudeyer, P. Y. (2020). Language as a Cognitive Tool to Imagine Goals in Curiosity-Driven Exploration. Neurips 2020,
- Gottlieb, J.,Oudeyer, P-Y. (2018) Towards a neuroscience of active sampling and curiosity, Nature Reviews Neuroscience, 19(758–770).
- Forestier S, Oudeyer P-Y. (2017) Intrinsically Motivated Goal Exploration Processes with Automatic Curriculum Learning.
- Kaplan, F., & Oudeyer, P. Y. (2004). Maximizing learning progress: an internal reward system for development. In Embodied artificial intelligence (pp. 259-270). Springer, Berlin, Heidelberg.
- Oudeyer P-Y, Kaplan , F. and Hafner, V. (2007) Intrinsic Motivation Systems for Autonomous Mental Development, IEEE Transactions on Evolutionary Computation, 11(2), pp. 265–286.
- Péré, A., Forestier, S., Sigaud, O., & Oudeyer, P. Y. (2018). Unsupervised learning of goal spaces for intrinsically motivated goal exploration, ICLR 2018.
Bio: Dr. Pierre-Yves Oudeyer is Research Director (DR1) at Inria and head of the Inria and Ensta-ParisTech FLOWERS team (France). Before, he has been a permanent researcher in Sony Computer Science Laboratory for 8 years (1999-2007). He studied theoretical computer science at Ecole Normale Supérieure in Lyon, and received his Ph.D. degree in artificial intelligence from the University Paris VI, France. He has been studying lifelong autonomous learning, and the self-organization of behavioural, cognitive and cultural structures, at the frontiers of artificial intelligence, machine learning, cognitive sciences and educational technologies. He has been developing models of intrinsically motivated learning, pioneering curiosity-driven learning algorithms working in real world robots, and developed theoretical frameworks to understand better human curiosity and autonomous learning. He also studied mechanisms enabling machines and humans to discover, invent, learn and evolve communication systems. He has published two books, more than 100 papers in international journals and conferences, holds 8 patents, gave several invited keynote lectures in international conferences, and received several prizes for his work in developmental robotics and on the origins of language. In particular, he is laureate of the Inria-National Academy of Science young researcher prize in computer sciences, and of an ERC Starting Grant EXPLORERS. He is also editor of IEEE CIS Newsletter on Cognitive and Developmental Systems where he organizes interdisciplinary dialogs in cognitive science, AI and robotics, as well as associate editor of IEEE Transactions on Cognitive and Developmental Systems and Frontiers in Neurorobotics. He has been chair of IEEE CIS Technical Committee on Cognitive and Developmental Systems.
Séminaire organisé conjointement avec l’IEEE France Section Life Members Affinity Group et le chapitre Computational Intelligence de l’IEEE France Section (http://ieee-ci.lip6.fr/).
Année 2020
- Séminaire du 17 décembre 2020, à 10h: « La similarité dans l’analogie et la métaphore » par Charles Tijus, EA 4004 – Cognitions Humaine et Artificielle, FED 4246 – LUTIN.
Lieu du séminaire : en visio-conférence.Résumé : Dans les systèmes cognitifs naturels ou artificiels, les entités (objets, situations, organisations, événements) sont généralement mises en relation « à long terme » par catégorisation extensive (regrouper en différenciant / différencier en regroupant) et intensive (généraliser en spécifiant / spécifier en généralisant) à des fins de représentation (taxonomie) mais aussi de raisonnement et de prise de décision (ontologie). Dans un tel système de représentation, lorsqu’une nouvelle entité cible (inconnue) doit être représentée et raisonnée, elle doit être rangée avec ses homologues respectant la similarité catégorielle extensive et intensive.
La pensée analogique et la métaphorique reflètent des compétences d’adaptation, de flexibilité cognitive, de créativité et d’innovation permettant des performances en raisonnement, compréhension, raisonnement, prise de décision et résolution de problème. Il s’agit de pensées pour lesquelles deux entités sont mises en relations « à court terme » en dehors de la similarité catégorielle ; ces dernières relevant de domaines différents. Dans ces deux cas, lorsqu’une entité cible X doit être représentée ou raisonnée, une entité X doit être trouvée pour servir de source à des fins de raisonnement analogique ou métaphorique.
Le point de vue exposé et développé au séminaire est que la mesure de similarité analogique et métaphorique doit être orientée à la fois par
-
par le processus de mise en relation d’une entité X de départ et d’arrivée (cible, topique) avec une entité Y (source, véhicule) de transformation d’état de la connaissance de X : (i) pour la production de l’analogie ou de la métaphore (connaissant X, parmi toutes les entités candidates, comment trouver Y), (ii) sa compréhension (connaissant X et Y, comment comprendre la relation à Y), (iii) l’apprentissage (ne connaissant pas X, comment apprendre à reconnaître et connaitre X à partir de Y), et
-
par le but de la tâche justifiant la mise en œuvre de ce processus : nature des inférences à produire (comprendre, apprendre, résoudre).
Une conjecture est que la mesure de similarité reposerait dans certain cas sur la catégorie attributive qui pourrait être générée littéralement, circonstanciellement, par Y pour considérer X.
Séminaire co-organisé avec le Chapitre Français de l’IEEE Computational Intelligence Society
-
- Séminaire du 19 novembre 2020, à 9h: « Deep Learning Networks for Medical Image Analysis: its past, future, and issues » by Pau-Choo (Julia) Chung, National Cheng Kung University (NCKU), Taiwan.
Location : video conference.
This talk is organised by the French Chapter of the IEEE Computational Intelligence Society thanks to the Distinguished Lecturer Program of the IEEE Computational Intelligence Society
Abstract : Recent advancement of image understanding with deep learning neural networks has brought great attraction to those in image analysis into the focus of deep learning networks. While researchers on video/image analysis have jumped on the bandwagon of deep learning networks, medical image analyzers would be the coming followers. The characteristics of medical images are extremely different from those of photos and video images. The application of medical image analysis is also much more critical. For achieving the best effectiveness and feasibility of medical image analysis with deep learning approaches, several issues have to be considered. In this talk we will give a brief overview of the development of neural networks for medical image analysis in the past and the future trends with deep learning. Several issues in regard of the data preparation, techniques, and clinic applications will also be discussed.
Biography: Pau-Choo (Julia) Chung (S’89-M’91-SM’02-F’08) received the Ph.D. degree in electrical engineering from Texas Tech University, USA, in 1991. She then joined the Department of Electrical Engineering, National Cheng Kung University (NCKU), Taiwan, in 1991 and has become a full professor in 1996. She served as the Head of Department of Electrical Engineering (2011-2014), the Director of Institute of Computer and Communication Engineering (2008-2011), the Vice Dean of College of Electrical Engineering and Computer Science (2011), the Director of the Center for Research of E-life Digital Technology (2005-2008), and the Director of Electrical Laboratory (2005-2008), NCKU. She was elected Distinguished Professor of NCKU in 2005 and received the Distinguished Professor Award of Chinese Institute of Electrical Engineering in 2012. She also served as Program Director of Intelligent Computing Division, Ministry of Science and Technology (2012-2014), Taiwan. She was the Director General of the Department of Information and Technology Education, Ministry of Education (2016-2018). She served the Vice President for Members Activities, IEEE CIS (2015-2018).Dr. Chung’s research interests include computational intelligence, medical image analysis, video analysis, and pattern recognition. Dr. Chung participated in many international conferences and society activities. She served as the program committee member in many international conferences. She served as the Publicity Co-Chair of WCCI 2014, SSCI 2013, SSCI 2011, and WCCI 2010. She served as an Associate Editor of IEEE Transactions on Neural Network and Learning Systems(2013-2015) and the Associate Editor of IEEE Transactions on Biomedical Circuits and Systems.Dr. Chung was the Chair of IEEE Computational Intelligence Society (CIS) (2004-2005) in Tainan Chapter, the Chair of the IEEE Life Science Systems and Applications Technical Committee (2008-2009). She was a member in BoG of CAS Society (2007-2009, 2010-2012). She served as an IEEE CAS Society Distinguished Lecturer (2005-2007) and the Chair of CIS Distinguished Lecturer Program (2012-2013). She served on two terms of ADCOM member of IEEE CIS (2009-2011, 2012-2014), the Chair of IEEE CIS Women in CI (2014). She is a Member of Phi Tau Phi honor society and is an IEEE Fellow since 2008. - Séminaire du 29 octobre 2020, à 14h: « Contributions à l’étude du transfert analogique »
par Fadi BADRA, Université Paris 13, actuellement en délégation CNRS au LIP6.Lieu : LIP6, salle 105 (1er étage), couloir 25-26, 4 place Jussieu, 75005 Paris
Résumé : Si deux appartements sont similaires, il est plausible qu’ils aient des prix similaires ». Bien qu’il soit au coeur de la pensée humaine,
ce type d’inférence a été relativement peu étudié en informatique, et concevoir un modèle computationnel du transfert analogique reste toujours à ce jour un défi. Dans ce séminaire, je reviendrai sur 5 années de travaux sur la modélisation qualitative du transfert analogique, je présenterai les résultats obtenus, et les enseignements qu’on peut en tirer.
Séminaire co-organisé avec le Chapitre Français de l’IEEE Computational Intelligence Society
Avant 2020
-
- Séminaires DAPA (Données et Apprentissage Artificiel) de 2010 à 2019 : cliquer ici