January 21, 2021
- Speaker: Michel Dumontier (Maastricht University)
- Title: Accelerating biomedical discovery science with an Internet of FAIR data and services
- Abstract: Biomedicine has always been a fertile and challenging domain for computational discovery science. Indeed, the existence of millions of scientific articles, thousands of databases, and hundreds of ontologies, offer exciting opportunities to reuse our collective knowledge, were we not stymied by incompatible formats, overlapping and incomplete vocabularies, unclear licensing, and heterogeneous access points. In this talk, I will discuss our work to create computational standards, platforms, and methods to wrangle knowledge into simple, but effective representations based on semantic web technologies that are maximally FAIR – Findable, Accessible, Interoperable, and Reusable – and to further use these for biomedical knowledge discovery. But only with additional crucial developments will this emerging Internet of FAIR data and services enable automated scientific discovery on a global scale.
- Bio: Dr. Michel Dumontier is the Distinguished Professor of Data Science at Maastricht University and co-founder of the FAIR (Findable, Accessible, Interoperable and Reusable) data principles. His research focuses on the development of computational methods for scalable and responsible discovery science. Dr. Dumontier obtained his BSc (Biochemistry) in 1998 from the University of Manitoba, and his PhD (Bioinformatics) in 2005 from the University of Toronto. Previously a faculty member at Carleton University in Ottawa and Stanford University in Palo Alto, Dr. Dumontier founded and directs the interfaculty Institute of Data Science at Maastricht University to develop sociotechnological systems for responsible data science by design. His work is supported through the Dutch National Research Agenda, the Netherlands Organisation for Scientific Research, Horizon 2020, the European Open Science Cloud, the US National Institutes of Health and a Marie-Curie Innovative Training Network. He is the editor-in-chief for the journal Data Science and is internationally recognized for his contributions in bioinformatics, biomedical informatics, and semantic technologies including ontologies and linked data.
- Slides: View slides
March 16, 2021
- Speaker: Ioanna Manolescu ( Inria, Saclay)
- Title: What do the Sources Say? Exploring Heterogeneous Journalistic Data As a Graph
- Abstract:Professional journalism is of utmost importance nowadays. It is a main feature distinguishing dictatorships from democracies, and a mirror sorely needed by society to look upon itself and understand its functioning. In turn, understanding is necessary for making informed decisions, such as political choices.With the world turning increasingly digital, journalists need to analyze very large amounts of data, while having no control over the structure, organization, and format of the data. Since 2013, my team has been working to understand data journalism and computational fact-checking use cases, to identify and develop tools adapted for this challenging setting. I will describe our SourcesSay project (2020-2024), in which extremely heterogeneous data sources are integrated as graphs, on top of which journalistic applications can be supported through flexible graph queries. I will explain the data source integration module, the role played by Information Extraction and Entity Disambiguation, as well as novel techniques to explore and simplify these graphs.
This work is joint with Angelos Anadiotis, Oana Balalau, Helena Galhardas, Tayeb Merabti, Emmanuel Pietriga, and many other colleagues. Project Web site: https://sourcessay.inria.fr
- Slides: View slides
April 29, 2021
- Speaker: Bruno Crémilleux (Greyc, University of Caen)
- Title: Pattern mining : d’une recherche exhaustive à une découverte de motifs centrée sur l’utilisateur.
- Abstract: La fouille de données orientée motifs – ou pattern mining – est maintenant un domaine bien établi de la fouille de données. Les méthodes ont longtemps privilégié les approches complètes en effectuant d’importants efforts sur les aspects algorithmiques. Dans cet exposé, nous montrons les succès et les limites pratiques de ces approches qui ont motivé l’évolution du domaine vers l’utilisation de préférences et des méthodes centrées sur l’utilisateur·ice. Nous illustrons cette évolution en montrant comment intégrer des préférences explicites en pattern mining. L’utilisateur·ice ayant souvent une idée vague de l’information recherchée, nous introduisons la fouille interactive et ses défis, la fouille interactive ayant l’avantage d’expliciter les préférences utilisateur·ice afin de fournir des motifs plus utiles.
May 20, 2021
- Speaker: Tias Guns (Vrije Universiteit Brussel, Belgium)
- Title: Learning from user and environment in combinatorial optimisation
- Abstract:
Industry and society are increasingly automating processes, which requires solving constrained optimisation problems. This includes vehicle routing problems in transportation, scheduling of tasks in electricity demand-response programs, rostering of personnel and more. However, the solutions found by state-of-the-art constraint programming solvers are often found to not match the expectations of domain experts, which reduces the potential of the technology.One key direction to overcome this, is to automatically learn from the user and environment over time. This includes learning preferences, implicit constraints and impacts of external factors. It requires combining machine learning techniques with constraint solving techniques, and hence hybrid learning and reasoning systems.In this talk I will provide an overview of three different ways in which part of the problem specification can be learned from data. This includes preference learning of objective functions, perception-based reasoning and end-to-end decision focussed learning, where I will highlight recent evolutions and advances we have been making in our lab.I will end by sharing how I used early results in these directions as a motivation for an ERC grant, due to start in 2021; including the research challenges identified and how they range from feasible to potentially high impact.
- Slides: View slides
September 23, 2021
- Speaker: Olivier Collin (IRISA, Rennes)
- Title: GenOuest Platform Overview
- Abstract: Opérationnelle depuis 2001, la plate-forme GenOuest offre un environnement complet initialement spécialisé pour la bioinformatique.
Elle offre ses services à une large communauté (plus de 850 comptes ouverts). Grâce à une stratégie d’intégration successive dans divers réseaux, régionaux, nationaux, elle fait désormais partie de l’Institut Français de Bioinformatique (IFB) ce qui lui permet de s’insérer dans l’infrastructure Européenne Elixir.
Au fil des ans, l’offre de service s’est étoffée pour proposer un éventail d’environnements adaptés aux divers besoins des utilisateur·trice·s avec, en plus d’un cluster de calcul, des environnements virtualisés et un cloud. Depuis quelques années, GenOuest s’est également focalisée sur la gestion de la donnée scientifique au travers de divers projets.
On présentera durant cet exposé la plate-forme GenOuest avec une vue générale des ressources et services offerts.
October 14, 2021
- Speaker: Blaise Hanczar (IBISC, Université Paris-Saclay)
- Title: Apprentissage profond pour la prédiction de phénotypes à partir de données transcriptomiques.
- Abstract:Les données transcriptomiques représentent une estimation de la quantité d’ARN « produite » par chaque gène, elles peuvent être vues comme l’activité des gènes dans un échantillon. L’analyse de ces données joue un rôle majeur dans la compréhension de la biologique moléculaire et le développement de la médecine personnalisée. En effet, il est théoriquement possible de prédire de nombreux phénotypes à partir du profil d’expression d’un patient. Si de nombreuses méthodes d’apprentissage automatique classiques ont déjà été appliquées sur ces données, il y a encore peu de travaux sur l’utilisation de l’apprentissage profond.Nous nous intéressons à l’apprentissage profond pour la prédiction de phénotype à partir de données transcriptomiques et en particulier a deux problèmes. Le premier est la petite taille de jeux de données transcriptomiques alors que l’apprentissage des modèles profonds demande beaucoup de données. Pour pallier cela, nous utilisons les approches d’apprentissage par transfert. Le deuxième problème vient du manque de transparence des réseaux de neurones. Il est très difficile de comprendre et d’interpréter les prédictions d’un modèle profond ce qui est pourtant indispensable pour des applications médicales. Nous proposons deux approches pour interpréter ces modèles. La première est une méthode qui identifie les parties importantes d’un modèle déjà appris, la seconde propose une nouvelle architecture interprétable par construction. Dans les deux cas l’interprétation se fait en identifiant les fonctions biologiques les plus mobilisées par le modèle.
- Slides: view slides
October 22, 2021
- Speaker: Francois Charoy (LORIA, Nancy)
- Title: Confiance et partage d’information à grande échelle.
- Abstract:La coopération entre organisations et personnes à grande échelle est aujourd’hui facilitée par des outils et des plateformes qui permettent le partage et la production d’information. Depuis les premiers travaux de Ellis dans les années 80 différentes techniques ont été développées pour permettre ce partage à l’échelle du Web. Cependant l’existence d’une telle possibilité n’est pas suffisante pour en assurer un usage cohérent avec les contraintes des domaines concernés. A travers une présentation de différents travaux menés dans l’équipe Coast du LORIA, nous montrerons les facteurs qui peuvent impacter la confiance entre partenaires lorsqu’il s’agit de partager des informations. Le premier facteur est le facteur humain que nous introduirons à travers une étude menée dans le domaine de la sécurité civile. Le second facteur concerne la sureté du partage et en particulier les plateformes et les algorithmes permettant d’assurer un partage sure et efficace de données à grande échelle en pair à pair. Le dernier facteur concerne la sécurité du partage et nous expliquerons quels sont les risques d’attaque contre une plateforme de partage pair à pair et comment on peut s’en protéger.
November 12, 2021
- Speaker: Thomas Schiex (INRAE, Toulouse)
- Title: AI for Computational Protein Design: bridging symbolic and numerical IA https://www.igh.cnrs.fr/en/research/departments/genome-dynamics/intelligence-artificielle
- Abstract: As a person working on automated reasoning, logic and constraints in Artificial Intelligence but also as a computational biologist at INRAE, I quickly realized that logic alone was not ideal to model and solve the computational problems I faced as an INRAE researcher. For this reason, our team quickly worked on the AI side to extend the “propositional automated reasoning” techniques that reason on absolutely certain statements, to more flexible formulations using “weighted” information. This lead to the birth of several dedicated fundamental algorithms and their implementation in our dedicated solver “toulbar2”. Toulbar2 is now one of the most efficient solver in his area, and is capable of mixing logical and numerically weighted information rigorously, solving complex puzzles that combine pure logical knowledge with more vague information, including probabilistic statements.I will show how, in the last 8 years, we have put toulbar2 to the task of designing new proteins targeting a predefined biochemical/biological function, or more precisely a predefined 3-dimensional structure, standing of the shoulders of giants that designed biophysical force-fields and rotamer libraries, capturing slowly acquired and permanently improved bio-physical and statistical knowledge on proteins. This protein design problem, using a rigid backbone target, a catalog of discrete conformations for amino acid side-chains and a pairwise decomposable force-field such as AMBER, CHARMM or Rosetta score functions, is known to be NP-hard.For a reason we do not really understand, toulbar2 shines on these problems. Contrarily to the usual Monte Carlo based methods, it is able to find and prove that the solution it has found is optimal for the force-field used on problems of non trivial sizes. It also allows to rigorously satisfy non-trivial designer constraints. It outperforms other guaranteed optimization tools we have tried and was even able to show the limits of an optimized Monte-Carlo method in Rosetta (IPD, Univ. Washington). Recent comparisons of toulbar2 with D-Wave quantum annealing hardware (by Rosetta team members) also show its good relative performances. Thanks to this, we have shown it is also capable of dealing with backbone flexibility, at least when the aim is to design a protein sequence that should fit several “states”. We have put all these techniques to work in practice with structural biologist colleagues, designing new self-assembling proteins, antibody or enzymes.
As I will show, for a few years now, we have upgraded this pure force-field and design target constraints based approach with Machine Learned information extracted from multiple sequence alignments, allowing to refine the force-field for a given suitable design structure, bridging the gap between data, machine learning information, thermodynamic and logic information, which perfectly fits the usual “designer” situation. Going back to AI, we have showed that this approach is also able to learn how to play the Sudoku, without knowing the rules, just from images of solved grids, better than “Deep Neural Net”-friendly appraoches, while providing understandable and customizable learned rules.
- Slides: view slides
November 18, 2021
- Speaker: William Ritchie (IGH, Montpellier)
- Title: Sequencing in Health, a decade of disappointment. Possible AI solutions. https://www.igh.cnrs.fr/en/research/departments/genome-dynamics/intelligence-artificielle
- Abstract: The recent increase in the amount of sequencing data has produced a remarkably low number of clinically actionable discoveries. The main issues in translating these data into outcomes come from the fact that many diseases are multifactorial requiring complex models and large sample sizes to understand them. However, sequencing data are large, sensitive and heterogeneous. In this talk, I will propose some solutions to address multiple issues pertaining to the use and interpretation of health-related sequencing data. Specifically, how can we explore sequencing without a reference genome? How can we realistically preserve patient identity? My talk will also introduce some basic deep learning architectures for an audience without a background in machine learning.
December 16, 2021
- Speaker: Franck Varennes (ERIAC, Rouen)
- Title: Apprentissage machine et explicabilité : un regard issu de l’épistémologie comparée des modèles. https://perso.limos.fr/~fatouman/
- Abstract: Certaines techniques dites d’apprentissage machine (machine learning) sont de plus en plus employées pour concevoir des modèles mathématiques et informatiques à fonction soit de prédiction soit de décision. Dans des contextes de diagnostic médical ou de décision juridique, en particulier, il est demandé que ces modèles – ou bien les algorithmes associés ou encore leurs résultats – soient, dit-on, explicables. Parallèlement, dans ce sous-domaine de la philosophie des sciences nommé « épistémologie des modèles », il est devenu d’usage de distinguer les modèles utilisés dans les sciences au regard de leurs différentes fonctions de connaissance, selon qu’ils décrivent, prédisent, servent à comprendre, expliquent, etc. Dans cette conférence – qui présentera une partie des travaux que j’ai commencé à mener en collaboration avec Christophe Denis (LIP6, équipe ACASA) – je montrerai qu’il est possible et utile d’appliquer certaines analyses de cette épistémologie classificatrice des modèles au cas particulier des modèles à apprentissage machine. En revenant sur ce qu’il faut entendre derrière cette demande d’explication, ainsi que sur la différence entre expliquer le modèle et expliquer par le modèle, comme enfin sur le rapport entre explication et causalité, j’essaierai d’apporter quelques éclairages nouveaux sur un sujet controversé. Ce sujet est controversé car il mêle la pensée mathématique et informatique non seulement à l’IA, mais aussi à l’épistémologie des modèles comme à l’épistémologie des mathématiques appliquées.