La conférence aura lieu dans la salle virtuelle "C" aux horaires indiqués sur le programme général :
Notes:
Le prix du meilleur article original IC 2021 a été remis à Emna Amdouni et Clément Jonquet, pour leur article: Une méthodologie et un outil d’évaluation du niveau de “FAIRness” pour les ressources sémantiques : le cas d’AgroPortal (lien vers hal). Les auteurs ont été récompensés par un prix de 500 euros, offert par l'AFIA.
Une mention spéciale prix du meilleur article publié à l'international a été décernée à Franck Michel, Fabien Gandon, Valentin Ah-Kane, Anna Bobasheva, Elena Cabrio, Olivier Corby, Raphaël Gazzotti, Alain Giboin, Santiago Marro, Tobias Mayer, Mathieu Simon, Serena Villata et Marco Winckler. pour leur article: Covid-on-the-Web: Graphe de Connaissances et Services pour faire Progresser la Recherche sur la COVID-19 (lien vers hal).
En plus de ces deux article, le comité de programme a sélectionné l'article de Grégory Bourguin, Arnaud Lewandowski, Mourad Bouneffa et Adeel Ahmad: Vers des Classifieurs Ontologiquement Explicables (lien vers hal), pour publication dans l'ouvrage de promotion annuel de l'AFIA.
mercredi 30 juin 14:00-15:00 (lien zoom: voir livret du participant)
Elena Simperl, King’s College London
Titre provisoire: What Wikidata teaches us about knowledge engineering?
Abstract: Knowledge graphs are social contracts. They are meant to capture knowledge about a domain in a way that helps people and machines communicate more effectively. In this talk we are going to present several studies that explore the links between the socio-tehnical fabric of knowledge engineering ecosystems and the knowledge graphs they produce. We will be looking at Wikidata as a prime example of such knowledge engineering ecosystems, created by tens of thousands of editors supported by bots, and used in anything from web search to intelligent assistants. We will explore key tenets of knowledge engineering, from quality and provenance to knowledge diversity and conflict resolution.
Biographie: Elena Simperl est professeur d'informatique au King's College de Londres au Royaume-Uni, membre de la British Computer Society, et ancienne membre de Turing Fellow. Ses travaux de recherche se concentrent sur l'intersection entre l'IA et l'informatique de foule, en aidant les concepteurs à comprendre comment construire des systèmes socio-techniques qui combinent des algorithmes machine avec des capacités humaines et sociales. Ses récents travaux ont porté sur l'examen de plusieurs catégories de systèmes en ligne mis en place pour l'engagement à l'échelle, les applications de détection participative et les bases de connaissances universelles.
mercredi 30 juin 15:30-17:30 (lien zoom: voir livret du participant)
Présidente de session: Sylvie Desprès
Résumé: Le Dictionnaire des francophones (DDF) est un projet inédit de plateforme articulant ressources lexicographiques savantes et issues de contributions de la communauté. Ces différentes ressources prennent la forme d’un graphe de connaissances rendu accessible en lecture et/ou écriture par une architecture innovante alliant l’état de l’art des technologies du Web sémantique et du big data. Cet article propose une visite guidée de cette plateforme aujourd’hui accessible en ligne et qui illustre un certains nombres des problématiques typiques de l’Ingénierie des Connaissances: l’intégration et l’interopérabilité de sources de données hétérogènes, et la gestion des cycles de vie de ces mêmes ressources, incluant la gestion des contributions et des droits d’accès sur un graphe RDF. L’article se conclut sur les perspectives et les prochaines étapes de ce projet s’inscrivant dans l’écosystème de l’Open Linked Data et des communs logiciels.
Résumé: Les principes “FAIR” définissent un ensemble de caractéristiques que les données et leurs métadonnées devraient présenter pour être Faciles à trouver, Accessibles, Interopérables et Réutilisables. Également, suivant le principe I2, une ontologie, et plus généralement une ressource sémantique, devrait aussi être “ FAIR ”. Des critères spécifiques aux ontologies commencent à apparaître, mais il n’existe toujours pas de mécanismes pour évaluer le degré de mise en œuvre de ces principes. Nous proposons une approche d’évaluation automatique du niveau de “ FAIRness ” d’une ontologie qui se base sur une description riche et structurée des métadonnées. Nous nous reposons sur le modèle de métadonnées MOD et avons développé un prototype pour AgroPortal, un portail de ressources sémantiques et d’ontologies en agronomie.
Résumé: Rendre les données météorologiques FAIR est un enjeu stratégique car ce sont des données essentielles pour promouvoir la recherche scientifique dans de nombreux domaines. L'adhésion aux principes FAIR passe avant tout par la description des données à l'aide de métadonnées sémantiques. Ce travail propose un modèle ontologique représentant les métadonnées liées aux données météorologiques d'observation. Pour valider notre modèle, nous utilisons le jeu de données "les données SYNOP" de Météo France, pour illustrer les difficultés liées à l'accès et à la compréhension des données, et pour montrer l'amélioration du niveau de FAIRification obtenue grâce au modèle proposé.
Résumé: Le projet français Data to Knowledge in Agronomy and Biodiversity (D2KAB) met à disposition une archive de bulletins agricoles publiée sur le Web. Pour annoter les bulletins à l'aide des stades de développement des plantes, nous avons besoin d'une nouvelle ressource sémantique. Plusieurs échelles phénologiques existent, chacune de ces échelles définies un ensemble spécifiques de stades. L'Institut Français du Vin et de la Vigne (IFV) a aligné plusieurs échelles existantes associées à la vigne. Dans cet article, nous présentons notre travail de création d'un cadre ontologique pour la description sémantique des stades de développement des plantes basé sur l'ontologie PPDO (BBCH-based Plant Phenological Description Ontology). Cet article est une extension d'un article publié à MTSR 2020.
jeudi 1er juillet 10:30-12:30 (lien zoom: voir livret du participant)
Président de session: Nathalie Aussenac-Gilles
Résumé: Cet article présent l'ontologie Thing Description (TD), une ontologie pour décrire objets connectés et systèmes cyber-physiques sur le web. L'ontologie TD formalise le concept d'« affordance » comme la relation qui existe entre une requête HTTP envoyée par un agent, la réponse qui sera donnée par le serveur et les effets de cet échange agent/serveur sur le monde physique.
Les axiomes de l'ontologie TD, qui font intervenir des termes des ontologies Semantic Sensor Networks et Smart Applications Reference, sont évalués vis-à-vis de la « commandabilité » de l'objet ou du système décrit. Une formalisation logique de cette notion issue de la théorie du contrôle est proposée dans l'article.
Résumé: Le projet Constrained Semantic Web of Things (CoSWoT) a pour objectif de définir une plateforme pour le développement d’applications distribuées et intelligentes pour le Web des Objets utilisant les technologies du Web sémantique. Les graphes de connaissances et le raisonnement à base de règles constituent les éléments clés du projet. Cet article propose un état de l’art des travaux intéressants pour le raisonnement embarqué et distribué dans le cadre du Web des Objets, et trace des lignes directrices pour la mise en place d’un tel raisonnement dans le projet CoSWoT.
Résumé: Dans un contexte d’analyse de traces de mobilité touristique, nous avons conçu un modèle de trajectoire sémantique répondant à des besoins spécifiques exprimés par des experts du tourisme. Ainsi, ce modèle prend en compte : (i) la description de séquences d’épisodes imbriqués/hiérarchisés, (ii) la définition d’aspects sémantiques intégrant les dimensions spatiale, temporelle et thématique et (iii) l’association d’aspects sémantiques à des positions ou encore à des épisodes de trajectoire. Chacune de ces caractéristiques est nécessaire au traitement et à l’analyse de données de mobilité touristique que nous détaillerons. À des fins de validation, nous expérimentons notre modèle sur deux cas d’usage de traces de mobilité en extérieur que nous avons analysées dans une chaîne de traitement dédiée. Nous montrons également que notre modèle est générique et extensible.
Résumé: Dans cet article, nous visons à éclaircir les fondements métaphysiques des ontologies en proposant d’assimiler les catégories ontologiques à des types d’objets abstraits de pensée. Pour préciser notre notion d’objet abstrait, nous nous dotons d’une théorie ontologique de l’intentionnalité en revenant aux sources de l’école brentanienne et, à cette occasion, nous réhabilitons l’état d’affaires abstrait. Nous reprenons alors nos travaux sur l’ontologie des événements pour identifier ces derniers à des états d’affaires abstraits. Sur la base de ces engagements, nous esquissons une nouvelle ontologie fondatrice.
jeudi 1er juillet 15:30-17:30 (lien wonder.me: voir livret du participant)
Les participants pourront se retrouver et échanger informellement sur l'espace wonder.me de PFIA. Les posters de RJCIA y seront également présentés. Le lien de cet espace est disponible dans le livret du participant que les inscrits recevront par email quelques jours avant l'événement.
à partir de 16h30, les membres du collège SIC de l'AFIA et du comité de pilotage de IC sont invités à se retrouver au lieu Fort du Hâ (en haut à droite de la carte).
vendredi 2 juillet 10:30-12:30 (lien zoom: voir livret du participant)
Président de session: Mounira Harzallah
Résumé: Les systèmes de worklfows ont largement contribué à améliorer la reproductibilité des expériences scientifiques. Cependant, relativement peu de travaux ont porté sur la réutilisation des données produites au cours de l'exécution. Dans cet article, nous faisons l'hypothèse que ces données intermédiaires doivent être considérées comme des objets de première ordre, qui doivent être conservés et publiés. Non seulement cela permettra d'économiser des ressources de calcul et du stockage, mais surtout cela facilitera et accélérera l'évaluation de nouvelles hypothèses. Pour aider les scientifiques à annoter ces données, nous exploitons plusieurs sources d'information : i) les informations de provenance capturées lors de l'exécution des workflows, et ii) les annotations de domaine qui sont fournies par des catalogues sémantiques d'outils, tels que Bio.Tools. Finalement, nous montrons, sur un scénario réel de bioinformatique, comment des graphes de provenance peuvent être transformés et résumés, à destination de l'homme et de la machine.
Résumé: Le Centre Scientifique et Technique du Bâtiment (CSTB) a été sollicité pour développer un outil d'aide à l'identification des matériaux contenant de l'amiante dans les bâtiments. Dans ce contexte, nous avons développé une approche, nommée CRA-Miner, qui utilise des techniques de programmation logique inductive (ILP) pour découvrir des règles logiques à partir d'un graphe de données décrivant des bâtiments et des diagnostics d'amiante. La référence des produits spécifiques utilisés lors de la construction n'étant jamais spécifié, CRA-Miner considère les données temporelles, les types de produits et les informations contextuelles pour rechercher l'ensemble de règles candidates dont la confiance est au-dessus du seuil spécifié. Ces règles sont ensuite utilisées pour déduire la probabilité de présence d'amiante dans les éléments de construction. Les expériences menées sur le graphe RDF fourni par le CSTB montrent qu'une F-Measure prometteuse peut être obtenue.
Résumé: Répondant au besoin d’explicabilité des IA qui utilisent l’Apprentissage Profond (AP), ce papier explore les apports et la faisabilité d’un processus de création de classifieurs explicables basés sur des ontologies. La démarche est illustrée par l’utilisation de l’ontologie des Pizzas pour créer un classifieur d’images qui fournit des explications visuelles impliquant une sélection de features ontologiques. Nous proposons une implémentation en complétant un modèle d’AP avec des tenseurs ontologiques générées à partir de l’ontologie exprimée avec la Logique de Description.
Résumé: Au cours des processus d'expertises basés sur des hypothèses (e.g. enquêtes par les compagnies d'assurance) il est utile de raisonner en intégrant à la fois le bon sens et des connaissances incertaines. Nous proposons pour cela une approche hybridant la théorie de Dempster Shafer (pour l'incertitude) l'approche Answer Set Programming (pour le raisonnement non monotone). Un choix peut ainsi être effectué, dans l'ensemble solution du programme logique, en utilisant conjointement une mesure de croyance et le niveau d'incohérence résultant de la base de connaissances.
vendredi 2 juillet 15:30-17:30 (lien zoom: voir livret du participant)
Président de session: Haifa Zargayouna
Résumé: Le développement de ressources sémantiques (ontologies, vocabulaires, graphes de connaissances, etc.) est une activité clé pour faciliter l’intégration et l'interopérabilité des données en agriculture. Bien souvent, les catalogues ou les référentiels officiels ne sont pas du tout “FAIR,” et n’existent pas dans un format RDF, comme dans notre cas, en agriculture, le catalogue E-Phy, produit par l’ANSES, qui contient l'ensemble des produits phytopharmaceutiques et de leurs usages, des matières fertilisantes et des supports de culture autorisés en France. Dans ce travail, nous détaillons notre démarche pour formaliser le catalogue E-Phy sous forme d’une base de connaissances OWL constituée d’un modèle ontologique, de ses instances et d’alignements vers d’autres ontologies. Nous montrons les points difficiles rencontrés dans ce processus, et les limites de la modélisation actuelle restée rétro-compatible avec la base de données d’origine. Nous illustrons également la valeur ajoutée de l’ontologie E-Phy via des requêtes SPARQL qui valorisent la sémantique et les alignements et permettent des interrogations impossibles sur les données d’origine.
Résumé: Le projet Covid-on-the-Web permet aux chercheurs d'accéder à la littérature relative à la famille des coronavirus, de l'interroger et d'en extraire des connaissances. Il s'aligne sur des besoins concrets formulés par des instituts de santé et de recherche. Ainsi, il adapte, combine et étend des outils destinés à traiter, analyser et enrichir le corpus CORD-19 qui rassemble plus de 100 000 articles scientifiques relatifs aux coronavirus. Ce jeu de données comprend deux principaux graphes de connaissances décrivant (1) 113 millions de mentions d'entités nommées liées au Web de données, et (2) les arguments extraits à l'aide d'ACTA, un outil d'extraction et de visualisation de graphes argumentatifs. Nous fournissons également plusieurs outils de visualisation et d'exploration basés sur la plateforme Corese, la bibliothèque MGExplorer, ainsi que des Notebooks Jupyter.
Résumé: Les technologies du Web sémantique fournissent des outils pour structurer, exploiter et enrichir des corpus historiques tels que le corpus de la correspondance d'Henri Poincaré. Cependant, le processus d'édition de données RDF est un processus qui est souvent manuel et peut sembler fastidieux pour les contributeurs. Cet article introduit un système de suggestions qui s'appuie sur le raisonnement à partir de cas pour assister l'édition de données RDF. Ce système se décline en quatre versions qui sont comparées au travers d'une double évaluation.