Invités

Hedi Karray

Hedi Karray

Curriculum Vitæ

M. Hedi KARRAY est Professeur de génie informatique à l’Université de Technologie Tarbes Occitanie Pyrénées UTTOP. Il a eu son doctorat de l’Université de Franche-Comté en 2012 et son Habilitation à Diriger des Recherches de l’Institut National Polytechnique de Toulouse en 2019. Il dirige le groupe de recherche PICS (Planification, Interoperabilité et Coordination des Systèmes Dynamiques) au Département Systèmes du Laboratoire Génie de Production. Il est est aussi chercheur associé au Centre national de recherche ontologique de l’Université de Buffalo. Il est le co-président du chapitre français de l’IEEE SMC et le directeur général du “Knowledge Graph Alliance”. Hedi Karray est l’un des principaux initiateurs de l’intiative Industrial Ontologies Foundry. Il a coordonné et participé à plusieurs projets de recherche appliqués aux domaines industriels comme OntoCommons.eu et ANR CHAIKMAT. Il est également le responsable du master international Industrie 4.0 à l’UTTOP.

Présentations lors de PFIA
 lun, 13:45

Commonsense knowledge for trusted flexible Manufacturing

! En direct

Dans l’ère de l’Industrie 4.0, la capacité de s’adapter rapidement aux changements est essentielle pour l’usine du futur. Le projet CHAIKMAT a pour but de développer une méthode novatrice fondée sur l’intelligence artificielle (IA) pour renforcer la flexibilité de la chaine de production, augmenter la clarté des décisions prises et solidifier la relation de confiance entre l’homme et la machine. L’approche suggérée met l’accent sur l’IA orientée vers l’utilisateur, évaluant la capacité des machines à adopter de nouveaux processus de production et offrant aux spécialistes des explications compréhensibles concernant les mécanismes décisionnels. CHAIKMAT va coordonner l’utilisation des ontologies, des raisonnements sémantiques, et des grands modèles de langages par le biais d’un graphe de connaissances du bon sens dans la fabrication.

La présentation sera en français avec des transparents en anglais.


Nathalie Nevejans

Nathalie Nevejans

Présentations lors de PFIA
 mar, 09:00

Société et IA - Invitation

! En direct

Régulation des systèmes d’intelligence artificielle.


Prof. Simon Parsons

Simon Parsons

Simon received his PhD from University of London in 1993, and held academic positions at Queen Mary and Westfield College, Massachusetts Institute of Technology, City University of New York, University of Liverpool and King’s College London before joining Lincoln. At King’s, Simon led the expansion of activity that resulted in the recent re-establishment of a separate Department of Engineering. Simon’s research interests centre on the design and analysis of autonomous systems, in particular with respect to how teams of autonomous systems can decide what to do in complex environments, and how they can explain these decisions.

Présentations lors de PFIA
 mar, 13:45

Using AI to make agriculture more sustainable

! En direct

Food is important. All of us rely on it, every day, to survive. At the same time, the methods that have been used to grow our food over the last 80 years raise concerns about long-term sustainability. Modern agriculture relies heavily on chemical herbicides and pesticides which have side-effects that cause ecological damage, and intensive agricultural practices have degraded soils and led to costly erosion. More sustainable agriculture is urgently needed, and artificial intelligence (AI) can help achieve it.

In this talk, I will look at ways that AI can help to make our food supply more sustainable. All the examples will be based on work at the University of Lincoln, some that I have been involved in, and some that is the work of my colleagues. Broadly speaking this work falls into three categories: modifying existing practices by making use of AI; identifying new practices that are only feasible because of AI; and efforts to increase the pipeline of AI practitioners who are engaged in making agriculture sustainable.


Virginie Do

Virginie Do

Virginie Do is a Research Scientist at Meta, working on safe & responsible AI. She recently completed her PhD at Université Paris Dauphine-PSL and Meta (Facebook AI Research). Her PhD focused on fairness in recommender systems. Her work has been recognized with an Outstanding Paper Award at AAAI 2022 and a L’Oreal-UNESCO French Young Women In Science award.

Virginie Do est chercheuse à Meta, travaillant sur l’IA sûre et responsable. Elle a récemment terminé son doctorat à l’Université Paris Dauphine-PSL et Meta (Facebook AI Research). Sa thèse porte sur l’équité dans les systèmes de recommandation. Ses travaux ont été récompensés par le prix du meilleur article AAAI 2022 et le prix Jeune Talent L’Oreal-UNESCO pour les Femmes et la Science.

Présentations lors de PFIA
 mer, 09:00

Prix de thèse AFIA

! En direct

Machine learning algorithms are widely used in the recommender systems for personalizing content recommendations based on user preferences. However, these algorithms can inadvertently promote certain producers while overlooking others, raising ethical and societal concerns about fairness and representation. This work aims to create fairer recommendation algorithms that balance user preferences with content producer welfare. Addressing the challenges of defining fairness for ranked recommendations and preserving computational efficiency, we propose a framework grounded in social choice theory. This framework guides the development of new recommendation methods that fairly distribute exposure to content producers without compromising recommendation quality. Our methods are substantiated by theoretical guarantees of fairness, convergence and computational efficiency, as well as real-world dataset evaluations.

Les algorithmes d’apprentissage automatique (machine learning) sont largement utilisés dans les systèmes de recommandation pour personnaliser les suggestions de contenu en fonction des préférences des utilisateurs. Cependant, ces algorithmes peuvent involontairement favoriser certains producteurs tout en négligeant d’autres, soulevant des préoccupations éthiques et sociétales concernant l’équité et la représentation. Ce travail vise à créer des algorithmes de recommandation plus équitables qui équilibrent les préférences des utilisateurs avec le bien-être des producteurs de contenu. En abordant les défis liés à la définition de l’équité et à l’efficacité computationnelle, nous proposons un cadre ancré dans la théorie du choix social. Ce cadre guide le développement de nouvelles méthodes de recommandation qui distribuent équitablement l’exposition aux producteurs de contenu sans compromettre la qualité des recommandations. Nos méthodes sont étayées par des garanties théoriques concernant l’équité, la convergence et l’efficacité computationnelle, ainsi que par des évaluations sur des jeux de données.


Enrico Motta

Enrico Motta

Présentations lors de PFIA
 jeu, 09:00

IC - Invitation

! En direct

Informations à venir.


Pierre Zweigenbaum

Pierre Zweigenbaum

Curriculum Vitae

Pierre Zweigenbaum est Directeur de Recherche au CNRS au sein du Laboratoire Interdisciplinaire des Sciences du Numérique (LISN) à l’Université Paris-Saclay, où il a notamment dirigé l’équipe de traitement automatique des langues (ILES). Avant cela, il a passé vingt ans à l’Assistance publique - Hôpitaux de Paris et à l’Inserm. Ses recherches portent sur le traitement automatique des langues appliqué aux textes médicaux. Ses travaux lui ont valu la reconnaissance de l’American College of Medical Informatics (Fellow ACMI, 2014) et de l’International Academy of Health Sciences Informatics (Fellow IAHSI, 2019). Il est également membre du Comité scientifique consultatif de la Plateforme des données de santé. Actuellement coordinateur des projets ANR KEEPHA et PREDHIC sur l’extraction d’informations dans des textes médicaux, il fait partie d’une large collaboration visant à promouvoir des communs numériques pour le traitement automatique du français en santé.

Présentations lors de PFIA
 jeu, 13:45

Grands modèles de langue : l'avenir du traitement automatique des langues en santé ?

! En direct

Le traitement automatique des langues est sous le feu des projecteurs grâce à la notoriété récente des grands modèles de langue. Je tenterai de cerner les points clés de ce succès, de montrer comment nous en sommes arrivés là, et soulignerai les difficultés qui restent à résoudre. J’examinerai dans ce contexte le rôle que les grands modèles de langue peuvent jouer dans le domaine médical, les enjeux qu’ils soulèvent dans ce domaine, et comment arriver néanmoins à en bénéficier, notamment dans le contexte français.


Samuel Tronçon

Samuel Tronçon

Samuel Tronçon est chercheur à Résurgences R&D et philosophe : il s’est spécialisé en informatique appliquée aux sciences sociales. Son travail se situe à l’interface entre les sciences sociales et l’informatique. Il conçoit des modèles théoriques avec l’ambition de combiner la puissance des outils formels avec la profondeur de la recherche de terrain. Ses principaux thèmes de Recherche sont : les interactions sociales, les dynamiques d’apprentissage et de collaboration, les émergences de formes et de discours dans les réseaux et le patrimoine immatériel vivant. Il est membre fondateur du groupe LIGC (Logique et Interaction: vers une géométrie cognitive) et du groupe LOCI (Locativité et interactivité en informatique, linguistique et sciences sociales). Il est mobilisé depuis 2017 sur l’instrumentation des dynamiques participatives dans la gestion des enjeux sociaux et environnementaux sur les territoires, au travers notamment d’un Programme Investissement d’Avenir avec l’INRAE et l’Université Paul Valery.

Présentations lors de PFIA
 ven, 09:00

RJCIA - Invitation

! En direct

Informations à venir.

Événements
APIA CNIA IC JIAF RJCIA Agents et IA Réseaux complexes et IA Santé et IA Société et IA Ateliers Tutoriels Organisation
Types de présentations
Invitation Présentation Ateliers Tutoriels Organisation