Nathanaël Fijalkow

Mise à jour le :

  • Médias concernés : presse spécialisée
  • Langues : français, anglais, polonais

Mots-clés : grands modèles de langues, apprentissage automatique, génération de code, apprentissage par renforcement, logique

Nathanaël Fijalkow est directeur de recherche, chercheur au CNRS, rattaché au Labri de l'université de Bordeaux (chargé de recherche) depuis 2018. Pendant l'année académique 2022 - 2023, il a effectué une visite à l'Université de Varsovie. Jusqu'à récemment, il était chercheur au sein de l'Alan Turing Institute of data science and artificial intelligence à Londres. Il a soutenu son doctorat en octobre 2015 et son habilitation (HDR) en février 2022. Ses recherches portent sur l'informatique, à l'intersection des méthodes formelles et de l'apprentissage automatique. Il s'intéresse notamment à la synthèse de programmes, aux jeux et aux automates. Depuis 2024, il dirige l’équipe Synthèse, qui s’intéresse au problème de la génération automatique de code et de contrôleurs.

Nathanaël Fijalkow conduit des recherches sur :

  • La synthèse de programmes, aussi appelée génération de code, c’est-à-dire la possibilité de génération du code informatique de manière automatique à partir d’instructions données en langue naturelle, comme le font aujourd’hui les LLMs (Large Language Models, grands modèles de langues) tels que ChatGPT.
  • La synthèse de contrôleurs, où l’objectif est de construire un algorithme permettant d’animer un robot, un drone, ou plus généralement un système autonome dans la réalisation d’une tâche précise. Il l’étudie par le prisme de la théorie des jeux.
  • L’apprentissage automatique, qui permet de construire des modèles très variés en les entraînant sur des grands volumes de données, par exemple pour reconnaître le contenu d’une image, générer un CV, ou estimer le prix d’un appartement.

 

  • Nathanaël Fijalkow

    Directeur de recherche CNRS/Labri université de Bordeaux

    nathanael.fijalkow%40gmail.com

Exemples de sujets d'expertise

  • Quelles sont les forces et les faiblesses d’un LLM (Large Language Model) comme ChatGPT : que peut-il faire, qu’est-ce qu’il ne saura (probablement) jamais faire, et quels sont les mécanismes utilisés pour construire et utiliser un LLM ?
  • Peut-on faire confiance aux réponses données par un LLM ? Quels mécanismes existent pour garantir la qualité et la véracité de ces réponses ?
  • Comment sont construites les IA qui jouent aux échecs, au Go, au Bridge, ou à d’autres jeux ? Sont-elles vraiment imbattables ?


Références

Publications spécialisées