Tout a commencé par une question simple : peut-on construire un tableau de bord du marché des jeux en ligne français en n’utilisant que des données publiques ouvertes ? Des données structurées, interrogeables, actualisables, pas des PDFs à copier-coller. La réponse : oui, presque. Et le « presque » est aussi intéressant que le « oui ».
Une infrastructure open data d’État remarquable
data.gouv.fr expose depuis quelques mois un serveur MCP, un protocole qui permet à n’importe quel outil d’intelligence artificielle de dialoguer directement avec les données publiques françaises, en langage naturel. Poser une question, obtenir des données, sans écrire une ligne de code.
MCP signifie Model Context Protocol. C’est un standard récent, conçu pour que les outils d’IA puissent se connecter à des sources de données externes de façon universelle. Imaginez un traducteur universel entre un assistant intelligent et n’importe quelle base de données.
Concrètement, cela signifie qu’un développeur peut dire à Claude ou ChatGPT : « va chercher les données ANJ sur data.gouv.fr et construis-moi un tableau de bord ». Le modèle dialogue avec le serveur MCP, récupère les fichiers, les lit, en extrait les chiffres clés. Aucune API spécifique à apprendre, aucun format propriétaire.
C’est ce que la France a mis en place au niveau d’un État entier. À notre connaissance, il n’existe pas d’équivalent à cette échelle ailleurs dans le monde.
L’ANJ y publie depuis 2024 cinq jeux de données : chiffres du marché depuis 2010, interdictions volontaires de jeux, leur répartition géographique, géographie des joueurs actifs, top 100 des rencontres les plus pariées. Des données que peu de régulateurs européens publient sous cette forme.
Une expérience accidentée
Le serveur MCP de data.gouv.fr est déclaré expérimental, et il l’est vraiment. Les requêtes sont sensibles à la formulation exacte, sans que les règles soient documentées : « autorité nationale des jeux » ne renvoie rien, « jeux en ligne » fonctionne. Il faut tâtonner, affiner, relancer. Au bout du compte : quinze années de données de marché extraites et affichées. PBJ, mises, joueurs actifs, pour 2024.
Ce tableau de bord se met à jour en une commande. Aucun abonnement propriétaire, aucun accord commercial. Juste des données publiques et quelques heures d’itération.
Ce qui manque, et ce que ça changerait
Les cinq datasets de l’ANJ sont bien là. Le problème n’est pas leur existence, c’est leur granularité et leur fréquence. Les données trimestrielles que l’ANJ publie dans ses bilans semestriels restent au format PDF. Traduites en données ouvertes, elles permettraient de suivre en temps quasi-réel les dynamiques de marché, de détecter une accélération des paris sportifs en pleine Coupe du monde, ou un recul du poker sur un trimestre précis.
La répartition géographique des joueurs n’est disponible que pour 2023. Une seule année, c’est une photographie. Trois ans de données, c’est une tendance : est-ce que certains départements surreprésentés dans les IVJ le sont aussi dans les comptes joueurs actifs ? Ce croisement, impossible aujourd’hui faute de séries temporelles, intéresserait directement les acteurs de la prévention, les chercheurs en santé publique, et les parlementaires qui débattent de la régulation.
Le top 100 des rencontres les plus pariées n’est publié qu’une fois, sans mise à jour. En données continues, ce serait un outil précieux pour les acteurs de l’intégrité sportive.
Enfin, la documentation du serveur MCP lui-même est quasi inexistante. Quelles requêtes fonctionnent ? Quels formats sont supportés ? Quelles sont les limites de charge ? Un développeur qui découvre cet outil aujourd’hui apprend essentiellement par essais et erreurs.
Une invitation, pas une critique
Ce qui a été construit ici en une nuit prouve que la direction est la bonne. L’ANJ publie des données que la plupart des régulateurs européens gardent dans leurs rapports annuels. Des chercheurs, des associations de prévention, des parlementaires pourraient s’en emparer pour produire des analyses qu’aucune administration ne peut produire seule. Mais pour ça, il faut que les données soient fréquentes, documentées, et que l’infrastructure qui les expose soit robuste.
Le Tetris de sorry.data.gouv.fr est amusant la première fois. La deuxième, il rappelle que la promesse de l’open data n’est tenue que si les outils qui la font vivre sont à la hauteur de cette promesse.





























