le portail de la science politique française
Responsables scientifiques :
Jean Buyssens (SciencesPo Bordeaux/Université Lyon 2, CED / Triangle) jean.buyssens@univ-lyon2.fr
Camille Hamidi (Université Lyon 2/ Triangle) camille.hamidi@univ-lyon2.fr
Thibaut Rioufreyt (Université Lyon2/Triangle) thibaut.rioufreyt1@univ-lyon2.fr
Après la phase de recueil des données, la manière de travailler sur les matériaux qualitatifs, reste encore assez peu discutée dans la science politique français. Cela constitue souvent un impensé de nos recherches, que l’on procède de manière artisanale, ou que l’on utilise des logiciels de codage, sans toujours communiquer sur la manière dont on a procédé. Les CAQDAS peuvent permettre de systématiser le codage et l’analyse, d’autres chercheurs.ses utilisent des outils plus grand public, de type Excel ; la généralisation de l’IA peut également permettre de systématiser et d’amplifier les procédures de codage. Cette table ronde vise à partager différentes expériences de travail sur les matériaux qualitatifs.

En sciences sociales, la phase d’analyse des matériaux qualitatifs – entretiens, carnets d’enquête, archives visuelles ou textuelles – reste souvent un impensé méthodologique. Pourtant, les choix opérés (codage manuel, logiciels spécialisés, outils grand public comme Excel, ou désormais intelligence artificielle) façonnent profondément les résultats de recherche. Alors que les CAQDAS (logiciels d’analyse qualitative assistée par ordinateur) ont progressivement systématisé certaines pratiques, l’émergence de l’IA générative et des Large Language Models (LLMs) bouleverse à la fois les possibilités et les enjeux de ce travail. Cette table ronde propose d’ouvrir la boîte noire des pratiques réelles, parfois artisanales, souvent peu documentées, et d’interroger les transformations en cours : quels outils pour quels matériaux ? Quels gains, quels risques, et quelles inégalités d’accès ?
L’objectif de la table ronde n’est pas de promouvoir des bonnes pratiques, ni de succomber au « ritualisme des procédures », mais de confronter des expériences variées, des approches « traditionnelles » (analyse manuelle), des outils hybrides (CAQDAS, augmentés ou non par l’IA), des usages exploratoires de l’IA pour la transcription, l’annotation sémantique ou la cartographie de corpus (ActiveTigger, Arlequin IA). Nous discuterons également les défis éthiques et épistémologiques posés par ces dynamiques d’automatisation (biais des modèles, opacité des algorithmes, dépendance aux plateformes privées, inégalités d’accès…).
S’appuyant sur des retours d’expérience concrets (projet ANR sur la réanalyse, groupe de travail lyonnais Triangle/Centre Max Weber, expériences de recherche individuelles et collectives), cette session semi-plénière mettra en dialogue chercheurs·es et ingénieur·es pour cartographier les outils disponibles (libres, propriétaires, open-source) et leurs usages différenciés selon les objectifs. Démystifier les promesses de l’IA implique d’identifier avec précision les étapes de l’analyse qualitative qu’elle peut effectivement faciliter — qu’il s’agisse de l’automatisation des tâches répétitives, de l’exploration accélérée de grands corpus ou de la génération de visualisations complexes — tout en exposant clairement ses limites, qu’elles soient financières (coûts prohibitifs de certains outils), techniques (nécessité d’une expertise souvent inaccessible), environnementales ou épistémologiques (opacité des algorithmes et risques de « boîte noire »). Parallèlement, il devient nécessaire de mettre au jour les silences qui entourent ces méthodes dans les publications scientifiques, silences qui contribuent à en faire un savoir réservé. Cette opacité dans les usages de l’IA creuse les écarts entre celles et ceux qui disposent des ressources pour s’approprier ces outils et celles et ceux qui en sont exclus, qu’il s’agisse de l’accès aux ressources matérielles, de la formation ou de l’accompagnement technique.
En France, les discussions sur le traitement des données qualitatives par des outils techniques restent marginales, même si certaines revues, comme le Bulletin de Méthodologie Sociologique, y consacrent une place significative. Pourtant, les pratiques varient considérablement selon les domaines de la science politique et les projets de recherche. Alors que certains·es utilisent des CAQDAS (NVivo, Atlas.ti) ou des solutions bricolées (Excel, tableurs collaboratifs), d’autres expérimentent des outils d’IA pour l’analyse, la catégorisation des données, la traduction automatique, ou l’analyse de corpus importants dans leur volume. La sélection et l’usage de ces outils relèvent davantage du hasard des formations proposées dans les laboratoires que d’une justification méthodique. Certains outils contraignent la reproductibilité des interprétations ou la possibilité de réanalyser ces données qualitatives ce qui interroge à l’heure où la science ouverte n’est plus en débat. La table ronde abordera la nécessité de documenter ces méthodes afin de permettre une évaluation critique.
The analysis phase for qualitative materials, like interviews, fieldwork notes, and visual or textual archives, often remains a blindspot in methodological discussions, in the social sciences. Yet, the choices made (manual coding, specialized software, consumer tools like Excel, and now artificial intelligence) profoundly shape research results. While CAQDAS (software for computer-assisted qualitative analysis) have gradually systematized certain practices, the emergence of generative AI and Large Language Models (LLMs) is disrupting both the possibilities and challenges of this work. This panel offers to open the black box of real practices, sometimes artisanal, often little documented, and to question the transformations in progress: which tools for which materials? What gains, what risks, and what inequalities of access?
The goal of this panel is not to promote good practices, nor to indulge in the « ritualism of procedures », but to confront varied experiences, « traditional » approaches (manual analysis), hybrid tools (CAQDAS, augmented or not by AI), exploratory uses of AI for transcription, semantic annotation or corpus mapping (ActiveTigger, Arlequin IA)… We will also discuss the ethical and epistemological challenges posed by these automation dynamics (model bias, algorithm opacity, dependence on private platforms, access inequalities…).
Based on concrete feedback (ANR project on reanalysis, Lyon-based working group within Triangle and Centre Max Weber, individual and collective research experiences), this semi-plenary session will bring together researchers and research engineers to map the available tools (whether they are free, proprietary or open-source) and their differentiated uses according to the objectives. Demystifying the promises of AI involves accurately identifying the steps in qualitative analysis that it can effectively facilitate—whether it’s automating repetitive tasks, enabling accelerated exploration of large corpus or generating complex visualizations — while clearly exposing its limits, whether they are financial (prohibitive costs of certain tools), technical (need for expertise often inaccessible), environmental or epistemological (opacity of algorithms and risks of « black box »). At the same time, it becomes necessary to bring out the silences surrounding these methods in scientific publications, silences that contribute to making them a reserved knowledge. This opacity in the uses of AI widens the gaps between those who have the resources to appropriate these tools and those who are excluded from them, whether it is access to material resources, training or technical support.
In France, discussions on the treatment of qualitative data by technical tools remain marginal, even if some journals, such as the Bulletin de Méthodologie Sociologique, devote a significant place to it. Yet, practices vary considerably across fields of political science and research projects. While some use CAQDAS (NVivo, Atlas.ti) or DIY solutions (Excel, collaborative spreadsheets), others are experimenting with AI tools for analysis, data categorization, automatic translation, or the analysis of large corpora in their volume. The selection and use of these tools seems to be a matter of chance of the training offered in laboratories rather than a conscious methodical choice. Some tools constrain the reproducibility of interpretations or the possibility of reanalyzing these qualitative data, which raises questions at a time when open science is no longer under debate. The roundtable will address the need to document these methods in order to allow for critical evaluation.

Animation : Jean Buyssens, Séverine Gedzelman, Camille Hamidi
1/ Tour d’horizon (25 min) :
Présentation des familles d’outils (CAQDAS, IA générative, solutions open-source), François Feliu et Séverine Gedzelman
2/ Retours d’expérience (25 min) :
3/ Premiers échanges avec la salle (20 min)
4/ Débat (20 min) :
Premières questions
Échanges avec la salle (20 min)
Intervenants :

Buyssens Jean jean.buyssens@univ-lyon2.fr
Feliu François francois.feliu@cnrs.fr
Gezelman Séverine severine.gedzelman@ens-lyon.fr
Hamidi Camille camille.hamidi@univ-lyon2.fr
Moncada Marie marie.moncada@hotmail.fr
Rioufreyt Thibaut thibaut.rioufreyt1@univ-lyon2.fr