le portail de la science politique française

rechercher

CM 3

IA, recherche et enseignement : questions sur nos pratiques professionnelles

AI, research and teaching: questions about our professional practices

Responsable scientifique :

Anne Marijnen (Université Paris 8) anne.marijnen@univ-paris8.fr

L’intelligence artificielle (IA) générative, telle que ChatGPT, suscite des inquiétudes dans les milieux académiques. La multiplication des outils et des fonctionnalités IA, devenus d’un usage courant, interroge nos pratiques d’enseignement et de recherche. En France, 55 % des étudiants utilisent parfois de l’IA générative, tandis que 90 % des enseignants croient à son usage fréquent. Les débats sur la transmission, la production et  l’évaluation du savoir se sont intensifiés, avec des réponses variées  (allant de l’interdiction à accompagnement). Une première table ronde discutera des dangers et opportunités de ces outils, et une seconde session se concentrera sur leur utilisation pratique en recherche.

En 2022 une précédente conversation méthodologique consacrée au numérique avait abordé les usages et enjeux induits par le tournant numérique des sciences sociales ; nous souhaitons poursuivre cette discussion sur le point spécifique de l’intelligence artificielle (IA) en particulier générative.

La multiplication en quelques mois de ces modèles accessibles au plus grand public (Chat GPT, Claude etc), et d’outils liés (Elicit, Scite, Research Rabbit, Scholarcy, Beautiful AI Copilot dans la suite Office, etc), les tâches possibles (production, édition, résumés, correction de textes, bibliographies, états de l’art, transcriptions, génération de présentations, d’images de vidéos, explorations de corpus massifs etc.)  interrogent la communauté éducative et scientifique.

Face à ces outils, la curiosité, les tâtonnements, le sentiment de solitude sont courants dans la communauté enseignante, confrontée à un usage croissant de ces ressources, qui débute dès le collège. En France, une enquête réalisée par Compilatio sur 5600 enseignant-es et étudiant-es montre que 55 % des étudiant-es déclarent utiliser un outil d’IA générative au moins occasionnellement.  9 enseignant-es sur 10 estiment que les étudiant-es ont recours aux IA pour leurs travaux. En général ils et elles l’utilisent peu et surévaluent la proportion des étudiant-es qui y ont recours.

Nous proposons d’échanger collectivement sur nos pratiques et de réfléchir aux défis posés à l’enseignement et à la recherche devant ces usages croissants. Face à l’injonction commerciale de l’usage de l’IA générative, une première série d’inquiétudes a concerné, en 2022-2023, les modalités de transmission et d’évaluation du savoir. Une première réaction a consisté à proscrire aux étudiants l’utilisation de ces modèles sans les mentionner ou, dans la majorité des cas, en un attentisme prudent. Certaines universités, comme à Prague, ont renoncé aux mémoires. Un an plus tard, aux Etats Unis un mouvement inverse d’accompagnement et de formation de la communauté éducative se met en place et les cursus intégrant cette thématique, y compris en sciences sociales se multiplient accompagnés par les bureaux d’aide à la pédagogie (Harvard, Cornell, Ohio etc). Cet accompagnement est justifié par les possibilités censément offertes par l’IA : fournir un accès instantané à de grandes quantités d’informations, procurer des avantages pour certains apprenants en matière d’acquisition du savoir en particulier pour ceux ayant des difficultés d’apprentissage, de langue, ou des besoins d’accessibilité.

Comment les individus et les institutions (universités ou ministères) envisagent cette question ? Si l’interdiction parait illusoire et l’accompagnement souhaitable, ils ne peuvent s’envisager qu’en connaissance des limites, des intérêts et des dangers de ces outils, qui accessoirement reposent pour les enseignants la question de la formation professionnelle tout au long de la vie.

Cette conversation méthodologique sera structurée en deux temps.

Une table ronde, tout d’abord, qui abordera la question des dangers intrinsèques de ces outils mais aussi les cas d’utilisation positifs, et la stratégie des institutions sur cette question. Elle nous permettra d’échanger sur les risques : perte de capacité, d’autonomie, appauvrissement linguistique, stratégies commerciales, risques éthiques et climatiques (charriés par l’utilisation de modèles énergivores). Nous aborderons aussi les usages positifs qui peuvent en découler comme la facilitation et la personnalisation de l’apprentissage ou l’assistance linguistique pour les étudiant-es.

Un deuxième temps plus pratique concernera l’utilisation courante de ces outils dans les activités de recherche. Nous faisons le choix de proposer un focus sur les applications concernant les domaines suivants : aide à la recherche bibliographique, exploration d’un champ de recherche, transcription d’entretiens, cas d’usages dans des recherches en cours.

 

In 2022, a previous AFSP methodological conversation devoted to the digital world addressed the uses and challenges brought about by the digital turn in the social sciences; we would like to deepen this discussion by focusing on the specific issues raised by artificial intelligence (AI), in particular generative AI.

The rapid proliferation of these readily available models (Chat GPT, Claude, etc.), and of related tools (Elicit, Scite, Research Rabbit, Scholarcy, Beautiful AI Copilot in the Office suite, etc.), as well as the offered features (writing, editing, summarizing, bibliographies, state of the art, transcriptions, generation of presentations, images of videos, exploration of massive corpus, etc.) are raising questions in the educational and scientific community.

Confronted with these tools, the teaching community experiences curiosity tinged with loneliness, and experiments with trial and error. Use of these resources is growing, starting as early as secondary school. In France, a survey carried out by Compilatio on 5,600 teachers and students shows that 55% of students claim to use a generative AI tool at least occasionally.  9 out of 10 teachers believe that students use AI for their work. Results show that the teaching community makes little use of it and tends to overestimate the proportion of students who do.

We propose to offer a space to collectively discuss our practices and to reflect on the challenges posed to teaching and research by these growing uses. Faced with the commercial injunction to use generative AI, a first series of concerns in 2022-2023 has focused on the ways in which knowledge will be transmitted and assessed. The initial reaction was to prohibit students from using these models without mentioning them or, in most cases, by adopting a cautious wait-and-see attitude. Some universities, such as Prague, got rid of Master’s theses. A year later, in the United States, universities adopted the opposite approach, with support and training for the educational community: the number of courses incorporating this theme, including in the social sciences, grew with the support of pedagogical support offices (Harvard, Cornell, Ohio etc). This support is justified by the possibilities supposedly offered by AI: providing instant access to vast quantities of information, offering advantages for learners in terms of knowledge acquisition, particularly for those with learning difficulties, language difficulties or accessibility needs.

How do individuals and institutions (universities or ministries) view this issue? Although prohibiting the use of AI may not be an option anymore, it can only be accompanied with a clear knowledge of the limits, interests and dangers of these tools. Incidentally, this raises the issue of lifelong vocational training for teachers.

This methodological conversation will be structured in two parts.

Firstly, a round table will address the intrinsic dangers of these tools, but also positive examples of their use, and the strategy of institutions on this issue. This will give us the opportunity to discuss the risks: loss of capacity and autonomy, linguistic impoverishment, commercial strategies, ethical and climate risks (caused by the use of energy-intensive models). We will also look at the positive uses that can be made of it, such as facilitating and personalising learning or providing language assistance for students.

 The second, more practical part will concern the current use of these tools in research activities. We have chosen to focus on applications in the following areas: assistance with bibliographical research, exploration of a field of research, transcription of interviews, and examples of use in ongoing research.

Mercredi 3 juillet 2024 de 11h à 13h

Programme bientôt disponible