black friday sale

Big christmas sale

Premium Access 35% OFF

Home Page
cover of NUMÉRIQUE
NUMÉRIQUE

NUMÉRIQUE

loub

0 followers

00:00-34:56

Nothing to say, yet

Podcastspeechzipper clothingdrawer open or closeinsidesmall room

Audio hosting, extended storage and much more

AI Mastering

Transcription

Wikipedia has changed the way people access and interact with information. The arrival of Wikipedia has had a significant impact on the field of artificial intelligence. The guest is a sociologist working on deep learning as part of a multidisciplinary international research project called Shaping AI. Deep learning is a subset of machine learning, which is a subset of artificial intelligence. It involves the use of artificial neural networks with multiple hidden layers to process and analyze data. The guest's research focuses on the academic sector, specifically the use of Wikipedia and ChatGPT (a language model) by students. While most students use Wikipedia, only half of them use ChatGPT. This trend may be attributed to habits and familiarity with Wikipedia, as well as its reputation for reliability due to peer evaluation and moderation. ChatGPT, on the other hand, is relatively new and still gaining traction. Et on essaye de voir un peu comment l'arrivée de Wikipédia a pu bouleverser le rapport à l'infant sèche au savoir. Donc on a préparé quelques petites questions. Tu veux commencer ? Oui, alors c'est notre professeur Alejandro de Moura qui nous a parlé de vous. Vous travaillez sur le deep learning. Est-ce que vous pourriez nous détailler vos recherches en tant que sociologue dans l'élection des recherches sur l'information artificielle ? Oui, je suis doctorant en tout début de troisième année. Doctorant en sociologie sous la direction de Dominique Ardon et de Donato Ricci. Dominique Ardon qui est plutôt sociologue et Donato Ricci qui est plutôt designer de recherche. Ça fait un double encadrement pluridisciplinaire. Ma thèse s'inscrit dans le cadre d'un projet de recherche qui est à la fois pluridisciplinaire et international qui s'appelle Shaping AI. Et qui en fait s'intéresse justement à l'intelligence artificielle avec deux gros guillemets parce que l'expression en elle-même ne veut pas dire grand chose. Ça reste très flou et très large. Donc il y a dans quatre pays, le Canada, la France, le Royaume-Uni et l'Allemagne. Dans quatre domaines d'activités différents, les médias, les politiques publiques, la recherche scientifique et ce qu'on appelle l'engagement public. Donc justement au-delà de ces domaines un petit peu restreints. Et puis aussi sur les dix dernières années, c'est-à-dire de 2012 qui est vraiment la date symbolique de l'essor de l'apprentissage automatique profond. Donc ce qu'on appelle le deep learning en anglais. Jusqu'à aujourd'hui, la période la plus récente. Ce qui change justement un petit peu des histoires de l'IA qui s'intéressent plutôt souvent au 20ème siècle. De ce point de vue-là, ça n'avait pas forcément beaucoup à voir avec ce qui se fait maintenant. Et pour ce qui est de l'apprentissage profond, peut-être une rapide définition. Donc l'apprentissage profond, ça se base sur des réseaux de neurones artificiels. Donc il y a vraiment cette inspiration du côté des réseaux de neurones biologiques. Même si au final, ça n'a pas forcément grand-chose à voir. Des réseaux de neurones qui sont artificiels et qui sont qualifiés de profonds. Parce qu'il y a vraiment une distinction à faire entre un apprentissage automatique. Donc ce qu'on appelle non pas le deep learning mais le machine learning. Donc le deep learning, c'est vraiment un sous-ensemble de l'apprentissage automatique. Et l'apprentissage automatique qui est lui-même un sous-ensemble de ce qu'on appelle l'intelligence artificielle. Mais qui est vraiment un domaine extrêmement large avec plusieurs disciplines. Ça va de l'informatif aux neurosciences à la biologie. Et il y a aussi différents sous-domaines en fonction du type de données que vous traitez. Si c'est du texte, ça va être ce qu'on appelle le traitement automatique de la langue. Si c'est des images, ça va être de la vision assistée par ordinateur. Vous avez aussi, si c'est de l'audio, ça va être du traitement automatique de la parole. Donc vous avez plein de sous-domaines différents. C'est pour ça qu'il y a encore une fois, l'expression elle-même ne veut pas dire grand-chose. Et vous avez aussi ce qu'on appelle la robotique. Donc là plutôt avec des agents autonomes qui sont vraiment incarnés dans le but physique. Et donc pour revenir à la définition de l'apprentissage profond. La différence entre un apprentissage peu profond et un apprentissage profond. Donc en anglais, c'est la distinction entre shallow learning et deep learning. C'est en fait le nombre de couches. C'est là où ça devient un petit peu technique. De couches neuronales intermédiaires qu'on appelle des couches cachées. Dans un réseau de neurones, vous avez des couches d'entrée. Donc c'est vraiment l'entrée du réseau de neurones, là où les données entrent. Vous avez des couches qui sont intermédiaires, qui sont dites cachées. Parce que justement, elles ne sont pas en contact avec le monde, entre guillemets, extérieur. Elles sont chargées justement d'effectuer les opérations de calcul au sein du réseau neurone. Et enfin, vous avez la couche de sortie qui est justement la couche qui produit le résultat final. Donc en fait, ces couches cachées intermédiaires sont entre la couche d'entrée et la couche de sortie. Et pourquoi un apprentissage profond ? Un réseau de neurones est dit profond à partir du moment où il a plus de deux couches cachées. C'est-à-dire que pendant longtemps, les réseaux de neurones avaient seulement une, voire deux couches cachées. Et depuis le début des années 2010, les réseaux de neurones ont aujourd'hui plusieurs dizaines, voire plus, de couches cachées. Ce qui permet justement de multiplier les possibilités de calcul. D'accord. Et si c'était compliquément, une phrase, une définition concise de deep learning, ce serait quoi ? On pourrait dire que c'est un ensemble de méthodes et de techniques algorithmiques qui justement utilisent des réseaux de neurones artificiels profonds. Donc encore une fois, des réseaux de neurones qui ont plusieurs couches cachées, en tout cas plus de deux, qui sont entre les couches d'entrée et les couches de sortie. Ce qui les distingue à la fois des méthodes traditionnelles de l'IA, qu'on appelle de l'IA symbolique, où vous fournissez à la machine non seulement des données, mais aussi l'algorithme pour traiter ces données. Donc ça, c'est ce qu'on appelle l'IA symbolique. Et en fait, aujourd'hui, l'apprentissage profond s'est rattaché à ce qu'on appelle l'IA connexionniste, qui cette fois intègre là aussi en entrée à la fois des données, mais non plus l'algorithme. Là, c'est vraiment la machine elle-même de créer son propre algorithme. Et l'algorithme n'est plus du tout fourni en amont à l'avance à la machine. C'est elle vraiment de se débrouiller à partir d'un volume qui est souvent assez gigantesque de données. D'accord. Alors, merci. On a décidé de se concentrer sur Wikipédia et Tchad GPT, parce que pour les étudiants, surtout au lycée, puis dans la continuation dans le milieu universitaire, c'est un peu Wikipédia. Avant, c'était le grand méchant loup, et maintenant, c'est Tchad GPT. On les définit tous les deux dans notre enquête comme des intelligences collectives. Par contre, on a remarqué que presque la totalité des étudiants utilisent Wikipédia à 93%, mais qu'étonnamment, seulement la moitié d'entre eux utilisent Tchad GPT. Effectivement, il y en a 51% qui ne veulent pas l'utiliser. Est-ce que c'est une tendance qui est visible de façon plus générale ? Vous étudiez notamment le milieu académique, mais pas uniquement. Vous l'avez dit, il y a plein d'autres secteurs. Quelles sont les tendances observables dans ces autres secteurs ? Pour le coup, c'est vrai que c'est ce que je n'ai pas mentionné au début. Je vous avais expliqué ces quatre domaines, les médias, les politiques publiques, la recherche scientifique et l'engagement public. En fait, mes recherches, précisément, se focalisent vraiment sur le milieu de la recherche scientifique. C'est pour ça que j'aurais un peu de mal pour parler de la société en général. Surtout que c'est vrai qu'à ce stade, il y a encore assez peu d'enquêtes, que ce soit qualitatives ou quantitatives, sur les pratiques, les usages de Tchad GPT dans des secteurs qui peuvent être très divers, que ce soit les industries culturelles, que ce soit justement la pédagogie, l'enseignement, la recherche ou que ce soit tous les milieux professionnels possibles. Mais pour le coup, si vous pouvez répéter votre question que je... Donc, en gros, dans les grandes écoles, la tendance est que les étudiants utilisent Wikipédia, mais plus de la moitié ne veulent pas utiliser Tchad GPT. Est-ce que c'est quelque chose, c'est une tendance qui est plus globale ou qui est seulement restreinte ? Parce que nous, on ne les respecte que pour Sciences Po, quasiment. Et Assa, sans doute. Oui, quelques autres facs, mais plus globalement, j'ai des chercheurs, par exemple. Non, mais je pense que les réponses seront peut-être les mêmes, justement, que ce soit pour les étudiants ou d'autres types de profils, ne serait-ce en fait qu'avant tout, je pense, une histoire d'habitude. C'est-à-dire que Wikipédia, je crois que ça date de 2003. En tout cas, voilà, des années 2000. Sachant aussi, j'en profite pour préciser, je ne suis pas du tout spécialiste de Wikipédia, donc pour le coup, c'est vraiment côté Tchad GPT que je vais pouvoir vous aider. Mais c'est vrai que ça fait déjà plusieurs années, plusieurs dizaines d'années que ça existe. Et malgré, en effet, des discours un peu péjoratifs ou négatifs sur Wikipédia, que ce soit au collège ou au lycée ou même dans l'enseignement supérieur, si ça a pu exister, justement, peut-être, enfin, en tout cas, je sais que quand j'étais au collège ou au lycée, on nous déconseillait plutôt d'utiliser Wikipédia. Mais c'est vrai, je pense que ça a quand même pu évoluer. Et notamment, certains profs peuvent tout à fait, en fait, maintenant conseiller d'utiliser Wikipédia comme source justement fiable parce qu'en effet, il y a une évaluation par les pairs, il y a une modération. Donc, ça devient quand même assez fiable, notamment, en fait, par rapport à d'autres types de sources, que ce soit, voilà, les réseaux sociaux numériques ou même des sites Internet, voilà, qui peuvent être plus ou moins fiables. Donc, au final, je pense qu'aujourd'hui, Wikipédia reste quand même une source assez solide, en tout cas relativement à ce qui peut exister ailleurs sur Internet. Donc, à la fois, l'habitude, justement, aussi, donc la modération et puis l'évaluation par les pairs sur Wikipédia. Alors que du côté, en fait, de ChatJPT, bon, ça reste quand même assez nouveau. C'est donc fin novembre 2022. Effectivement, donc, il y a eu énormément d'utilisateurs extrêmement rapidement. On a quand même vu une certaine baisse, justement, pendant l'été, ce que certains, justement, reliaient, en fait, à la perte de vacances pour les étudiants et les étudiantes qui l'auraient utilisé massivement pendant la perte scolaire et moins pendant les vacances. Mais il y a aussi d'autres explications, justement, un petit peu à ce reflux de l'utilisation de ChatJPT, notamment pour les entreprises. Il y a des enjeux, en fait, de sécurité, de confidentialité des informations qui sont transmises au modèle. Ils peuvent être assez élevés. Et l'autre, aussi, raison, ça peut être tout simplement, pour le coup, la factualité, en fait, des réponses de ChatJPT qui, en fait, sont loin d'être aussi robustes que, par exemple, les informations qu'on peut trouver sur Wikipédia, même si ChatJPT, en fait, a sûrement été entraîné sur un corpus de Wikipédia et notamment le Wikipédia anglais. Mais de ce point de vue-là, c'est vrai qu'il y a le phénomène qu'on appelle, donc, d'hallucination. C'est-à-dire que le modèle produit des informations qui peuvent sembler vraies ou réelles à première vue, mais si vous allez vérifier, en fait, ce n'est pas du tout factuel. Il va tout simplement, en fait, halluciner des faits, des personnes, des événements, etc., etc. D'autant plus que, pour les modèles, aussi, vous avez une date à partir de laquelle, en fait, ces données d'entraînement s'arrêtent. Donc, même si, maintenant, je crois que récemment, justement, ils lui ont donné la possibilité de naviguer sur le web et d'entraîner, en fait, d'aller chercher des informations plus récentes, sachant qu'il y a aussi la possibilité, en fait, de le réentraîner sur des données un petit peu plus récentes. C'est vrai qu'il y a tout ce faisceau, un petit peu, de raisons qui font que ChatJPT, en tout cas, moi, personnellement, c'est vrai que je ne lui ferais pas du tout confiance, contrairement à Wikipédia qui, enfin, voilà, moi, c'est vrai que, personnellement, je l'utilise pour mes recherches. En tout cas, c'est souvent un bon point de départ, en fait. C'est souvent, en fait, la première source d'information vers laquelle on peut se tourner pour, ensuite, creuser un petit peu davantage tel ou tel sujet en profondeur. Donc, pour vous, il y a clairement une différence de fiabilité entre les deux outils. Oui, tout à fait. D'accord. Donc, il y a une bonne raison à la répression par l'administration. Oui. Donc, vous avez parlé de novembre 2022 comme étant la date où ChatJPT a été adoptée par un certain nombre de personnes. Est-ce que, pour vous, cette date marque un changement dans le rapport à la connaissance du grand public ? Et peut-être aussi d'un point de vue technique, est-ce que vous, parce qu'on vous avait dit que depuis les années 2000, c'est ça ? 2010. C'était une question qui était assez… Enfin, il y a eu beaucoup de travaux qui étaient menés depuis les années 2000. Est-ce que ça a été une date structure ? Alors, pour le coup, peut-être pour commencer par la fin sur on a fait ChatJPT, est-ce que c'est vraiment une rupture ? Pour le coup, je dirais plutôt non. C'est vrai que ça s'appuie sur des décennies de recherche en intelligence artificielle. Encore une fois, ça recouvre vraiment plein de sous-domaines différents et plein de disciplines. Donc, de ce point de vue-là, c'est vrai que ça a pu paraître comme une rupture, mais plutôt pour le grand public qui n'était pas forcément familier de toutes ces perspectives historiques en arrière-plan. ChatJPT, c'est ce qu'on appelle un modèle de langue. C'est justement un modèle de langue qui est utilisé pour un agent conversationnel avec lequel on peut interagir via une interface web. Mais le projet de modélisation du langage, c'est presque aussi vieux que l'intelligence artificielle. C'est vraiment les années 40-50, si ce n'est avant. Je ne sais pas si vous connaissez par exemple l'ELISA, qui est un chatbot qui a été créé pour des expériences thérapeutiques et notamment en psychologie, qui a donné le nom de l'effet ELISA, qui est aussi une tendance à concevoir ces agents autonomes conversationnels comme des êtres humains. Ce qui recoupe aussi la tendance à l'anthropomorphisme, d'ailleurs le fait d'attribuer des caractéristiques humaines à des entités non humaines, que ce soit des dispositifs techniques, des animaux, des végétaux, etc. Donc d'un point de vue technique, ChatJPT n'est pas forcément une rupture, en tout cas une révolution majeure. Encore une fois, la modélisation du langage est presque aussi ancienne que l'IA. Il y a eu d'autres modèles de langue avant ChatJPT qui étaient moins connus mais qui existaient, y compris des modèles qui avaient été conçus par OpenAI, qui est l'entreprise à l'origine de ChatJPT. Le premier modèle GPT c'est en 2018, GPT2 c'est en 2019, GPT3 qui était peut-être justement le plus connu c'est en 2020. Mais vous avez aussi des modèles de langue qui ont été conçus par Google ou par Microsoft avant, voire aussi par Meta, donc ex-Facebook, et aussi justement des modèles de langue utilisés comme agents conversationnels ou chatbots. Il y a l'exemple de Tay qui est un chatbot de Microsoft, si je ne dis pas de bêtises, qui a été lancé en 2016 ou 2017, notamment sur Twitter, et qui là aussi avait fait la polémique parce qu'il avait tenu des propos racistes et antisémites assez rapidement. Tout ça pour dire qu'effectivement d'un point de vue technique, ChatJPT n'est pas forcément une révolution, c'est plus une nouveauté dans l'adoption extrêmement rapide et extrêmement massive de ce modèle-là, ce qui est aussi permis par un accès qui est quand même relativement simple, par un simple interface web on peut l'utiliser, même si vous pouvez utiliser d'autres modèles via l'API d'OpenAI. Et donc pour ce qui est de l'accès à la connaissance du grand public, bon là c'est vrai que c'est encore difficile de le dire parce qu'encore une fois il n'y a pas eu d'enquête solide, que ce soit avec des méthodes qualitatives ou des méthodes quantitatives, en tout cas pas à ma connaissance, mais effectivement c'est vrai que l'adoption a été assez massive et rapide, et je pense qu'il y aura aussi, comme on l'a déjà vu typiquement pendant l'été, des flux et des reflux dans les niveaux d'utilisation du modèle. Est-ce que je peux te corriger sur ce que tu viens de dire ? Ah, vas-y. Si je ne me trompe pas, je pense que soit The Logic ou The Economist ont sorti des stats en début d'année. Oui, ce n'est pas de la sociologie, mais il y a quand même des stats de business et business talk sur la rapidité d'adoption de chartes GTP dans des business, qui est un des stocks les plus adoptés rapidement dans l'histoire de l'humanité. Oui, ça d'accord, mais tu vois, ça atteint 100 millions, mais c'est juste du quanti en fait, tu ne sais pas… Oui, c'est parce qu'il y a les vrais impôts de déploiement, mais au niveau quantitatif du moins, c'est fait. Oui. Mais oui, donc c'était 100 millions, je crois que c'était 100 millions d'utilisateurs, c'était vraiment dès le début de l'année, je crois 2024, voire même avant, quelques mois. Justement, le docteur Laurent Alexandre, son dernier ouvrage, déjà c'est l'ancien, mais surtout le dernier a l'air très alarmiste. Je ne suis pas encore parvenue à la fin parce que j'ai envie d'arrêter mes études quand je le lis. Et est-ce que justement, comme le semblent dire par exemple les réseaux sociaux, le gouvernement et les médias, est-ce que une charte GPT va être à l'origine d'un changement au niveau du travail aussi bien fourni par les professeurs que par les étudiants ? Est-ce qu'on va devoir créer des professeurs de nouvelles formes d'évaluation ? Les étudiants vont devoir apprendre et travailler autrement. Est-ce que vous pensez qu'il y a peut-être un changement qui va devoir se produire ces prochaines années ? C'est toujours des questions de piège un petit peu pour les sociologues justement de faire des prévisions dans le futur. Mais en tout cas, de ce qu'on voit en fait déjà maintenant, ne serait-ce par exemple qu'avec le cas de Sciences Po ou d'autres écoles. C'est vrai que le premier réflexe, c'était un petit peu l'interdiction pure et simple. Il y a eu des écoles aussi à New York qui se sont positionnées assez rapidement. Et maintenant, ce qu'on voit plutôt en fait, c'est un rétro-pédalage y compris à Sciences Po. C'est vrai que ça avait été vu d'abord comme une interdiction qui avait été pas mal relayée d'ailleurs dans les médias. Mais c'est vrai que depuis, vous avez l'Institut des compétences et l'innovation à Sciences Po qui a créé, c'est pour le coup ça que je peux en parler justement. C'est original, non ? Peut-être non, mais ils ont créé en fait tout un tas de fiches pédagogiques à destination des enseignants sur justement comment utiliser à la fois les modèles de langue et aussi les modèles de génération d'images dans la préparation des cours, dans l'évaluation aussi des cours. Et effectivement, comment prendre en compte ces outils-là, pour une fois donc pas du côté de la préparation des cours ou de l'évaluation, mais du côté des étudiants et des étudiantes. C'est vrai que ça peut changer pas mal de choses et notamment le point aussi de préoccupation c'est aussi sur les outils en fait de détection du texte généré qui sont en fait assez peu performants, voire assez contre-productifs en fait. Parce que vous avez des risques donc de, soit de faux positifs, soit de faux négatifs, c'est-à-dire que soit vous allez classifier donc le texte d'un étudiant comme étant généré donc par un modèle de langue alors qu'en fait il l'a rédigé lui-même sans assistance, soit à l'inverse, là vous allez classifier le modèle comme en effet on va dire authentique alors qu'il aurait été généré soit totalement, soit partiellement par un modèle. Donc c'est vrai que de ce point de vue-là c'est assez problématique, d'autant plus qu'en fait je pense que l'usage c'est pas forcément, surtout en effet peut-être au collège ou au lycée un peu plus, mais c'est vrai qu'en études supérieures, je pense que les étudiants et les étudiantes sont un petit peu plus malins et ils se contentent pas en fait uniquement de faire un simple copier-coller, ils peuvent les utiliser en fait tout simplement pour avoir des idées, pour les aider à structurer, donc plutôt en fait comme un outil qui peut déjà exister tout simplement, soit de traitement de texte, soit d'édition, donc plutôt un peu des interventions à la marge mais pas forcément en effet un simple copier-coller, même si ça a pu arriver au début, je crois qu'il y a eu quelques exemples justement de professeurs dont un à Lyon où je crois qu'il avait mis 11 à toute la classe parce que c'était assez flagrant qu'ils avaient utilisé de manière un peu bête et rapide l'outil, mais pour le coup encore une fois c'est vrai que c'est encore difficile à dire, est-ce que ce sera véritablement un changement profond et majeur, peut-être justement pour ramener ça à Wikipédia, voilà Wikipédia n'a pas non plus complètement transformé notre rapport à la connaissance et c'est vrai que, en tout cas l'idée que j'essaie de défendre c'est qu'on n'a pas en fait une rupture vraiment majeure, un changement de paradigme avec un avant-après, c'est plutôt en fait l'actualisation ou la réactualisation en fait de choses qui étaient déjà présentes avant, que ce soit en fait du côté des dispositifs techniques ou ce qu'on vient de dire, donc voilà il y avait quand même plusieurs décennies de recherche derrière un modèle de langue comme ChatJPD, ou que ce soit en fait du côté des pratiques et des usages des utilisateurs et des utilisatrices, où là en fait ça va être un outil parmi d'autres qui va venir en fait s'intégrer, s'inscrire dans un écosystème là aussi d'outils et de logiciels qu'on peut déjà par ailleurs utiliser, que ce soit des traitements de texte, que ce soit des moteurs de recherche, que ce soit justement des encyclopédies participatives en ligne comme Wikipédia, donc je pense que ça va en fait s'intégrer de manière assez naturelle dans un écosystème qui est déjà présent, que ce soit du côté technique ou du côté des pratiques. Donc pour vous, Wikipédia et ChatJPD ne sont pas nécessairement en concurrence ? Alors il y a déjà eu des frictions, je ne sais pas si c'est une concurrence directe mais effectivement le problème qui s'est posé pour Wikipédia, alors déjà c'est que ChatJPD a sûrement donc été entraîné encore une fois à partir de Wikipédia ou en tout cas de la version anglaise de Wikipédia, ce qui là aussi pose pas mal de questions en termes de langue et de maîtrise de la langue en question, par exemple du français à l'anglais, même si là comme c'est vrai que c'est des langues relativement majeures, ça pose peut-être moins de problèmes. Et ce qui se passe aussi, c'est que justement les éditeurs et les modérateurs de Wikipédia peu après justement le lancement de ChatJPD se sont rendus compte en fait d'une augmentation du nombre de soumissions qui auraient été générées justement par un modèle de langue de type ChatJPD, ce qui s'est vu aussi sur d'autres sites, vous avez par exemple StackExchange qui est un site de questions-réponses pour les informaticiens, un petit peu comme Quora, je ne sais pas si vous connaissez, là c'est pareil sauf que c'est en fait spécialisé pour les questions de programmation et de code informatique, et là aussi en fait les modérateurs et les éditeurs ont été véritablement débordés par de nouvelles soumissions qui paraissaient générées par ChatJPD. Donc il y a à la fois l'enjeu de l'entraînement des données, l'enjeu justement de la génération et pour le coup assez massive de soumissions qui seraient donc synthétiques et pas naturelles. Et oui c'était ce qui a eu une concurrence, encore une fois c'est vrai que c'est peut-être un peu trop tôt pour le dire, c'est vrai que moi je n'ai pas fait d'enquête côté Wikipédia donc je ne peux pas forcément me positionner là-dessus. En tout cas c'est vrai que personnellement j'ai beaucoup plus confiance en Wikipédia qui est vraiment un modèle qui a été éprouvé depuis déjà plusieurs années, qui est vraiment en effet modéré, alors de manière manuelle mais aussi de manière semi-automatique mais qui est quand même assez robuste, et surtout aussi vous pouvez donc aller soit d'une page à l'autre, soit aller voir les sources, et c'est vrai que le fait de citer ces sources c'est quand même un élément assez décisif donc de la méthode scientifique, notamment quand on fait de la recherche, et pour le coup c'est vrai que le CGPT a beaucoup de mal justement, même s'il existe justement des modèles qui sont spécialisés et qui permettent de citer des sources, ou par exemple vous avez aussi des modèles de langue qui ont été intégrés dans des moteurs de recherche, donc par exemple soit Bing pour Microsoft, soit Bard pour Google, et là en fait, ce qui n'était pas le cas au tout début, mais vous avez les versions les plus récentes en fait, vous soumettent une réponse et en même temps les liens à partir desquels ils sont allés chercher ces réponses-là, donc en fait peut-être qu'à terme justement on ira vers une généralisation ou en tout cas vers des dispositifs un petit peu comme ça qui permettront d'aller directement à la source. Donc en soi, la peur qu'il y a eu autour du CGPT, c'était une peur parce qu'on est un peu basé sur la vision de l'intelligence artificielle de la science-fiction et n'a pas réellement lieu d'être. Oui, tout à fait, mais ce qui est presque là aussi aussi entier en fait que l'histoire des techniques, c'est vrai qu'il y a tout un tas, même si je n'aime pas trop l'expression, de panique morale autour en fait des techniques ou des dispositifs techniques qui justement paraissent assez révolutionnaires, sachant que ça s'inscrit aussi dans tout un ensemble de discours médiatiques qui sont soit du côté de la critique qui en fait, même s'ils peuvent parfois être fondés en critiquant, ont souvent tendance en fait à exagérer la performance et la puissance de ces modèles-là et de l'autre côté pour le coup là des discours plutôt soit prophétiques soit qui promettent énormément de choses et souvent ils sont assis assez loin du compte, sachant qu'évidemment il y a des enjeux économiques et industriels extrêmement forts. Donc oui, encore une fois, je pense que ça a été un petit peu exagéré, mais c'est vrai qu'en tout cas c'était un changement assez profond par rapport à ce qui pouvait se faire avant, notamment oui en termes d'usage, c'est vrai que ça a été à la fois extrêmement rapide, extrêmement massif, ce qu'on n'avait pas vu en fait jusque-là dans les modèles justement qui avaient été proposés par exemple dans les années 2010 où ça restait un petit peu plutôt de niche en fait. Est-ce qu'il y a quelque chose là ? Non, parce que vous avez dit toute sorte de questions. Je me rends compte en fait que notre question n'était pas si vaste que ça. Oui. En même temps, c'est à la hauteur du cours. Ah le cours ! Hein ? Ne critique pas comme ça. Je ne critique pas. Mais oui. Mais en tout cas, merci beaucoup, vous avez parlé de pas mal de trucs auxquels en tout cas moi je n'avais pas pensé mais qui sont très pertinents pour anéantir la question. Oui, parce que c'est vrai qu'on a quand même notre vision d'étudiant. On nous dit faites attention et limite ça fait peur même si on n'utilise pas de gpt en mode est-ce que je vais recevoir un mail hors cours que j'ai en mode attention. Donc oui, c'est sûr, ça rassure parce que nous de notre point de vue c'est vraiment, enfin je sais que nous on avait une vision différente, pour moi énormément de personnes utilisent pas de gpt, ça t'étais pas trop étonné des résultats ? Tu m'arrives plutôt à ce que j'attendais. Tu disais que bah oui pour toi c'était normal que la plupart des personnes n'utilisent pas de gpt. Non, moi je pensais que oui, ils allaient utiliser massivement. Ah bon, toi aussi ? Oui. Mais toi tu pensais que... Bah oui, je pensais pas que... Oui. Non, c'était plus... Oui non mais c'est vrai que de notre point de vue ça a fait un peu un gros, je me souviens l'année dernière quand j'allais en manif il y avait quotidien qui venait nous voir et je me disais alors les étudiantes sont trop, est-ce que vous utilisiez peut-être gpt ? Alors même si on l'utilisait on va pas vous le dire, mais oui donc c'est sûr que là avec tout ce que vous nous avez dit ça permet d'avoir une vision plus globale de la chose. Mais je pense que dans tout cas c'est intéressant de, enfin pour le coup je donne un cours justement sur l'intelligence artificielle mais en master et c'est vrai que j'incite précisément en fait les étudiants et les étudiantes à les utiliser que ce soit les modèles de langue ou que ce soit les modèles de génération d'images parce qu'en fait c'est via l'utilisation qu'ils vont se rendre compte en fait de la réalité toute simple en fait de ces dispositifs là qui va pour le coup pas forcément concorder avec ce qu'ils peuvent en fait entendre dans les médias ou sur les réseaux sociaux numériques donc au contraire l'utilisation est plutôt une bonne chose qu'ils vont vite en fait se rendre compte à la fois des points forts parce que c'est vrai qu'il y a quand même une certaine performance technique qui pour le coup là aussi avait peut-être pas encore été vue jusque là et c'est vrai qu'il y a des choses qui sont assez impressionnantes et ça je le dénie pas du tout donc à la fois en effet la performance technique et puis aussi tout simplement en fait toutes les limites et toutes les failles que peuvent avoir ces modèles que ce soit justement notamment pour un usage d'enseignement de recherche ou de pédagogie si vous voulez rendre vos devoirs ou un usage plus général mais c'est vrai que si vous voulez les utiliser par exemple comme un outil d'aide pour écrire voilà un roman ou un travail de fiction là ça peut aussi avoir un certain intérêt donc non non au contraire je vous incite à l'utiliser vous vous rendrez justement compte à la fois des avantages et des inconvénients à ce qu'il vaut en fait pour tous les systèmes techniques au delà de l'IA D'accord bah écoutez, merci beaucoup Merci, maintenant j'espère avoir pu vous aider et puis justement est-ce que vous avez déjà pu interroger justement d'autres personnes professionnelles non ? Non, on est en train d'organiser des podcasts pour affaire avec des élèves, enfin des étudiants Là ça serait plus sur leurs usages, il n'y a pas tant... Pour l'instant vous êtes le seul spécialiste de la question qu'on a interviewé Vous avez des recommandations ? Une bonne partie du média là sans doute mais non oui ça dépend quel type de produit vous recherchez Non mais en plus comme on n'a pas... c'est seulement la moitié du semestre qu'on fait l'enquête Oui c'est pas quelque chose de... Enfin ce que je veux dire c'est pas énorme Oui je pense que là on est bien, on va faire des débats avec des étudiants à nos lignes Pour Wikipédia vous vous en trouverez je pense assez facilement parce que c'est vrai comme ça existe déjà depuis un petit moment Il y a vraiment des chercheurs qui ont passé là aussi plusieurs années et qui sont vraiment spécialistes de Wikipédia et qui en sauront bien plus que moi Alors que c'est vrai que l'IA c'est la dernière version, c'est à la fois plus récent et surtout qu'il y a aussi beaucoup de personnes qui en parlent sans être forcément très pertinentes ou qualifiées En vrai je pense qu'on l'a à presque fait, c'est genre sous la table rendue chez nous Oui c'est vrai Oui ça approche vite Sous-titres réalisés para la communauté d'Amara.org Sous-titres réalisés par la communauté d'Amara.org Sous-titres réalisés par la communauté d'Amara.org Sous-titres réalisés par la communauté d'Amara.org Sous-titres réalisés par la communauté d'Amara.org Sous-titres réalisés par la communauté d'Amara.org

Other Creators