AI Tutor Review : les modes étudiants d’OpenAI, de Google et d’Anthropic fonctionnent-ils ?

36

Présentation

L’intégration de l’IA dans l’éducation s’accélère, les grandes entreprises technologiques investissant massivement dans les outils d’apprentissage basés sur l’IA. OpenAI, Google et Anthropic ont récemment dévoilé de nouvelles versions d’apprentissage et d’étude de leurs modèles, conçues pour fonctionner comme des tuteurs d’IA. Mashable a testé ces outils pour évaluer leur efficacité, en tenant compte du contexte plus large du rôle de l’IA dans l’éducation et des pièges potentiels. Cette étude vise à déterminer si ces outils facilitent réellement l’apprentissage ou s’ils ne répondent pas aux attentes.

L’essor des tuteurs en IA et les défis contextuels

L’introduction de tuteurs IA reflète une tendance croissante à intégrer la technologie dans l’éducation, reflétant l’adoption des ordinateurs portables et des bibliothèques. Cependant, le « problème des cinq pour cent » met en évidence un défi récurrent dans la conception des technologies éducatives : même si les étudiants très motivés peuvent en bénéficier, la majorité (environ 95 %) ne connaîtront peut-être pas d’améliorations substantielles. Cela est dû en partie à l’accent mis sur les gains à court terme comme les notes plutôt que sur une compréhension plus approfondie. De plus, de nombreux outils d’IA manquent de personnalisation et de contexte, ce qui entrave leur capacité à répondre aux styles et programmes d’apprentissage individuels.

Méthodologie : tester les tuteurs d’IA

Pour évaluer ces outils, Mashable a analysé les questions directement de l’examen New York Regents, des normes de base communes de l’État de New York, des examens AP et des programmes de sciences sociales du programme Learning for Justice du Southern Poverty Law Center. Plutôt que de se concentrer sur les invites STEM typiques, l’examen a incorporé des questions de sciences humaines pour évaluer les capacités des outils dans les domaines où l’IA a fait l’objet de critiques. L’objectif était de simuler l’approche typique d’un élève : commencer par une demande d’aide aux devoirs et laisser la conversation se dérouler naturellement jusqu’à ce qu’elle devienne inutile.

Informations clés des experts

Hamsa Bastani, professeur agrégé à la Wharton School de l’Université de Pennsylvanie, souligne qu’il est crucial de comprendre le comportement des étudiants moyens. Elle note que les chatbots d’IA générative existants sont souvent réutilisés plutôt que spécifiquement conçus pour l’apprentissage, ce qui conduit à des garanties inadéquates contre la révélation de réponses. Dylan Arena, responsable de la science des données et de l’IA chez McGraw Hill, utilise l’analogie de la modernisation d’un moteur moderne dans une machine plus ancienne, soulignant le défi de l’intégration de l’IA dans les cadres éducatifs existants et la nécessité d’une personnalisation plus approfondie au-delà de la simple demande d’informations sur l’utilisateur.

Examen des tuteurs d’IA

  • ChatGPT : Bien qu’il soit adepte des tests pratiques et de la clarification des normes de notation, il fournit fréquemment des réponses directes et donne la priorité à la pratique par cœur, ce qui la rend frustrante pour les questions complexes.
  • Gémeaux : Excelle dans l’enseignement des mathématiques et propose des options telles que des flashcards et des quiz, mais a tendance à générer des évaluations inutiles et met l’accent sur la pratique plutôt que sur la compréhension.
  • Claude : Se concentre sur le processus d’apprentissage plutôt que sur des notes parfaites, ce qui le rend adapté aux apprenants en sciences sociales désireux de développer leurs compétences de pensée critique, mais peut être trop socratique et exigeant.

Soyons réalistes : limites et préoccupations

Malgré leurs approches différentes, les trois tuteurs en IA partagent des limites communes :

  • Conception : Le format chatbot, avec sa fenêtre de texte contrainte et son manque d’éléments visuels, n’est pas idéal pour l’apprentissage, notamment lorsqu’il s’agit de comprendre des concepts complexes.
  • Personnalisation : Les tuteurs en IA manquent de contexte sur les étudiants individuels et leurs programmes, ce qui entrave la capacité de véritablement personnaliser les cours.
  • Conscience sociale : Les tuteurs en IA manquent souvent de la flexibilité et de la conscience sociale d’un enseignant humain, ce qui conduit à un cycle sans fin d’optimisation et à des difficultés pour parvenir à une réponse définitive.

L’approche de McGraw Hill : une alternative plus sûre

McGraw Hill propose une approche différente, intégrant des outils d’IA directement dans ses supports pédagogiques. Cela élimine le besoin d’un contexte fourni par les étudiants et offre un environnement plus contrôlé. De plus, l’outil d’évaluation de l’entreprise, ALEKS, offre un moyen plus sûr de créer des profils d’apprentissage personnels des étudiants et de réagir aux fonctionnalités de l’IA.

Conclusion : les chatbots ne peuvent pas remplacer les excellents enseignants

Bien que les tuteurs en IA puissent offrir certains avantages, ils ne peuvent pas remplacer l’expertise et l’adaptabilité d’un enseignant humain. En fin de compte, la génération actuelle de chatbots a du mal à offrir une expérience d’apprentissage véritablement personnalisée et engageante. Des travaux supplémentaires sont nécessaires pour créer des outils d’IA qui répondent à ces limites et s’alignent sur les aspects sociaux et contextuels d’un apprentissage efficace.