Revisão do tutor de IA: os modos de estudante OpenAI, Google e Anthropic funcionam?

15

Introdução

A integração da IA na educação está a acelerar, com as principais empresas tecnológicas a investirem fortemente em ferramentas de aprendizagem baseadas na IA. OpenAI, Google e Anthropic revelaram recentemente novas versões de aprendizagem e estudo de seus modelos, projetados para funcionar como tutores de IA. Mashable testou estas ferramentas para avaliar a sua eficácia, considerando o contexto mais amplo do papel da IA ​​na educação e potenciais armadilhas. Esta revisão tem como objetivo fornecer informações sobre se essas ferramentas ajudam genuinamente a aprendizagem ou ficam aquém das expectativas.

A ascensão dos tutores de IA e os desafios contextuais

A introdução de tutores de IA reflecte uma tendência crescente de incorporação de tecnologia na educação, reflectindo a adopção de computadores portáteis e bibliotecas. No entanto, o “problema dos cinco por cento” realça um desafio recorrente na concepção tecnológica educacional: embora os estudantes altamente motivados possam beneficiar, a maioria (cerca de 95%) pode não experimentar melhorias substanciais. Isto se deve parcialmente ao foco em ganhos de curto prazo, como notas, em vez de uma compreensão mais profunda. Além disso, muitas ferramentas de IA carecem de personalização e contexto, dificultando a sua capacidade de atender a estilos de aprendizagem e currículos individuais.

Metodologia: Testando Tutores de IA

Para avaliar essas ferramentas, o Mashable analisou questões diretamente do New York Regents Exam, dos Common Core Standards do estado de Nova York, dos exames AP e dos currículos de ciências sociais do programa Learning for Justice do Southern Poverty Law Center. Em vez de se concentrar nas solicitações típicas de STEM, a revisão incorporou questões de humanidades para avaliar as capacidades das ferramentas em áreas onde a IA tem enfrentado críticas. O objetivo era simular a abordagem típica de um aluno: começando com um pedido de ajuda com o dever de casa e permitindo que a conversa fluísse naturalmente até se tornar inútil.

Principais insights de especialistas

Hamsa Bastani, professor associado da Wharton School da Universidade da Pensilvânia, enfatiza que é crucial compreender o comportamento dos alunos comuns. Ela observa que os chatbots generativos de IA existentes são muitas vezes reaproveitados em vez de especificamente concebidos para aprendizagem, levando a salvaguardas inadequadas contra respostas reveladoras. Dylan Arena, diretor de ciência de dados e diretor de IA da McGraw Hill, usa a analogia de adaptar um motor moderno a uma máquina mais antiga, destacando o desafio de integrar a IA nas estruturas educacionais existentes e a necessidade de uma personalização mais profunda, além de simplesmente solicitar informações do usuário.

Revisão dos tutores de IA

  • ChatGPT: Embora seja especialista em testes práticos e em esclarecer padrões de avaliação, ele frequentemente fornece respostas diretas e prioriza a prática mecânica, tornando-a frustrante para questões complexas.
  • Gêmeos: É excelente no ensino de matemática e oferece opções como flashcards e questionários, mas é propenso a gerar avaliações inúteis e enfatiza a prática em detrimento da compreensão.
  • Claude: Concentra-se no processo de aprendizagem em vez de notas perfeitas, tornando-o adequado para alunos de ciências sociais dispostos a desenvolver habilidades de pensamento crítico, mas pode ser excessivamente socrático e exigente.

Vamos cair na real: limitações e preocupações

Apesar das abordagens variadas, todos os três tutores de IA compartilham limitações comuns:

  • Design: O formato chatbot, com sua janela de texto restrita e falta de elementos visuais, não é ideal para aprendizagem, principalmente quando se trata de compreender conceitos complexos.
  • Personalização: Os tutores de IA carecem de contexto sobre os alunos individuais e seus currículos, dificultando a capacidade de personalizar verdadeiramente as aulas.
  • Consciência Social: Os tutores de IA muitas vezes não têm a flexibilidade e a consciência social de um professor humano, levando a um ciclo interminável de otimização e dificuldade para chegar a uma resposta definitiva.

Abordagem da McGraw Hill: uma alternativa mais segura

A McGraw Hill oferece uma abordagem diferente, integrando ferramentas de IA diretamente em seus materiais educacionais. Isso elimina a necessidade de contexto fornecido pelo aluno e oferece um ambiente mais controlado. Além disso, a ferramenta de avaliação da empresa, ALEKS, oferece uma maneira mais segura de criar perfis pessoais de aprendizagem dos alunos e fornecer feedback sobre os recursos de IA.

Conclusão: Chatbots não podem substituir ótimos professores

Embora os tutores de IA possam oferecer alguns benefícios, eles não podem substituir a experiência e a adaptabilidade de um professor humano. Em última análise, a geração atual de chatbots luta para fornecer uma experiência de aprendizagem verdadeiramente personalizada e envolvente. É necessário mais trabalho para criar ferramentas de IA que abordem estas limitações e se alinhem com os aspectos sociais e contextuais de uma aprendizagem eficaz.