A solução não é proibir a IA na educação, mas sim construí-la de forma diferente - fundamentada na ciência da aprendizagem, para atuar como parceira de alunos e educadores e não apenas como um atalho. É o que propõe a Google, num position paper que acaba de divulgar, para abordar os desafios da utilização da tecnologia na formação dos alunos.
Denominado "IA e o Futuro da Aprendizagem", o documento defende um caminho responsável e otimista para o futuro. Revela a forma como a inteligência artificial (IA) está prestes a transformar profundamente a educação - da personalização do ensino ao apoio aos professores - mas sublinha que os maiores desafios passam por garantir segurança, equidade e pensamento crítico, num sistema de aprendizagem em rápida mutação.
Assim, defende-se que a tecnologia poderá impulsionar a aprendizagem numa escala global e aliviar a pressão sobre sistemas educativos sobrecarregados. O documento identifica oportunidades claras - da personalização do ensino ao reforço da motivação dos alunos - mas também assinala riscos, que exigem respostas coletivas, desde a precisão dos conteúdos à segurança dos mais jovens.
Perante os dados do PISA, que mostram que os ganhos de aprendizagem têm vindo a cair globalmente nas últimas duas décadas, enquanto milhões de estudantes continuam fora da escola e os sistemas educativos enfrentam escassez de professores, desigualdades profundas e desafios agravados pela pandemia, defende-se que IA surge como uma ferramenta capaz de atuar em várias frentes. Como adaptar conteúdos ao ritmo e nível de cada aluno, simplificar tópicos complexos, criar experiências interativas e fornecer apoio imediato quando não há um educador disponível.
A Google destaca cinco áreas de transformação. A primeira é a ligação direta entre IA e ciência da aprendizagem, permitindo incorporar métodos comprovados - como prática ativa e repetição espaçada - em ferramentas do dia a dia. Depois, a personalização do ensino e da tutoria, aproximando milhões de alunos de modelos que antes só eram possíveis com acompanhamento individualizado. Seguem-se a capacidade de tornar "quase tudo aprendível", ao ajustar explicações ao contexto e preferências do utilizador, a remoção de barreiras linguísticas e de acessibilidade e, por fim, o apoio aos professores, com automatização de tarefas administrativas e criação rápida de planos, materiais e avaliações.
Mas o relatório também alerta para riscos significativos. A precisão das respostas da IA continua a ser um problema crítico, exigindo validação rigorosa e salvaguardas para evitar viés ou informação incorreta. A segurança de crianças e jovens requer sistemas robustos de filtragem, literacia digital e práticas de proteção de dados.
A IA pode ainda estimular dependência excessiva e reduzir o esforço cognitivo, caso não seja usada para promover raciocínio profundo. O estudo discute igualmente o impacto na avaliação, já que a fronteira entre ajuda legítima e batota se tornou difusa, defendendo a evolução para modelos de avaliação mais resistentes - debates, projetos e provas orais.
A equidade é outro ponto central: a tecnologia pode amplificar desigualdades, caso o acesso a dispositivos e literacia digital não seja assegurado. A Google diz que vai treinar modelos com dados culturais e linguísticos diversificados e trabalhar com parceiros globais para garantir que a IA beneficia tanto quem já tem apoio como quem está mais distante das oportunidades.
Está ainda a desenvolver modelos, como o Gemini, com princípios pedagógicos integrados e ferramentas como Guided Learning, NotebookLM ou funcionalidades de tutoria no YouTube e no Classroom. E assume que a evolução da IA exigirá respostas sociais mais do que tecnológicas, com envolvimento contínuo de professores, investigadores, governos e comunidades.
"O maior potencial da IA na educação não é substituir o ensino, mas ajudar cada pessoa a atingir o seu próprio potencial", conclui o estudo.
Acordo envolve licenças para OpenAI usar personagens do grupo de media
Unindo esforços para a definição de padrões para agentes de IA