terça-feira, 10 de fevereiro de 2026

«O caminho é outro: regras claras, avaliações centradas no processo, com maior peso da avaliação oral, e formação explícita em literacia de IA. Não para substituir o pensamento, mas para o exigir. Ensinar a usar a IA não é ceder, é cumprir a missão da universidade: preparar os estudantes para o mundo real»

 



E antes na apresentação do Relatório - neste endereçoGenerative AI (GenAI) is reshaping the educational landscape, beyond teaching and learning. Unlike earlier waves of education technology, much of GenAI is freely accessible and largely used beyond institutional control due to its intuitiveness and versatility. The OECD Digital Education Outlook 2026  analyses emerging research that suggests GenAI can support learning when guided by clear teaching principles. However, if designed or used without pedagogical guidance, outsourcing tasks to GenAI simply enhances performance with no real learning gains. The Outlook highlights the benefits of GenAI as a tutor, partner and assistant, and synthesises experts’ evidence and insights on the design criteria that make it work for education».

*
*   *

Excertos - Começa assim: «universidade existe para formar. E formar, hoje, implica ensinar a usar — com regras, método e responsabilidade — ferramentas de inteligência artificial (IA), que fazem parte do mundo real. Muitas vezes confundem-se dois planos: o da integridade e o da literacia. Se é evidente que a universidade tem de avaliar o que o estudante sabe, temos de ter consciência de que ignorar a IA não a faz desaparecer. Apenas faz com que seja usada sem orientação, sem transparência e sem critérios. Proibir pode dar uma sensação de controlo, mas, na verdade, empurra o problema para fora da sala de aula e amplia a desigualdade: quem tiver mais literacia digital (ou mais dinheiro para aceder a melhores ferramentas) usa a IA, quem não tiver fica para trás. (...)».
Mais adiante: (...) O mercado de trabalho também não espera que a academia resolva as suas hesitações. Em setembro do ano passado, a CNBC noticiou as intenções da Accenture de dispensar os seus trabalhadores que não se consigam requalificar em IA. Já em janeiro o “The Guardian” avançou que, nas entrevistas de emprego, a McKinsey avalia a capacidade dos candidatos recém-graduados para pedir ajuda a uma máquina, como se lê criticamente a resposta e como se aplica julgamento humano para chegar a uma solução estruturada. Avaliam aquilo que as universidades devem ensinar: capacidade de formular boas perguntas, detetar falhas, justificar opções e assumir responsabilidade pelo resultado.
O mercado de trabalho também não espera que a academia resolva as suas hesitações. Em setembro do ano passado, a CNBC noticiou as intenções da Accenture de dispensar os seus trabalhadores que não se consigam requalificar em IA. Já em janeiro o “The Guardian” avançou que, nas entrevistas de emprego, a McKinsey avalia a capacidade dos candidatos recém-graduados para pedir ajuda a uma máquina, como se lê criticamente a resposta e como se aplica julgamento humano para chegar a uma solução estruturada. Avaliam aquilo que as universidades devem ensinar: capacidade de formular boas perguntas, detetar falhas, justificar opções e assumir responsabilidade pelo resultado. (...). Termina desta maneira: «O caminho é outro: regras claras, avaliações centradas no processo, com maior peso da avaliação oral, e formação explícita em literacia de IA. Não para substituir o pensamento, mas para o exigir. Ensinar a usar a IA não é ceder, é cumprir a missão da universidade: preparar os estudantes para o mundo real».

*
*   *

E a quem não o está a fazer, ousamos sugerir que  na ACADEMIA em todas as ESCOLAS se discuta o que emerge do Relatório da OCDE e do artigo acima. Em especial haverá quem - nomeadamente por experiência própria, ou porque se esteve/está atento ao  que se passa à volta -  alinhe com esta  realidade: «quem tiver mais literacia digital (ou mais dinheiro para aceder a melhores ferramentas) usa a IA, quem não tiver fica para trás».  


Sem comentários: