这项研究由迪肯大学(Deakin University)数字学习评估研究中心的托马斯·科尔宾(Thomas Corbin)、大卫·鲍德(David Boud)、玛格丽特·贝尔曼(Margaret Bearman)和菲利普·道森(Phillip Dawson)四位学者共同完成(Corbin T, Bearman M, Boud D, et al. The wicked problem of AI and assessment.[J]. Assessment & Evaluation in Higher Education, 2025:1-17.DOI:10.1080/02602938.2025.2553340.)。研究指出,以ChatGPT为代表的生成式人工智能(AI)正在对大学评估体系造成前所未有的冲击,这本质上是一个无法通过简单方案解决的“棘手问题(wicked problem)”。基于对澳大利亚20名大学教师的深度访谈,研究揭示了教育工作者在应对AI挑战时面临的多重困境。
研究发现,AI对传统评估方式的冲击呈现出典型的“棘手问题”特征。这一概念由霍斯特·里特尔(Horst Rittel)和梅尔文·韦伯(Melvin Webber)在1970年代提出,指代那些没有标准答案、解决方案必然伴随新问题的复杂挑战。在高等教育评估领域,AI带来的每个应对方案都涉及艰难权衡:增加口试可以规避AI作弊,但会加重教师工作负担(250名学生每人10分钟意味着2500分钟的工作量)并可能对非英语母语学生造成不公;允许使用AI能反映真实工作场景,却难以评估学生独立能力;回归纸笔考试确保真实性,却无法全面测试现代职场所需技能。
研究揭示了教育工作者面临的三重压力:技术快速迭代(如ChatGPT持续更新新模型和功能)、教学资源限制(“我们没有资源检测所有违规行为”),以及维持学位公信力的社会责任。受访教师普遍陷入“两难困境”——正如一位教师所言:“我们可以设计防AI的评估,但若过于严格,我们测试的只是服从性而非创造力。”这种困境导致政策反复调整、教师职业倦怠等连锁反应。
研究建议高等教育机构需要根本性转变应对思路。首先必须承认AI评估挑战的“棘手性”,放弃寻找“完美解决方案”的幻想。具体应对策略包括:赋予教师更大的决策自主权,允许其根据具体课程、评估类型和学生群体特点选择“相对最优”方案;建立透明的权衡机制,明确每个方案的优势与局限;提供制度性支持,缓解教师的决策压力。研究者特别强调,所有解决方案都必然包含妥协,关键在于建立能够持续适应技术变革的灵活机制,而非追求一劳永逸的解决。
这项研究的重要意义在于首次系统论证了AI评估挑战的“棘手问题”属性,为高等教育改革提供了理论框架。它警示简单化的应对措施(如全面禁止AI或依赖检测软件)不仅无效,还可能产生新的教育公平问题。研究呼吁学界和政策制定者正视这一挑战的复杂性,将关注点从技术防控转向教育理念革新,构建更具包容性和适应性的评估生态系统。该成果对全球高等教育机构应对AI时代的教育质量保障具有重要参考价值。
(来源:对话(The Conversation)官网)