阅读提示:6月10日,托马斯·科尔宾(Thomas Corbin)、丹尼·刘(Danny Liu)和菲利普·道森(Phillip Dawson)在“对话(The Conversation)官网“撰文,介绍了他们近期在线发表在《高等教育评估与评价(Assessment & Evaluation in Higher Education)》期刊论文('Where's the line? It's an absurd line': Towards a framework for acceptable uses of AI in assessment, https://doi.org/10.1080/02602938.2025.2456207)主要观点。以下是文章的核心要点。
人工智能(AI)技术在不足三年内已彻底重塑高等教育评估格局。高校应对策略各异,从全面禁止、有条件许可到默认开放使用生成式AI。然而,这种政策分化导致深层问题显现:研究表明师生普遍困惑于AI“合理使用”边界,伴随焦虑情绪;同时存在AI加剧学术失信行为的担忧。更严峻的是,若评估依赖AI,大学学位的核心价值基础正遭受根本性质疑。
为规范AI应用,高校普遍诉诸制定规则(discursive changes),如英国利兹大学(University of Leeds)的“交通灯框架(traffic light framework)”(“红灯”禁止AI、“黄灯”限制使用、“绿灯”鼓励使用),以及澳大利亚墨尔本大学(University of Melbourne)等机构要求的AI使用声明。此类措施旨在维护“评估有效性(assessment validity)”——确保评估真实测量学生自身能力与学习成果,而非其操作AI的水平或购买服务的程度。
然而,深入分析揭示,单纯依赖制定规则(即仅通过指令界定许可范围或依赖声明)存在根本局限。这类策略要求学生理解并自愿遵守规则,在AI辅助作弊日益隐蔽难测的现实中,其保障评估有效性的可靠性严重不足。研究主张,必须转向“结构性变革(structural changes)”:即重构评估任务本身的设计,通过任务的内在结构(而非外部指令)来约束行为或实现目标。例如:
l 将传统论文改为在课堂环境中进行、可观察发展过程的连续性写作任务(替代带回家论文)。
l 将编程考核转化为对学生代码决策进行实时评估的对话(替代单纯的代码输出)。
结构性变革的核心在于将评估有效性直接内嵌于任务设计本身,而非寄希望于规则遵守。
结论明确指出:在生成式AI深刻变革知识生产方式的时代,高校若欲维系评估作为学生真实能力凭证的有效性与公平性,结构性变革势在必行。这意味着各学科需勇于探索可能与过往截然不同的评估形态。回避在评估任务设计核心层面进行根本性重构,仅依赖指令约束并期待学生自觉遵守的做法已宣告失效。维护大学学位价值的基石在于彻底革新评估设计理念与实践,确保其测量目标与真实能力紧密对应。
(来源:对话(The Conversation)官网)