人工智能作为管理教育的辅助工具,是否真正可靠?它能否同时符合价值理性和工具理性?它对管理教育的未来发展是否安全?这些问题目前尚无明确答案,实践中也存在两种不同的观点。
01 一种观点:谨慎使用,关注潜在风险
持这一观点的人强调人工智能技术的局限性与潜在风险。他们认为,当前的人工智能大模型(如ChatGPT)在回答问题时,会受到设计者的隐含假设和训练数据中偏见的影响。长期使用可能会改变教育者和学生的认知模式和思维方式,进而影响行为。例如,斯坦福大学以人为本人工智能研究院在《人工智能指数(2022)》报告中指出,尽管大语言模型的性能不断提升,但偏见问题愈加严重。
研究显示,随着模型参数规模扩大,偏见也更加显著。例如,一个拥有2800亿参数的大模型,其“毒性”(elicited toxicity)比2018年最先进的1.17亿参数模型高出29%。这表明,技术能力的提升并未减少偏见,反而加剧了这一问题。
这些偏见和“毒性”表现在哪些方面?可能是种族歧视、伦理偏见,或者削弱用户的独立思考能力。在管理教育中,大量使用此类工具可能带来双面影响。一方面,人工智能确实能减轻教师和学生的脑力负担,甚至在某些场景中替代人类的思维和分析;但另一方面,长期依赖这些工具可能削弱学生的学习能力、思维深度、判断力,以及整体认知水平。
此外,人工智能的运行机制越来越复杂,其输出的结果常常难以预测。用户输入相同的数据,可能得到完全不同的答案。这种不确定性让人工智能的使用更像开“盲盒”,而不可预测性可能导致焦虑和不安。
于是,从价值理性的角度出发,一些大学对使用ChatGPT持非常谨慎的态度,因为他们无法确信这种工具是否真正有助于学生的成长。
√2023年1月,巴黎政治大学率先宣布禁止教师和学生使用ChatGPT等基于人工智能的工具,理由是防止学术欺诈和剽窃。类似的举措随后在其他高校出现。
√香港大学:2023年2月,香港大学向全校师生发出电子邮件,明确规定禁止在所有课程、作业和评估中使用ChatGPT或其他人工智能工具。除非学生事先获得课程讲师的书面许可,任何违规行为都将被视为抄袭。
√日本上智大学:2023年3月27日该校规定,未经导师许可,不允许在作业中使用ChatGPT或其他人工智能生成的文本、代码或计算结果。若发现违规,将采取严厉措施。
√东京大学:2023年4月3日该校发布通知,要求学生独立完成报告,不能完全依赖人工智能工具。
√京都大学:校长凑长博在2023年4月7日的入学仪式上指出,写作虽然耗时,但这一过程有助于加强学生的思考能力。
√日本东北大学:在官方网站发布通知,建议教师重新设计作业和考试形式,以应对人工智能可能提供的答案。他们提倡采用课堂写作等方式,减少对人工智能工具的依赖。
这些学校的措施反映了他们的一个共识:虽然人工智能工具能提高效率,但对学生独立思考能力的影响仍需深思。教育的目标不只是获取结果,更在于过程中对思维能力和创造力的培养。这些大学希望通过谨慎的管理,确保人工智能的使用不会削弱这一目标。
02 另一种观点:在管理教育中大胆使用ChatGPT
伊桑·莫利克(Ethan Mollick)是宾夕法尼亚大学沃顿商学院的一名副教授。他主要研究创新与创业,并探索人工智能对工作和教育的影响。他领导的沃顿互动(Wharton Interactive)项目旨在通过游戏、模拟和人工智能技术推动教育的普及。莫利克还著有《共智》(Co-Intelligence: Living and Working with AI),书中提出了人工智能时代人类与AI共存的四大原则。他的博客“OneUsefulThing”吸引了全球超过13.4万名读者,在学界和企业界引起了广泛关注。
在教学中大胆探索ChatGPT的使用
莫利克在教学中大胆使用ChatGPT,以帮助学生更高效地学习和掌握创业技能。他认为,人工智能不仅可以简化日常工作,还能提升教学质量和学生的参与度。在他的课堂中,ChatGPT被用于以下几种创新方式:
(1)商业计划书的撰写与优化。学生通过输入商业想法,利用ChatGPT生成初步的商业计划书草案。随后,他们须指出ChatGPT方案的不足,并加入自己的创意以完善计划书内容。莫利克强调,这种方法不仅提高了计划书的完成速度,还让学生有机会专注于更具创造性和策略性的思考。
(2)创业实验的辅助工具。莫利克鼓励学生使用ChatGPT进行创业实验的假设构建和数据分析。例如,学生可以输入商业假设,让ChatGPT生成可能的市场反馈或分析数据趋势。这种基于人工智能的实验辅助工具显著提高了实验效率,同时帮助学生更快验证创业假设的可行性。
(3)个性化学习助理。通过ChatGPT,学生能够更快获得问题的解答。例如,针对复杂的金融模型或市场分析,ChatGPT可以提供初步的解释和例子。莫利克指出,这种互动方式可以帮助学生更有效地吸收新知识,并培养解决问题的能力。
人类与人工智能协作的四大原则
在莫利克的书中,他强调了人类与人工智能协作的重要性,并分享了他的“四条共智原则”(Co-Intelligence Rules):
(1)邀请人工智能参与决策。莫利克要求学生在每项任务中都尝试使用ChatGPT。他相信,了解人工智能的强项和弱项是学生未来在商业中使用技术的关键。通过反复测试,学生能够掌握如何充分利用人工智能工具进行高效决策。
(2)“人在环中”(Human in the Loop, HITL)。这是人工智能和自动化领域的一个概念,指的是在复杂的系统中,人类在关键决策或操作环节中起到监督、干预或指导的作用。他提醒学生,人工智能可以完成许多任务,但核心决策仍需人类主导。例如,学生可以让ChatGPT完成大量的市场调研或初步数据整理,而将更多精力集中在战略制定和创意上。
(3)赋予人工智能角色。莫利克建议学生在与ChatGPT互动时明确其“身份”。例如,可以告诉ChatGPT:“你是一名金融分析师”或“你是一位专注于市场营销的顾问”。这种方法能够显著提高ChatGPT生成内容的相关性和质量。
(4)假设你正在使用的ChatGPT是“最差的人工智能工具”。莫利克鼓励学生以批判性的视角使用ChatGPT。他指出,当前的人工智能技术虽然强大,但必然会被更先进的版本取代。因此,学生需要不断学习和适应,以充分利用未来更强大的人工智能工具。
3. 实际成效
莫利克说,他在课堂上的这些大胆尝试已经产生了显著效果。学生报告称,他们完成任务的效率显著提升,且对创业和商业管理的兴趣更浓厚了。此外,学生逐渐学会辨别人工智能工具的优势和局限,培养了更强的批判性思维能力。
莫利克的实践为全球商学院如何应对人工智能时代的教育挑战提供了重要启发。
03 未来的管理教育:人工智能与人类的共存之路
人工智能技术正以前所未有的速度融入教育,它带来的潜力令人振奋,但也催生了不容忽视的隐忧。
面对未知的技术未来,我们或许无法选择完全接纳或完全拒绝,但可以在创新与谨慎之间寻找平衡。
或许,教育的本质从未改变。它的使命不是塑造完美的答案,而是塑造能够思考、提问、探索的个体。人工智能可以成为工具,但教育者的角色永远是灵魂的塑造者,而非机器的操作者。
管理教育的未来,是一场持久的对话——人与技术的对话,创新与伦理的对话,过去与未来的对话。对话的意义,不仅在于科技的升级,更在于教育对于人类价值的坚守。
也许多年后,当今天的学生成为社会的中坚,他们会回忆起这场变革中的种种尝试。他们会看到那些大胆的实验,也会理解当年那些看似保守的决策。那时,教育的答案可能更加清晰:人工智能,并不是教育的终点,而是一面镜子,映射出我们如何思考“人”的真正价值。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。