从1950年图灵提出“机器能否思考”之问,到1997年深蓝击败国际象棋冠军,AI一直不断尝试突破人类认知边界。2012年深度学习崛起,2016年AlphaGo击退李世石,次年再挫柯洁,攻陷围棋领域后悄然远离江湖。角声未远,AI卷土重来,2022年ChatGPT掀起生成式AI浪潮。今年1月20日,DeepSeek-R1低调亮相,随后仅用18天,便收获全球1.19亿用户。新一轮技术迭代正席卷世界,甚至在一定程度上开始重塑社会逻辑。
人文学科中一些专业的处境难谈乐观。2021年,英国政府将艺术与人文学科的资助削减近50%;2023年,哈佛大学宣布缩减古典学、宗教研究等人文学科课程规模,转向“AI伦理”等交叉领域……
尽管在局部的领域尚有争议,但学术界一般接受这样的说法:AI时代即将到来,必须认真思考、理解、判断AI对本学科的冲击,形成有效应对措施。不同学科的学者态度有时也有差异,但一般都能辩证看待AI冲击所带来的利与弊。如哲学领域的一些学者认为,ChatGPT等生成式AI一方面带来了“对可自由支配的时间的极大程度的解放”,另一方面也引发了“人的主体性在数据面前日渐消亡的过程”一些教育专家意识到“大语言模型(LLM)、人工智能科学(AI4S)引领的教育研究范式变革在延续历史发展逻辑的同时,更实现了创新性突破”的同时,也可能带来“单一文化”“理解的错觉”“误导因果归因”等方面的风险而一些文学学科的学者则更聚焦于“文学理论体系以及批评话语的建构”等问题。
前述讨论都是有价值意义的,说出了一些问题要害。AI时代,文科何为?当算法接管重复劳动,文科的价值愈发凸显:批判性思维、伦理追问、文化共情与创造力,恰是AI难以复制的‘人性之光’。技术狂飙中,人文精神不是挽歌,而是锚点——追问‘何为意义’,或许才是人类面对机器的终极答案。”
AI时代到来虽然即将成为事实,它在当前毕竟还是一个未定型的状态,有关于它的种种描绘、猜度,现在的很多说法都有空想之嫌,因为绝大多数文科的从业人员其实都缺乏一些关于AI过硬的认知与理解。基于此,本文认为,加强与AI相关的知识教育或人文素质培育,是未来一段时间里各教育机构一个重要的课题。这其中涉及的问题方面很多,本文主要谈论AI时代的思维教育、伦理教育、劳动教育三点。
第一是培养AI思维问题。
什么是AI思维?就是能够在学理层面理解AI的运作机制,明了AI生产知识、信息与人脑工作机制相近与相异的根本之点,并能够根据该领域学科的进展做出判断,分析人脑与AI在特定学科领域的优劣短长。不同学科领域的研究所要应对的AI挑战问题很不相同,受教育者的接受能力也有很大差异,教育机构对此当留有余地地做出前景规划。
当前大众媒介对AI与人类社会关系的评估有较为激进的神话般高估或贬拟两派。其中争执的症结不少都在于对AI思维的理解不够准确到位。相较于独断论式的高估或贬低AI,了解大语言模型(LLMs)的运作原理并将其成功置于背景中非常重要。这不仅有助于减少公众对LLMs功能的误解与炒作等,还可能鼓励LLMs的新研究方向。
吉尔贝·西蒙东在《论技术物的存在模式》(南京大学出版社2024年版)中指出:“所有彩色的、有气息的珍贵的照片,所有噪音、声音和图像的记录,都是对技术现实的利用,而不是对这种现实的揭示。我们必须理解技术现实,甚至必须通过参与它的行动图式来了解它。只有在这种真正的直觉和参与的介入下,而且不视之为简单的景观,审美印象才会出现:任何技术景观如果尚未整合到技术组合中,会显得幼稚和不完整。”西蒙东这个说法是很有道理的。如有较好的AI思维培养,在某些学科领域可能产生新能力培育的进路。以AI为工具,提示工程可能成为作为人文学科与人工智能的桥梁。提示工程是精心设计输入以指导人工智能系统生成所需输出的过程,它通过将人类意图转化为人工智能可以处理的语言,“为人类提供了一个自然直观的界面,可以与诸如LLMs等模型进行交互和使用。”这些模型理解提示的模式不同于人类的思维方式,词语的选择乃至格式、标点等在人类思维中看起来边缘性的、无足轻重的细节也会对生成结果产生重大影响,造成对预期结果的违背。因此,只有在充分了解人工智能系统如何工作,以及它们需要哪些信息以进行有效且准确的输出的基础上,提示工程才能真正发挥作用。
第二,应当加强AI伦理、法治的教育。
从本质上说,AI的大数据学习是建立在一系列潜在知识产权风险基础上形成的。在它能力较为低幼的时代,对这些产权风险人们可以忽略不计,但到今天,如果还对其包裹的产权归属、数据来源的合法性等问题置若罔闻,必然削弱现实社会的民主、平等、正义或人权实践,并在事实上更容易助力于强力政治机构和资本力量。
2023年10月,美国国家人文基金会(National Endowment for the Humanities)启动了“人工智能的人文视角”研究计划。这一计划旨在支持理解和解决人工智能的伦理、法律问题的研究项目,进而“探索人工智能相关技术对真相、信任和民主,安全保障,以及隐私、公民权利和公民自由的影响”。这一计划的出现并非偶然,而是代表了社会层面对于AI时代伦理、法治问题的愈发关注。
2023年底,《纽约时报》就平台文章被OpenAI和微软用以训练人工智能模型一事向法院提起诉讼,这成为了第一起大型媒体机构从版权问题角度起诉人工智能公司的案件。尽管该案目前仍然处在审理阶段,但无论结果如何,它都触及了人工智能发展中的一个核心问题:数据的使用权和版权问题。从而“在未经授权使用已发表作品训练人工智能技术的日益激烈的法律斗争中开辟了一条新战线”,甚至有可能塑造人工智能未来的法律格局,进而推动现实社会的法治建设与实践。
人文学科的法治教育可以帮助我们揭示可能激励人工智能开发与使用的价值观与目的,进而分析其合法性与有效性。它们还可能帮助我们思考人工智能开发中可能存在的权力结构与利益关系,并通过揭露其中的潜在假设来挑战这些结构与关系,强调社会的公平与正义。
对公平正义的追求伴随着AI时代的伦理学思考。人文学科最重要的贡献之一就是可以帮助我们理解人工智能的伦理含义,这对于指导我们与人工智能的关系及评估人工智能对社会的影响至关重要。人文学科的伦理教育可以帮助我们识别和阐明道德原则与价值观,从而为人工智能的开发与使用提供指导。比如,它们可以帮助我们定义人工智能时代中人类的尊严、隐私、公平、责任与多样性意味着什么,还可以帮助我们思考如何将这些价值观念转化为可以管理与规范的关于人工智能的具体标准。
人工智能的未来没有任何预设的东西,它在未来到底是会成为行善或作恶的力量,取决于人类如何负责任地处理其中的伦理与法治的问题。这点在Tay的例子中表现的尤为明显。Tay是微软于2016年推出的聊天机器人,在推出时被称为“有温度的人工智能”。但在与推特用户互动后,Tay很快就模仿他们的故意冒犯行为而变得充满攻击性,甚至学会了发布煽动性信息与色情内容,这导致微软在仅仅16个小时后就关停了它。但这并不意味着Tay背后的工程团队应当受到道德上的指责,而是使我们意识到:“必须引导社会反思人工智能行为的潜在危害,并明确社会行动者(包括用户、设计者和机器人行动平台的所有者)必须承担的不同责任。”
在这个意义上,人文学科可以帮助我们审视人工智能可能出现的道德困境和权衡并批判性地反思我们自己在法律与道德假设和偏见。
第三,如何理解AI时代的劳动?
AI时代存在着劳动问题的隐忧。19世纪的社会主义者曾经指出,机器进步势必会对劳动者的工作造成一定的影响,机器的每一种改进都抢走了工人的饭碗,这种改进愈大,工人失业就愈多。生成式AI的进步也存在着这方面的问题:“在经济和社会信息化、智能化过程中,智能系统的‘类人智能’和劳动能力日益增强,正在取代人类承担越来越多的劳动任务和劳动职责。这不仅导致‘数字穷人’日益丧失劳动的机会和权利,造成波澜壮阔的‘技术性失业’潮,而且令‘数字穷人’沦落为尴尬的‘无用阶层’,被经济和社会体系排斥在外,存在变得荒谬化。”
对待这一现实态势我们应当持何种立场?文科的教育与研究有其特殊的解释能力。至少,通过精当的学理研究,我们能够想象未来的人类劳动未必是注定的一片黯然的前景。如西蒙东关于技术物存在方式的研究就很有启发性。他试图通过跨个人的技术文化克服劳动异化的经济范式。在《论技术物的存在模式》中,西蒙东认为工业化之后,随着技术物的自动化进程,机器代替了人作为工具的载体,出现了以前不存在的异化。自然、人类和技术物之间的这种疏离或不连续性促使劳动概念本身发生根本性的变化。因此必须考虑人类和机器可以一起工作的后劳动时代的可能性,而不是将与人工智能相关的异化减少到简单的就业问题范围内。这取决于人类如何看待并重新思考劳动的根本性转变。西蒙东试图以技术活动取代简单的劳动,从而从劳动的异化中解放出来:“技术活动不同于简单的劳动和异化的劳动,技术活动不仅涉及机器的使用,而且涉及对技术功能、维护、调整、改进的一定程度的关注,这延伸了发明和建造的活动。”人类-机器-世界以信息交换和交流为基础,而不是从使用或占有的角度,形成平等与合作的关系。AI时代,这种关系越来越成为切近的可能。
基于此,我们可以设想,在当代和不久的未来社会,文科教育应当形成AI时代的新的劳动教育形式。比如人机劳动协调意识培育。如果工人的异化源自技术知识和使用条件之间的断裂,这需要在跨个体关系层面重新调整劳动中的人机协同。比如自律的劳动意识培养。如果说人与技术物的关系包含了对技术物的持续发生的关注,这就需要适应智能时代的终身学习。全国政协“人工智能发展对劳动就业的影响”专题调研指出了这一点:优质劳动力供给有赖“智能”教育体系。(中华读书报)