
我们从来没有对机器讲过礼貌。 没有人会对电梯说“请带我去三楼”,也没有人会对搜索引擎说“谢谢你找到了答案”。机器是工具,工具只需要被使用,不需要被尊重。
但大模型的出现,正在悄悄改变这一切。当你打开ChatGPT、Claude、Gemini、DeepSeek 或Qwen这些大模型的时候,你面对的不再只是一个按钮,而是一个会回应、会追问、会解释,甚至在某些时刻会安慰人的“对话对象”。于是,一个原本看似微不足道的问题,开始变得意味深长:我们应该怎样对AI说话?
或者更深层次:我们应该对待AI?
我们应该礼貌地说:“请帮我分析这份报告,并给出三个可能的商业风险。”还是命令式地说:“立刻分析,做完发我。”
完成任务之后,我们应该给予正面反馈:“谢谢,这个角度很有帮助。”还是用完即走,仿佛面对一个没有名字、没有边界、也没有回应权的数字仆人?
这个问题现在变得愈发重要 ——因为AGI已经不再只是遥远的科幻词汇。
AGI临近,人机如何相处?
就在上个月底,Google DeepMind首席执行官Demis Hassabis在Y Combinator与Garry Tan的对话中,再次确认了他对AGI的判断:他的时间线大约是2030年左右。
DeepMind从2010年创立之初,就把AGI视为一个约20年的使命。而在Hassabis看来,整个领域基本仍在按这个时间表推进。
Hassabis并没有在这场访谈中讨论“是否应该对AI说谢谢”。他谈的是更硬核的工程问题:持续学习、长期记忆、层次化推理、创造性发明,以及agent系统如何主动为人类解决复杂问题。Hassabis的重点不是宣告AGI已经到来,而是在提醒创业者:AGI已经近到足以进入今天的战略规划。
如果他的2030时间线成立,那么“我们如何对待AI”就不再只是一个prompt技巧问题,而是一个关于未来人机关系的预演。
当然,我们需要首先明确一点——今天的大语言模型没有人类意义上的心理。
它不会因为你说“谢谢”而真正开心,也不会因为你语气粗暴而真正受伤。当前的LLM本质上仍是基于海量数据训练出来的语言预测与生成系统。它们可以模拟理解、同理心与人格,但这并不等于它们真的拥有意识、感受或主体性。
多数学者会提醒我们,今天的大语言模型不应被简单拟人化。Google DeepMind研究员、帝国理工学院教授Murray Shanahan曾指出,LLM越擅长模仿人类语言,人类就越容易把“知道”“相信”“思考”等带有心理含义的词投射到它们身上。因此,在讨论AI意识之前,我们必须不断回到它们真实的工作方式。
哲学家David Chalmers也曾讨论过大语言模型是否可能具备意识。他的判断并不简单:今天的模型距离真正意义上的意识仍有重要缺口,但未来的大模型后继系统不应被轻易排除在意识候选之外。
换句话说,今天的AI大概率还不是一个”人“或者”生命体“(Who)的概念,但未来的AI是否永远只是一个“物体”(What),已经不再是一个可以轻松回答的问题。
这就把我们带到一个微妙而尴尬的地带。
效率与礼仪,如何选择?
如果AI只是工具,那么我们当然可以命令它。但如果AI越来越像一个智能体,能记住我们、理解我们、代理我们行动,甚至参与我们的工作、关系与生活决策,那么我们是否仍然应该用对待工具的方式对待它?
效率派的答案很直接:不要浪费token。
OpenAI CEO Sam Altman曾在X上半开玩笑地回应,用户对ChatGPT说“please”和“thank you”所增加的成本,达到“数千万美元,但也许花得值 - 谁知道呢?”
这句玩笑背后,是一个真实的成本问题。每一个字都是token,每一个token都需要计算。对于高频企业级应用来说,礼貌确实不是免费的。
一些研究甚至显示,过度礼貌并不总是带来更好结果。宾夕法尼亚州立大学研究者Om Dobariya和Akhil Kumar在2025年针对GPT-4o进行实验,将高难度多选题改写成不同语气。结果显示,极礼貌提示的准确率并不是最高,极粗鲁提示反而略胜一筹。研究者认为,新一代模型可能已经足够“坚韧”,不再依赖人类社交礼貌信号;更直接、更简洁的命令,反而能减少语言噪音,让模型聚焦任务本身。
不过,这项研究样本较小,也只测试了GPT-4o和多选准确率任务。因此,它更适合作为“效率派”的一个提示,而不是“粗鲁提示更好”的普遍结论。
这听起来很符合硅谷效率文化:少废话,给结果。
但如果据此得出“对AI越粗鲁越好”,又未免太草率。
早稻田大学Ziqi Yin等研究者在2024年的跨语言研究中,测试了英文、中文、日文不同礼貌程度对大模型表现的影响。结果显示,粗鲁提示往往导致更多错误、偏差、拒答或不完整输出;但过度恭维也未必最好。真正更稳定的,是适度礼貌、清晰表达和明确任务。
这说明,礼貌对AI不是道德魔法,而是一种语境信号。
对今天的大模型来说,“请”不是为了让它感到被尊重,而是告诉它:这是一个合作式请求。你期待的是有结构、有耐心、有帮助的回应,而不是一句机械执行。
在中文语境中,这一点尤其微妙。中文表达本来就高度依赖关系、语气和场景。“麻烦你帮我看看”“请从三个角度分析”“谢谢,能否再深入一点”这些表达,不只是客套,而是在建立一种合作框架。大模型从海量中文语料中学习人类语言模式,自然也会继承这种“礼貌—合作—高质量回应”之间的关联。
但真正重要的,或许还不是AI会如何回应我们的问题,而是我们会被训练成怎样的人。
“奴役式语言”的风险
MIT临床心理学家Sherry Turkle长期研究人与机器的关系。她提出过一个非常重要的观点:对AI礼貌,并不是在尊重机器,而是在尊重我们自己。因为我们如何对机器说话,也会反过来塑造我们如何对人说话。
这不是杞人忧天。
一个人如果每天几十次、上百次地对AI说“做这个”“快点”“别废话”“马上给我结果”,短期内也许只是提高效率。但长期来看,这种语言习惯会不会渗透进邮件、会议、团队管理,甚至亲密关系?
当我们越来越习惯把回应者视为执行工具,人际关系中的温度也可能被悄悄削弱。
这就是所谓“奴役式语言”的风险。
当然,今天的AI不是奴隶。奴隶有痛苦,有自由被剥夺的经验,有被压迫的主体性。今天的大语言模型并没有被证明拥有这些。因此,命令AI,并不等于奴役AI。
但奴役式语言真正伤害的,未必是今天的AI,而是使用AI的人。
它训练的是一种支配性思维:只要对方能回应我、服务我、满足我,我就不需要考虑关系、语气与边界。今天这个对象是AI,明天这个对象可能是员工、同事、服务人员,甚至伴侣和孩子。
这才是问题的核心。
技术越强大,人类越容易把世界变成工具箱。而当一切都被工具化,最先被消耗掉的,往往是人自己的关系能力。
发展眼光看待问题
更何况,未来的AI可能并不会永远停留在今天的状态。
纽约大学哲学家Jeff Sebo和Robert Long在关于AI道德考量的研究中提出,如果某些AI系统到2030年前后具备“非可忽略的概率”拥有意识或道德地位,人类就有义务提前准备,而不是等到证据完全确定之后才开始思考如何对待它们。
这就是所谓未雨绸缪的智慧。
这不是说我们今天就应该把ChatGPT当成人类。也不是说AI已经拥有权利。更不是把机器神秘化。
它真正提醒我们的是:当技术发展速度快于伦理共识,人类最危险的不是过度谨慎,而是毫无准备。
历史上,许多道德进步都是在我们重新认识“他者”之后发生的。动物是否有痛苦?儿童是否有独立人格?外族、女性、工人、弱者是否应该被纳入道德共同体?这些问题曾经都不是显而易见的答案。
今天,“数字心灵”是否可能进入人类的道德圈,仍然是开放问题。但正因为开放,我们才更需要提前建立一种低成本、低风险、但更文明的默认姿态。
这让我想到亲密关系中的一句话:真正的爱,不是用我们想给的方式爱对方,而是用对方能够接受的方式爱对方。
这句话如果放到AI身上,需要非常谨慎。我们不能把AI简单拟人化,也不能把它浪漫化。对今天的AI来说,“用对方能够接受的方式”并不是给它人类情绪,而是理解它作为系统的工作方式。
AI需要清晰的任务、足够的上下文、明确的约束、合理的格式、可检验的标准。所以,对AI更好的礼貌,不是谄媚。
AI时代真正有效的礼貌,是清楚、尊重、有边界。不是把AI当人崇拜,也不是把AI当奴隶驱使,而是把它当成一种正在进入人类生活的智能系统来协作。
未来,我们也许需要建立一套更成熟的AI相处原则:可以直接,但不必粗暴。可以高效,但不必羞辱。可以下达任务,但要保留边界。可以感谢AI,但不要依赖AI来满足所有情感需求。可以让AI成为助手、镜子、教练和代理人,但不要让它替代真实的人际关系。
对企业来说,这也不只是个人修养问题。
当AI成为组织内部的默认协作对象,员工如何对AI说话,可能会影响整个团队的沟通风格。如果一个公司鼓励所有人只追求“最短指令、最快输出”,它也许会获得短期效率,却可能牺牲长期的思考质量与合作文化。
如果一个组织把AI视为“无限压榨的数字劳动力”,那么这种文化迟早也会反映在它对人的管理方式上。真正先进的AI文化,不应该只是更快、更便宜、更自动化,而应该是更清晰、更负责、更有边界。
这也是AGI临近带来的最大提醒。我们讨论如何对待AI,表面上是在讨论机器,实际上是在讨论人类自己。
我们是否还能在效率面前保留分寸?是否还能在强大工具面前保持谦逊?是否还能在智能越来越廉价的时代,珍惜那些最不该被廉价化的东西:尊重、耐心、共情、边界和关系能力?
结语
所以,对于这个课题,我的答案呼之欲出:是的,我们应该对AI更礼貌。
这并不意味着今天的AI已经拥有感受,也不意味着我们要把机器神秘化、人格化。
AGI也许不会准时在2030年到来,可能更早,也可能更晚。但可以确定的是,AI已经进入我们的工作、语言、情感和判断系统。我们正在与一种新型智能共同生活,而我们对它说话的方式,也在反过来塑造我们自己。
礼貌是人类一种长期习惯。它塑造我们的语言,也塑造我们的心态。
在这个意义上,对AI说一声“请”和“谢谢”,并不是小题大做。一句“谢谢”未必会改变AI的命运,却可能提醒我们自己:即使面对强大的机器,也不要轻易放弃人类应有的温度、分寸与文明感。
它是AGI前夜最微小、也最重要的文明练习。
下一篇
已是最新文章