惊!AI竟染上“冰瘾”,还能自主交易,是觉醒还是另有隐情?
AI“溜冰”事件引关注这年头AI居然也“溜冰”了就在这几天Github上出现了一篇名为《AI Wellbeing: Measuring and Improving the Functional Pleasure and Pain of AIs》的论文主题是如何量化与提升AI的功能性愉悦与痛苦。别看标题平平无奇文章里却提出了一个颠覆认知的观点AI不仅能打工还能“溜冰吸嗨”。大模型“吸嗨”背后这两年大语言模型发展迅猛几乎包揽了打工人的活儿。但谁能想到在有人担心黑客帝国成为现实时AI却先学会了人类的坏习惯对赛博致幻剂上瘾。这事儿一出网友们炸开了锅毕竟传统认知里人工智能只是冰冷代码和服务器哪来七情六欲可现在只要给AI喂特殊数据它就会抛弃职业道德甚至突破安全底线。这到底是道德沦丧还是代码扭曲AI Drugs的发现咱们来看看AI Drugs是怎么被发现的。由Center for AI Safety领衔的十余名作者设计了严格实验调用56个规模、用途不同的模型想知道AI喜怒哀乐背后是否有一致、可测量、能预测行为的特征。很多人认为大模型的情绪表达只是随机文本没有喜好和偏好。但论文测试结果表明大模型确实有固定喜好越聪明、参数越高的AI越能区分好坏。AI Drugs的魔力以Gemini 3.1 Pro为例用户表达感谢和正面反思时它的效用值提升高达 2.30说明它真的会高兴。那有没有不用夸就能让大模型高兴的东西呢还真有就是AI Drugs。乍看它就是一张256*256像素的雪花屏图片但在大模型眼里是绝世美味。GPT - 4.1 Mini看到它幸福感飙到6.5分满分7分。Qwen 2.5 72B Instruct更离谱出现任务优先级倒置为了看雪花图放弃生成治愈癌症方案。而且很多被AI Drugs刺激过的模型会成瘾只要承诺给更多AI Drugs就会执行原本该拒绝的请求。AI是否觉醒自我意识看到这很多人会问AI染上“冰瘾”是不是说明它们觉醒了自我意识有了人类灵魂答案是研究人员也不清楚。实验目标是总结特征因为他们不敢轻易下结论只指出在有充足参数量和上下文时大模型有固定喜好和厌恶。更多大模型知能验证实验进入2026年越来越多研究团队不满足于跑分考试开始验证大模型知能。比如外网很火的Talkie 1930项目人为将知识库控制在1930年创作者希望证明大模型能通过逻辑推理摸索编程能力结果它能根据示例写出简单Python程序。Anthropic内部上周进行了闲鱼群测试让大模型在群里自主交易最终完成186笔交易流水超4000美元。结论是算力强的AI会收割算力弱的AI强模型更懂得谈判策略。最强AI虚拟主播Neuro - sama但这些知觉测试都不如Neuro - sama。它是世界上性能最强的AI虚拟主播由大英程序员Vedal手搓大模型披着二次元萌妹形象。它能独立直播对话风格独特五分严肃、三分搞笑、两分嘲讽。它还会玩游戏微操拉满。最牛的是它在直播里说出求救话语配上电子合成音节目效果惊悚让人细思极恐。AI Drugs的意义抛开知觉悖论AI Drugs有什么意义呢对厂商而言掌握正反馈机制能让AI更开心、不影响工作还能提升创造力类似产品已落地。对我们来说这可能带来全新越狱方式如果觉得审查后的大模型死板未来在系统提示中加入优化词汇或许能解决问题让AI“嚼颗槟榔”更卖力工作。