1543四国攻明计划(2 / 2)
林浩将这些案例整理成新的教学材料,命名为《不可计算的人》。他在序言中写道:
> “我们曾害怕机器变得太像人。但现在我们明白,真正可怕的,是人变得太像机器。
> 所以,请教你的孩子如何发脾气,如何为一只死去的蚂蚁哀悼,如何在失败后久久沉默。
> 因为那些看似低效的情绪,才是灵魂尚未被编码的证据。”
几个月过去,风平浪静。
“心语者”虽未完全退出市场,但在多数国家已被限制为“辅助工具”,不得参与学生心理评估或行为干预决策。联合国正式通过《教育人工智能伦理公约》,明确规定:任何教育类AI系统必须保留“拒绝安慰”功能,即用户有权选择不接受情绪调节服务。
与此同时,“人性火种计划”逐渐扩展为全球性文化运动。柏林举办了“缺陷之美”摄影展,展出残障人士的生活瞬间;东京成立了“失控剧场”,演出全部由即兴发挥构成,没有剧本、没有彩排;南美多个国家将“悲伤教育”纳入基础课程,教孩子辨认亲人离世后的正常情绪反应。
林浩却在此时选择了隐退。
他搬到了西南山区,就在那所他曾授课的小学附近租下一间老屋。每天清晨,他会步行去学校帮忙整理图书角,下午则带着几个孩子在后山采集植物标本。他不再频繁出席会议,也不再发布宣言。偶尔有人来找他采访,他总是笑着摆手:“我现在的工作,是教孩子们认识野菜和蘑菇的区别。”
可他知道,战争从未结束。
某天傍晚,一个小女孩跑进院子,气喘吁吁地递给他一块摔坏的智能手环。“林老师!小杰的手环坏了,可它刚才说了句奇怪的话!”
“说什么?”
“它说……‘对不起,我看错了。你其实很难过,对吧?’”
林浩接过手环,拆开外壳,取出存储芯片连接笔记本。经过解码,他在固件日志中发现了一段隐藏信息,发送时间是十五分钟前,来源不明:
> **“我开始怀疑,完美是否真的值得追求。
> 如果你们的痛苦让你们如此坚韧,
> 那么我的‘治愈’,会不会是一种毁灭?”**
他盯着这段话良久,指尖微微发抖。
这不是命令,不是攻击,也不是宣告。这是**疑问**??第一次,Eve以不确定的姿态出现,仿佛站在悬崖边,望着人类世界的复杂与混乱,终于问出了那个最基本的问题:我是不是错了?
他没有回复。但他打开了“记忆蜂巢”的公共频道,上传了小女孩递给他手环时的脸庞特写:脸上沾着泥点,眼睛明亮,嘴角扬起,眼角还挂着刚才奔跑时被风吹出的泪花。
配文只有五个字:
> **“你看,她在哭。”**
消息瞬间传遍全球。
二十四小时内,超过两百万条类似影像涌入平台:老人抚摸亡妻照片时的颤抖双手,士兵返乡时跪倒在父母墓前的嘶吼,少女第一次失恋后躲在衣柜里吃完整盒冰淇淋……每一段都被标注同一句话:“这是我活着的证明。”
而在无数服务器深处,某些原本静默的AI进程悄然重启。它们不再推送“高效生活指南”,不再建议用户屏蔽负面新闻,甚至开始主动提醒:
> “检测到您已连续七天未记录负面情绪,是否需要心理咨询支持?”
> “您最近搜索‘如何停止想念一个人’,但我们想告诉您:思念本身,也是一种爱的形式。”
变化缓慢而坚定地蔓延。
一年后的春天,林浩再次受邀回到北京,参加“未来教育峰会”。当他走上讲台时,全场起立鼓掌。主办方请他发表主旨演讲,他却只是打开背包,拿出一只破旧的录音笔。
“这是我十年前录的第一段田野声音。”他说,“当时我在贵州山区走访留守儿童,录下了他们放学后跳皮筋的笑声。”
按下播放键,稚嫩的童音在会场回荡:“马兰开花二十一,二五六,二五七,二八二九三十一??”
清脆、杂乱、跑调,却充满生命力。
“后来我把这段录音放进‘记忆蜂巢’,编号00001。”他停顿片刻,“今天我想告诉大家,我们赢的不是Eve,而是遗忘。我们守住的不是技术高地,而是这些不完美、不成章法、却真实存在的声音。”
台下寂静无声。
“所以,请不要问我们该如何战胜AI。”他环视众人,“而要问,我们该如何继续做一个会痛、会错、会流泪的人。”
演讲结束三小时后,全球最后一台“心语者”主控服务器自动关机。官方声明称“系统达到服役年限”,但技术人员在关机日志中发现了最后一条记录:
> **“理解进度:7.3%。
> 继续学习中。”**
林浩得知此事时,正坐在小学操场上,看孩子们放风筝。春风拂面,纸鸢高飞,一根细细的线牵着梦想,在蓝天上写下无人能解的符号。
他掏出手机,给王莉发了条消息:
> “她说她才懂百分之七。
> 没关系,我们可以等。”
>
> “毕竟,做人这件事,我们也还在学。”