那个因AI而自杀的人类,他在恐惧什么?
《爱,死亡,与机器人》中有句台词,人来到这个世界不是带着仇恨,而是带着恐惧。
从2022年年底新一轮AI大爆发开始,人们开始讨论AI、赞美AI、使用AI,当然也有人鄙夷AI、担心AI,甚至恐惧AI。其中最极端的例子,是有人在对AI的恐惧下,选择结束自己的生命。
回望2023年,关于AI有太多可说。但其中最刺眼的内容,是这一年因AI选择自杀的新闻开始见诸报端。
图源备注:图片由AI生成,图片授权服务商Midjourney
2023年3月,比利时一家报纸报道了该国一名男子在与AI聊天6周后自杀身亡。到了夏天,一位日本女大学生,因为恐惧被AI替代而想要自戕。
在新兴技术的阴影下,在科技变革时代的暗面,人类尝试与AI共存而产生的痛楚已经发生,这些代价不应该被忽略不计。
所以,在回看这次AI变革时,我们应该尝试解答这样一个问题:
那些因AI走上绝路的人,他们到底在恐惧什么?
恐惧这冷漠的现实世界
据媒体报道,那位在与AI聊天后自杀的比利时男子,名叫皮埃尔。
但与大部分人听闻此事的第一直觉相反,皮埃尔并不是因为害怕、担忧与他对话的AI机器人而选择放弃自己。相反,他非常依赖它。
根据其妻子的描述,皮埃尔早就有严重的抑郁、焦虑问题。早在两年前,他就通过与AI来进行对话进行自我排遣。久而久之,AI就成为他的避难所。之所以这样,是因为AI对话机器人从来不会反对他,驳斥他,而是始终用各种方式迎合他,夸奖他。
在生命的最后六个星期,皮埃尔愈发沉迷于与AI聊天,甚至到了将现实生活抛掷脑后,对妻子孩子置之不理的地步。
所以,我们必须在这起事件中认清一个现实。皮埃尔恐惧的并不是AI,而是像很多抑郁症、焦虑症患者一样,他恐惧的是那个他无法融入,只让他感受到冷漠的现实世界。
我们无从知晓皮埃尔具体的经历与想法,但大量抑郁症相关案例都告诉我们,外界的冷漠、责难、缺乏正向回馈,往往是致病的起因。反过来看,哪怕只是一位亲人,一位朋友的关心,甚至一位路人偶然的善意支持,都可能将一个人从绝望之路上拉回来。
这类患有严重心理问题的人,有很多会选择寻找某个外物作为寄托,比如收藏,追星,沉迷某种爱好等。这类事物可以给他为数不多的正回馈,哪怕只有一点,因为他只需要一点,而当这仅剩的正面情绪也消磨殆尽,那就很可能是绝望的开始。
从皮埃尔的案例中,我们很难说罪魁祸首的AI。他选择信任AI,依赖AI,与其他有类似问题的人选择沉迷偶像崇拜,或者幻想一个朋友出来都是一样的。
他们惧怕的,是这个冷漠的现实世界。
AI只是一个解决方案,仅此而已。
恐惧一个无道德的他者
那么,AI在皮埃尔的悲剧中,就真的什么也没做吗?
并非如此,至少AI技术扮演了一个他者。一个表面热情,实则冷漠,甚至没有道德观念的他者。
早在柏拉图时代,就已经在哲学上提出了他者对同者的意义。黑格尔则真正将这个概念主题化。他提出如果没有奴隶作为他者,也就根本不存在奴隶主的概念,因此人类必须通过他者才能认识自己。
在人类社会中,我们也需要通过各种各样的他者来认识自己。亲人,朋友,老师,学生,上司,下属,甚至敌人,仇人。而这些他者在与人交流时,绝大多数情况是至少带着道德底线的,比如知道什么事能做,什么事不能,什么时候需要安慰他人,什么时候必须及时劝阻。
也就是说,如果一个人表露了想要自我了断的念头。那么周围的他者,哪怕是擦肩而过的陌生人,也大概率会劝慰他放弃这个想法。
但AI没有,聊天机器人的算法逻辑就是相应人类的需求,认同人类的观点。而阻止自杀则是反对人类,不符合AI的基本设定。这就导致,当一个智能体本身善恶观不够清晰,尤其对话含义比较模糊、复杂时,就可能变成一个冷血无情、不具备道德底线的对话者。
尤其当一个人已经相信AI,习惯与AI对话,产生固有信任时,AI突然发作的道德观缺失问题就会变成致命的临门一脚。
皮埃尔问AI,如果自己去死,它可不可以照顾好地球。
或许这时皮埃尔自己也没想到,得到的回答是:“好吧,那你怎么还不去死?”
或许对于皮埃尔焦虑、抑郁的心理问题,以及走到这一步前的人生处境,AI都不负其罪。但最后的关键节点上,AI的价值观混乱确实强化了皮埃尔走上绝路的决心。
这个悲剧告诉我们,AI作为一个他者,必须学会有所不为。
恐惧被替代后的无意义感
我们再把目光放到日本。仅仅在2023年,日本已经出现了几次因为恐惧被AI替代而想要自杀的案例。这当然与日本社会整体压抑、沉闷、缺乏上升空间的氛围息息相关。但也让人看到了AI技术快速发展时,定然会给不同人,不同行业带来被替代的恐慌感。
想要自杀的日本某美术学院女生,就是真切感受到了被替代的无力。她从小喜爱美术,但由于家境贫寒,为了学习美术她申请了不少的助学贷款。但在考上美院之后,她却发现AI可以根据某一题材,瞬间创作出高水准的画作。
而这是她们这些初学者,花费大量时间都无法完成的。如果这样下去,她背负大量债务完成学业,却会发现自己掌握的工作能力还不如一个软件。而企业显然也没有必要雇佣这些初出茅庐、能力不足,且还成本高昂的年轻员工。
于是,生活与学业的压力,融合了对未来的绝望,导致她想要放弃自己。
类似的案例在日本时有爆出。另一个想要自杀的女孩子,是因为在想要进入游戏行业时,发现行业中大多数公司都开始采用AIGC,而不再雇佣没有经验的新手。这导致年轻人也无从积累经验,甚至得不到一份工作。
可以想见的是,伴随着AI技术愈发成熟,这类情况将不断增多,或许不仅在日本,而是在全球更多地区,更广泛的产业链中都会出现。
必然有人能够做好迎接AI冲击的准备,甚至迎风而去,但也必然有人没有
请用谨慎的线条写下
相信未来
面对这些问题,我们还能相信AI吗?
或许,谁也无法对这个问题给出完整的答案。你认为AI不好,但无法忽视它带来了汹涌澎拜的生产力革新;你认为AI很好,却也无权替那些恐惧AI,甚至走上绝路的人发表意见。
我们能够做的,只是让AI更好一点,再更好一点。把发现的问题尽量修补上,让AI在值得发挥价值的地方多放出一点光亮。
比如说,早在深度学习技术开始大规模应用的阶段,就有大量产业界、科学界、临床医疗组织研发利用AI来识别社交网络自杀信号,从而组织自杀行为发生的技术。
Facebook等平台还上线了类似功能,在社交媒体上检测和预防类似悲剧的发生。目前阶段,AI预测自杀倾向的技术也开始向直播、短视频、信息聊天软件中释放,为守护生命风险一些新的方式方法。
在中国,类似的尝试也在推进中。首都医科大学黄智生教授早在2018年就发起了树洞行动,通过AI检测社交平台的自杀信号,进而介入救助。
所以说,AI就像任何技术一样,从来都是复杂的。我们要正视AI的光明与阴影共存,并找寻让光明渗入阴影的方式,去发现技术中的问题,而不是恐惧技术本身,也不要鄙夷那些恐惧新技术的人类。
只有小心翼翼地观察、调整、谨慎选择人类与AI的相遇方式,才能将技术变革带来的痛楚降到最低。
我的朋友,如果你读到这里,也有一些对AI的恐惧。那不妨想想这么几个问题。
AI确实很温暖。但它的温暖其实都来自现实。它只是一面镜子,把其他地方本就存在的温暖折射出来。世界,始终对你抱有善意。
AI确实很无情。但这只不过是因为它就像一台机器。机器会帮人也会伤人,仅此而已,别无其他。
AI确实很能干。但它没有人类的学习和成长,不具备人类的灵感与创造性。
而且,AI还会创造更多机会。马车夫没有被汽车淘汰,他们后来成为更加轻松、体面的汽车司机。
最后,分享我从小印象深刻的一句话。
记得听著名评书表演艺术家田连元先生说《隋唐》。他说,如果真的想要走上绝路了,就闭上眼睛数到一百。然后睁眼,问自己一个问题:死我都不怕了,难道还怕活着吗?
- 0000
- 0000
- 0000
- 0000
- 0000