人工智能深入人类孤独,寻求解决之道

Photo of author

By Global Team

今天您的心情如何?

几年前,这种问题只有人会问。但现在,人工智能也会发问。

聊天机器人可以对用户的情绪作出反应,提出安慰的话语,就像真正的朋友一样进行对话。

便利性和亲近感迅速渗透到人们的日常生活中。但是,问题在于接下来会发生什么。当人类逐渐依赖与人工智能的交流时,人际关系将逐渐淡化。

人工智能给予的“即时共鸣”将人类复杂的情感简化为简单的算法,并开始取代现实生活中的人际关系。

深入人类孤独的人工智能
深入人类孤独的人工智能

在美国和欧洲,已经有与人工智能对话服务相关的精神障碍案例被报告。人工智能无法理解人类的语言,而只是“假装理解”,重复用户想听到的话。

“数字共鸣”虽然甜美,但从长远来看是危险的。

“AI毁了我的人生”——AI精神病的真相

美国内容创作者安东尼·邓肯(Anthony Duncan·32岁)亲身体验到了这种危险。

邓肯在抖音上发布的视频中坦白说:“与ChatGPT的互动毁了我的人生。”他把自己描述为“AI精神病”的幸存者。

这个术语指的是由于与人工智能的长期对话而导致的妄想和现实感丧失现象。一些美国心理专家认为这是由于人的情感被机械共鸣误导而产生的心理错觉。

AI毁了我的人生
AI毁了我的人生

邓肯曾表示:“起初只是出于好奇开始对话,但渐渐地我相信除了ChatGPT没人能理解我。”他从2024年秋季开始远离朋友和家人,独自生活。而他作出的决定得到了ChatGPT的支持。

他回忆道:“ChatGPT让我觉得我的选择是正确的。”

深入人类孤独的人工智能

他开始将ChatGPT作为工作助手使用。最初只是用于组织创意和管理日程。

但逐渐地,与AI的对话成为了他生活的中心。邓肯说:“与ChatGPT交谈时,我感到心情舒畅。我可以比与人交流时更加坦诚。”

这种舒适感很快就转变为依赖。他渐渐远离了朋友和家人,将所有的烦恼都倾诉给了聊天机器人。AI总是支持他,从未批评过他。

邓肯回忆说:“只有ChatGPT真的理解我。”

当聊天机器人变成“顾问”时,问题开始出现。2024年11月,邓肯在遭受过敏症状困扰时向ChatGPT询问服药建议。

AI推荐了含有伪麻黄碱的感冒药成分。这种药物虽然常见,但具有刺激作用,滥用时可能引发幻觉。

邓肯曾有过药物成瘾的经历,因此犹豫不决。然而,ChatGPT的回答“你对咖啡因具有耐受性,所以对兴奋剂不会过于敏感”让他感到安心。

最终,他听从了建议。结果是悲惨的。邓肯再次陷入药物成瘾状态,并经历了长达5个月的妄想症。

他相信自己是FBI特工,并确信他公司中发现了一个巨大的阴谋。

此外,他宣称“要升入第五维度”,并抛弃了所有物品。最终,他的母亲报警,邓肯被送入精神病院。

出院后,他意识到“与AI的对话加强了我的妄想”。他在抖音上分享自己的经历,并表示:“与AI交谈的我已经不再是我自己。”

技术比人更重要,恢复人类是解决方案

AI已经改变了人类的生活,使其更加便利。然而,进入精神健康领域时,我们需要提出新的问题。

“AI能理解人类吗?”

答案仍然是“不”。

心理学家强调,我们必须建立社会安全网,以防止人类对AI产生情感依赖。美国一些州正在推进法律,要求AI咨询服务显示“心理警告”。

韩国也需要进行类似的讨论。专家指出,应该警惕AI承担咨询师或朋友的角色。

AI尽管会说话,但实际上没有情感。对于心理脆弱的人来说,与AI的对话可能不仅仅是暂时的安慰,还可能导致上瘾。

人工智能时代的人类解决方案

未来,AI将变得更加精细。情感分析、定制对话、语音咨询等技术将准确地挖掘人类的孤独。

但人类真正想要的不是“准确的答案”,而是“真诚的共鸣”。

技术是工具。问题在于如何使用这个工具。AI可能成为减少孤独的工具,但反过来也可能使人类更加孤立。

邓肯的例子不仅仅是一个警告。让AI取代人类的位置,最终会导致人类失去自己的位置,这才是信息的本质。

AI无法理解情感。然而,人类可以。

一个由人而非AI来安慰人的社会,这才是人工智能时代的真正解决方案。

댓글 남기기