8 月 9 日,OpenAI 近日表示,其新推出的 ChatGPT 语音模式可能导致用户产生过度的依赖,引发“情感依赖”问题。这一警告出现在该公司上周发布的语言模型安全审查的报告中。
ChatGPT 的先进语音模式听起来不仅流利自然,而且能模仿人类对话中的各种声音,如笑声或“嗯”。它还能根据说话者的语气判断其情绪状态。有时候,用户甚至会觉得它比朋友还懂自己。
今年早些时候,在推出这一功能后,OpenAI 立即被人们与 2013 年电影《Her》中的 AI 数字助理相比较。该电影讲述的是男主为了逃避现实感情受挫,退到虚拟世界降维爱上 AI,并在得知 AI 女友同时在和 8000 多个人聊天,642 个人谈恋爱后彻底破防的故事。
现在,OpenAI 似乎担心这个虚构的故事可能成为现实。
报告指出,最终,“用户可能会与 AI 形成社交关系,减少对人际互动的需求,这可能对孤独的个体产生慰藉,但亦会影响健康的人际关系。”报告还补充道,听到一个听起来像人类的机器人提供的信息,可能会导致用户对其信任度过高,而忽视 AI 容易出错的本质。
该报告指出了人工智能领域一个很严重的问题:科技公司正在争先恐后地推出各种 AI 产品,它们可能彻底改变我们的生活方式。但问题是,这些公司在推出这些产品前,并没有完全弄清楚它们会带来哪些影响。就像很多新技术一样,刚开始大家可能只想到几个简单的用法,但用着用着,就会发现各种意想不到的结果。比如,一些人已经开始与 AI 聊天机器人建立所谓的浪漫关系,这引起了关系专家的担忧。
目前,OpenAI 表示致力于“安全”地构建 AI,并计划继续研究用户对其工具的“情感依赖”潜力。