一位沮丧的研究人员的红色帖子在详细介绍了曾经是消化学术文学的重要助手的最新版本如何变得越来越不可靠的情况下,这是如何变得越来越不可靠的 – 经常因记忆问题而造成幻觉无关的话题。该帖子反映了依赖AI研究生产力的专业人员的日益关注。
用户以前依靠GPT来总结10-15篇学术文章并确定主题分析的直接报价,他说该工具曾经是改变游戏规则的。 “这为我节省了很多时间,并在撰写论文时帮助我消化了数百篇文章,”帖子写道。但是最近,据报道,该工具即使被纠正后,该工具也会发出引用和错误归类的直接报价。
该问题似乎不仅仅是偶尔出现的错误。研究人员指出了令人不安的模式。他说,一旦Chatgpt开始幻觉,就很难停止。他们解释说:“我会告诉报价不存在,它会承认这是错误的,然后又弥补了另一个。”有时,用户求助于打开新的聊天线程或再次上传文档只是为了重置AI的响应行为 – 这种解决方法会击败工具曾经提供的效率。
特别令人沮丧的是,该工具的早期版本并没有遭受这种不一致程度的困扰。用户说,幻觉问题最近几个月升级,将Chatgpt变成了责任而不是节省时间。对于许多从事截止日期或管理大型数据集的研究人员来说,这种不一致的情况变得不可持续。
另一个关注点是个性化的内存功能。研究人员报告说,在索取一般信息(例如领域中的主要理论)时,AI不断从以前的对话中插入利基细节。他们写道:“这将不断地融合我自己的利基研究中的概念,这绝对还不是准确的。”他们补充说,他们偶尔会求助于Google的双子座以避免记忆干扰。
尽管OpenAI将内存作为个性化和增强响应的功能促进记忆,但像此Redditor这样的用户认为它正在导致错误信息。有些人甚至正在考虑创建单独的帐户(一个用于学术研究,另一个用于爱好),以避免跨界困惑。
该帖子引发了学者,分析师和作家的类似回应,其中许多人都在努力解决相同的问题:当人工智能弄错时,它就会得到它 非常 错误的。在解决记忆干扰和幻觉问题之前,研究人员说他们可能需要回到传统方法,或者在其他地方寻求帮助。