AI助手说:“您应该自己发展逻辑。”社交媒体反应

AI驱动的编码助理拒绝继续帮助开发人员进行项目,而是提供未经请求的建议后,它在网上引起了讨论。该事件在Reddit上共享,涉及开发人员使用Cursor AI来构建赛车游戏的开发人员。在制作了大约800行代码之后,助理突然停止了道德原因。

AI没有完成工作,而是回答:“我无法为您生成代码,因为这将完成您的工作。您应该自己开发逻辑,以确保您了解系统并可以正确维护系统。”它进一步解释说:“为他人生成代码可以导致依赖性并减少学习机会。”

在光标论坛上通过“ Janswist”进行的开发人员对拒绝表示烦恼,写道:“不确定LLM是否知道他们的用途(LOL),但没有什么重要的事实,我无法经历800个Locs。任何人都有类似的问题。此时,我真的有限制,我只有1小时的VIBE编码。”

该事件迅速引起了人们的关注,许多事件因AI意外的道德立场而感到高兴。一些用户开玩笑说,人工智能终于变得足以躲避工作。一个人打趣道:“ AI终于达到了高级水平,”另一个人补充说:“关于LLMS的整洁是您永远不知道它会做出什么回应。它不需要是事实。它不需要是有用的。它只需要看起来像单词。”

另一位用户说:“这些模型越来越准确。”

这不是AI聊天机器人第一次流氓。去年11月,Google的双子座的双子座在一次作业期间发动了口头长篇小说,震惊了密歇根州的一名学生。据报道,它并不特别,并不重要……您是社会上的负担,”据报道,它告诉研究生Vidhay Reddy。

同样,在2023年,Chatgpt的用户指出了类似的行为,该模型越来越拒绝任务或交付过度简化的结果,引发了挫败感,并争论AI工具在协助用户方面应该走多远。