对CHATGPT或任何其他AI Chatbot有多少依赖对决策者有益? Shaadi.com和People Group的首席执行官兼创始人Anupam Mittal发表了一个警示性的故事,讲述了决策者如何公开使用AI产生想法的故事。米塔尔(Mittal)因其在“鲨鱼坦克印度”(Shark Tank India)上的重要角色而闻名,他对企业家表示了谨慎,警告生成的AI工具如何将自己标记为个人的巨大弱点。
在LinkedIn帖子中,米塔尔(Mittal)分享了一个轶事,一位创始人承认从Chatgpt获得所有业务想法。米塔尔(Mittal)并没有留下深刻的印象,而是将其视为一个巨大的危险信号,突出了弱点而不是力量。
“我从chatgpt那里得到我的所有想法。他认为这是一个弹性。我看到了一个危险信号。因为AI大部分平均是现有的知识。听起来很棒>光滑,自信,清晰,但常常只是陈词滥调和礼貌的粘粘一下,” Mittal写道。
shaadi.com首席执行官将AI聊天机器人视为危险信号
米塔尔(Mittal)认为,尽管AI可以产生鲜艳的内容,但它从根本上缺乏人类的核心元素和真正原始的观点。他补充说:“我已经看到了高级领导者的AI写的邮件,这些邮件像天才一样读起来……实际上,这很明显,这是一个毫无意义的Ctrl C Ctrl V。”
米塔尔(Mittal)谈到其他创始人的大多数沟通时说:“与甲板,音高,甚至’策略指出’的’策略’相同。”
米塔尔(Mittal)并没有消除AI的潜力。他补充说:“外包的判断不是领导力。我认识的最好的经理和创始人都将AI用于速度和结构,而是本能,角度,逆势呼吁,不舒服的决定?这一切都在上面。”他强调,这些属性是定义真正的领导者并推动真正创新的原因。
人工智能可以伪造情报
米塔尔(Mittal)结束了笔记,写道:“我的看法 – AI可以伪造情报。它不能伪造勇气或原始观点。”
总体而言,米塔尔(Mittal)建议,决策者和创始人应该只使用诸如chatgpt和gemini之类的AI工具作为工具,而不是创造力的唯一来源。借助Internet上的所有培训数据,AI可以假装具有智能。但是,这些工具不能暗示勇气或引起原始的观点。