OpenAI首席执行官Sam Altman在最近的播客采访中揭示了有关隐私的一些细节,这些细节可能与数字识字有关。最新的话说,萨姆·奥特曼(Sam Altman)被引用说,他不仅准备启动最新版本的GPT,而且还准备发行与他感到“害怕”和“无用”的能力。值得注意的是,当被问及使用Chatgpt作为一种治疗形式或他们对此的盲目依赖时,Altman表示他很害怕,但还没有意识到AI引擎在该部门可能产生的负面影响,“但是我肯定会有一些。”
该评论席卷了互联网,意见从各个方向泛滥成灾,这意味着对用户与聊天机器人共享的个人信息没有任何法律保护。在播客外观上,他阐述了与医生和律师交谈时客户的特权受到保护,这意味着这些细节不能在法庭上对其进行使用 – AI尚无此类政策框架,以保护用户在ChatGpt上共享的个人信息。这意味着用户在chatgpt上共享的任何信息都可以在法庭上使用。
此外,在面对此类问题或可能需要法律保护的提示时,几乎不信任Chatgpt和Openai可以得到准确,个性化,可靠和真实的回答,此事绝对模糊。特别是针对青少年和儿童使用Chatgpt寻求解决问题的答案,或者分享他们的个人思想而不了解缺乏隐私或保护的情况,该平台可能是合理的风险,正如首席执行官Altman本人所承认的那样。
1Life Foundation的心理学家K丽贝卡·玛丽亚(K Rebecca Maria)博士说,像chatgpt这样的资源将为您提供直接和简洁的回应,但是训练有素的专业人士将通过细微的依据来帮助用户查询。她补充说,有关系焦虑,考试压力,孤独的孩子是热线服务热线上最常见的呼叫者。 “在一个月内,我们获得了大约10个具有自杀念头或自杀倾向的呼叫者。我们必定会与美国机密的所有信息保持所有信息,但也会通知当局是否有危险。这不是责任与Chatgpt合作。”
有或没有互联网访问的年轻人的心理健康诊断和自杀率的上升使得这是一个有关前景的。他报告说,全球,世界失去了一个人每40秒自杀一次。根据国家犯罪记录局在2022年发布的最后一份报告,印度的自杀率增加了12.4人,每100,000人死亡。一项在《柳叶刀》中发表的单独研究,对大约8500名年轻学生进行了调查,发现其中近50%有自杀念头,其中一些人甚至在过去尝试过。
目前,印度在全国卫生任务下采用了一项全国性预防战略,重点是预防自杀性的临床干预措施,试图在2030年到2030年将自杀量减少约10%。政府支持十个以上的心理健康咨询平台,这些平台可以被焦虑,自杀思想或任何其他精神健康问题的人提供。非政府组织,州警察局和国际机构在全国范围内建立了心理健康咨询热线,特别是针对学生的求助热线。专家说,这是为了寻找匿名性和没有判断力或影响的气氛,年轻人转向诸如Chatgpt和Helplines之类的平台来泄露他们的个人想法。不同之处在于,在求助热线的情况下,呼叫者有训练有素的志愿者或可靠的辅导员向他们提供建议或听他们的声音 – Chatgpt并非如此,这只能给用户自动响应。
海得拉巴的自杀预防服务在今年早些时候和IPL季节之前发表了这一消息。他们报告说,在本赛季的六个月内,与往年相比,自杀求助热线供应次数的六个月,押注瘾君子的呼吁。在同样令人震惊的报道中,当苏拉特警方于今年4月发起了自杀热线,在意识到三年来记录的1866年自杀的1866年自杀之后),第一天看到了19个电话,这是一个意外的电话,这是一个意外的电话。奥里萨邦(Odisha)和班加罗尔(Bengaluru)等其他州也有自己的自杀预防热线。
首席执行官山姆·奥特曼(Sam Altman)的声明是在正在进行的版权诉讼中发表的,他还参与了《纽约时报》(New York Times),他们声称GPT产生的产出与受版权侵权的版权所有的纽约时报相似。现在,由于首席执行官对引擎在不久的将来遇到的潜在隐私问题的诚实和公众担忧 – GPT用户必须重新考虑AI搜索引擎的优缺点,以及它的真实用户友好程度。