随着推出 聊天GPT 健康,OpenAI 打算对其工具在健康领域已经大量使用做出回应。每周有超过 2.3 亿人使用 ChatGPT 提出与他们的健康或福祉相关的问题,使该领域成为对话式 AI 的主要用例之一。
OpenAI 副总裁兼负责该产品的首席执行官 Fidji Simo 分享了关于这个主题的个人证词:去年,她因感染并发肾结石而住院,她解释说,她向 ChatGPT 询问了即将给她服用的抗生素。该工具随后表明了先前严重感染重新激活的风险,这一因素并未立即出现在医疗档案中。
“ 负责的实习生在查房期间只有大约五分钟的时间为每位患者提供服务,而且医疗记录的组织方式也没有使此类风险变得显而易见。 “,她解释道。
面对这种不断增长的使用,OpenAI 选择创建一个与 ChatGPT 的其他部分严格分开的健康空间。对话、文件和连接的应用程序存储在单独的环境中,配备专用内存和强化隔离。因此,ChatGPT Health 内的交换不用于训练基本模型。
OpenAI 承认健康需要颠覆一般人工智能处理、存储和使用数据的方式。因此,该公司开发了一种特定的架构,集成了静态和传输中数据的加密、专用于健康信息的额外加密、显式删除控制以及随时断开外部源的可能性。它将如何推广这项服务还有待观察。
不使用 ChatGPT Health 数据进行培训的决定并非传闻,而是为其他高敏感领域(包括法律、财务或人力资源)开创了先例,在这些领域,对话的重用会带来有关责任、保密性和信任的类似问题。
到目前为止,通用人工智能的隐含原则是基于最大程度的使用池化,以不断提高模型的性能。这种对优化的部分放弃现在表明具有可变几何形状的人工智能的出现,能够调整其内部机制以适应所覆盖区域的关键性。
面对垂直领域专门化的人工智能解决方案,这种动态可能会重新洗牌,并且隐含地提出了一个战略问题:OpenAI 将在多大程度上同意划分其用途,以及未来将决定或不涉及哪些领域。