Zoho启动企业大语言模型Zia

为了促进印度以企业为重点的AI创新,商业软件提供商Zoho推出了其名为Zia的本土大型语言模型(LLMS)套件。这些模型专为企业使用而设计,有三种尺寸:13亿,26亿和70亿个参数,并完全使用NVIDIA GPU在内部建造。

人工智能模型

AI模型的大小通常用其具有的参数数来描述。更多的参数通常意味着该模型可以学习更复杂的模式,但它还需要更多的数据和成本密集的计算能力才能有效培训。

与面向消费者的AI平台不同,Zia LLM紧密整合到Zoho的55多个业务应用程序中,并旨在支持CRM,Finance,HR和客户支持等上下文企业工作流程。该公司表示,这些模型托管在Zoho自己的数据中心中,使客户能够将其数据完全保存在Zoho生态系统中,这与依靠第三方LLM LLM提供商形成鲜明对比。

“没有使用客户数据来培训该模型。我们使用了公开可用和专有数据的组合,” Zoho研究总监Ramprakash Ramamoorthy在发布会上说。他补充说:“我们已经从头开始建立了模型,对隐私,效率和企业的相关性进行了优化。”

Ramamoorthy指出,如今,大多数SaaS公司都在云和AI服务提供商上花费很大一部分收入,从而导致成本最终转移给客户。通过在自己的数据中心和基础基础设施中进行大量投资,Zoho旨在控制这些费用,同时创新,以获得更好的整体体验。
他补充说:“我们不想成为计算机或AI的经销商。”

Zia llm

Zoho使用Zia LLM,旨在右尺寸AI模型以适合特定的用例。例如,13亿个参数模型可以为结构化数据任务(例如异常检测或收入报告)提供动力,而70亿个参数版本可以处理跨企业数据的更复杂,非结构化的查询。

Ramamoorthy指出,这种目标方法降低了推理成本并提高了能源效率。

Zoho Benchmarked Zia LLM反对Meta的Llama 2,一个70亿个参数模型;和Llama 3,一个80亿个参数模型。 Zia LLM的表现优于Llama 2,尽管参数较少,但在行业标准任务中却达到了Llama 3的近80%。通常,具有更多层的较大型号的推理成本更高,而对于较小的型号,推理成本更便宜。

Zoho计划将Zia LLM扩展到32、70和1000亿参数。为了支持这一点,Zoho与NVIDIA合作,正在自己的GPU基础架构进行投资。

除LLM外,Zoho还推出了自己的英语自动语音识别模型(ASR)模型,扩大了其AI基础架构堆栈。该模型旨在支持诸如销售呼叫转录和情感分析之类的企业功能,也是内部建造的,并针对Openai的Whisper等模型进行了标准。

英语的语音识别模型具有20亿参数。 Zoho还将为15种印度语言建立ASR模型,该模型将在未来几个月内推出,并具有10亿个参数。 Ramamoorthy说:“我们都节俭了,因为我们想减少GPU支出。”

该公司表示,所有的AI功能都将无需额外费用捆绑到现有的Zoho定价计划中。客户还可以选择通过Zoho的AI桥和模型上下文协议(MCP)服务器插入第三方LLM和人类等第三方LLM。