Cloudflare推出新的人工智能工具,帮助客户部署和运行模型
为了从人工智能热潮中获利,云服务提供商 Cloudflare 正在推出一系列新的产品和应用程序,旨在帮助客户在网络边缘构建、部署和运行人工智能模型。
Workers AI 是新产品之一,它允许客户访问由 Cloudflare 合作伙伴托管的 距离用户最近的GPU,以按使用量付费的方式运行 AI 模型。另一个是 Vectorize,它提供了一个矢量数据库来存储由 Workers AI 模型生成的矢量嵌入(数据的数学表示)。第三个是人工智能网关,旨在提供指标,使客户能够更好地管理运行人工智能应用程序的成本。
Cloudflare 首席执行官 Matthew Prince 表示,推出新的以 AI 为中心的产品套件的动机是 Cloudflare 客户对更简单、更易于使用的 AI 管理解决方案的强烈渴望,该解决方案注重节省成本。
Workers AI 试图确保人工智能推理始终发生在靠近用户(从地理角度来看)的 GPU 上,以提供低延迟、人工智能驱动的最终用户体验。利用 ONNX(微软支持的中间机器学习工具包,用于在不同人工智能框架之间进行转换),Workers AI 允许人工智能模型在带宽、延迟、连接、处理和本地化限制方面最有意义的处理过程中运行。
—— TechCrunch
为了从人工智能热潮中获利,云服务提供商 Cloudflare 正在推出一系列新的产品和应用程序,旨在帮助客户在网络边缘构建、部署和运行人工智能模型。
Workers AI 是新产品之一,它允许客户访问由 Cloudflare 合作伙伴托管的 距离用户最近的GPU,以按使用量付费的方式运行 AI 模型。另一个是 Vectorize,它提供了一个矢量数据库来存储由 Workers AI 模型生成的矢量嵌入(数据的数学表示)。第三个是人工智能网关,旨在提供指标,使客户能够更好地管理运行人工智能应用程序的成本。
Cloudflare 首席执行官 Matthew Prince 表示,推出新的以 AI 为中心的产品套件的动机是 Cloudflare 客户对更简单、更易于使用的 AI 管理解决方案的强烈渴望,该解决方案注重节省成本。
Workers AI 试图确保人工智能推理始终发生在靠近用户(从地理角度来看)的 GPU 上,以提供低延迟、人工智能驱动的最终用户体验。利用 ONNX(微软支持的中间机器学习工具包,用于在不同人工智能框架之间进行转换),Workers AI 允许人工智能模型在带宽、延迟、连接、处理和本地化限制方面最有意义的处理过程中运行。
—— TechCrunch