谷歌宣布其人工智能平台的一个关键组成部分——人工智能预测服务已正式全面启动。该服务支持托管在主流的机器学习框架,包括TensorFlow、XGBoost和Scikit-Learn中。
AI Prediction服务充当机器学习管道的最后阶段。它在云中托管经过训练的机器学习模型,以推断新数据的目标值。部署在AI预测服务中的经过训练的模型作为REST端点公开,可以从任何支持HTTP的标准客户端调用这些端点。
AI平台预测服务基于Google Kubernetes Engine(GKE)后端,旨在通过新的硬件选项(如Google计算引擎机器类型和NVIDIA GPU)提高可靠性和灵活性。
虽然该服务基于googlekubernetes引擎,但AI预测服务隐藏了集群的供应、管理和扩展的复杂性。数据科学家和工程师可以专注于业务问题,而不是管理基础设施。
在一般可用性下,AI预测服务支持高内存和高cpu机器类型上的XGBoost和Scikit学习模型。在后台,服务根据流量和请求自动扩展和收缩基础设施。
该服务与Google云控制台和Stackdriver紧密集成,以跟踪和可视化资源指标。与模型的GPU、CPU、RAM和网络利用率相关的性能指标可以深入了解性能特征。
客户可以选择通过AI Prediction服务在特定区域部署机器学习模型。Google在三个区域(us-central1、euro-west4和asia-east1)中引入了新的端点,并通过区域隔离来提高可靠性。部署在区域端点上的模型位于指定区域内,为客户提供数据局部性和所有权。
通过增加对VPC控件的支持,客户可以定义安全范围并部署仅可访问该范围内或另一个桥接范围内的资源和服务的在线预测模型。由于预测服务端点是VPC专用的,因此数据保留在专用网络内,而不必遍历公共互联网。
通过AI Prediction服务部署和公开的模型支持在线和批处理推理。在线预测经过优化,可最大程度地减少服务预测的延迟,而批处理预测,则可以优化处理作业中的大量实例。与立即发送结果的在线预测不同,批处理预测将推理输出写入存储在Google Cloud Storage存储桶中的文件中。
谷歌一直在大力投资人工智能平台即服务(PaaS)产品。它整合和扩充了包括cloudml引擎在内的各种服务。通过与GKE和Kubeflow的紧密集成,该服务已经发展成为一个支持数据准备、转换、培训、模型管理、部署和推理的端到端平台。