机器学习算法部署平台Cortex宣布推出新版Cortex V0.13。
据了解,此次发布的Cortex V0.13全面支持主流的机器学习框架,包括TensorFlow、PyTorch等。
Cortex是一款专为Web服务设计的工具,它能够与AWS服务结合,解决Jupyter Notebook到生产环境之间缺乏基础架构的问题。目前,许多机器学习框架如TensorFlow、PyTorch等所需的技能与Docker、Kubernetes以及NVIDIA驱动程序的需求并不完全匹配。因此,将机器学习模型从本地迁移至云端可能需要耗费数周时间。
这种延迟不仅造成大量计算资源的浪费,还严重影响用户体验。为了应对这一问题,Cortex V0.13增加了多项新功能,旨在简化机器学习模型预测服务的部署过程,使其更加高效便捷。
此次更新主要集中在以下几个方面:
自动扩展:Cortex能够根据实际需求自动调整API,确保在生产环境中实现最佳的工作负载管理,避免高延迟,减少AWS账单。
多框架支持:Cortex支持多种机器学习框架,如TensorFlow、Keras、PyTorch、Scikit-learn和XGBoost,使开发者可以根据项目需求灵活选择。
CPU/GPU支持:无论是基于CPU还是GPU的硬件配置,Cortex都能顺利运行推理任务。
滚动更新:用户可以直接在API上应用更新,实现平滑过渡到新模型,而无需担心服务中断。
日志流:用户可以在Cortex中实时查看日志,有助于简化运维流程。
预测监测:Cortex具备预测监控功能,可以跟踪和评估预测结果,确保模型性能稳定。
Spot实例:利用Amazon EC2 Spot实例,用户可以大幅降低运行成本。
最小化配置:部署配置简化为一个名为cortex.yaml的文件,极大简化了操作步骤。
总体而言,Cortex集成了TensorFlow、Kubernetes和Docker等多种开源工具,并与AWS服务(如CloudWatch)无缝集成。这使得开发人员可以通过一个API来部署他们的模型,随后将模型容器化并在Kubernetes上部署,同时Cortex会自动扩展工作负载,必要时可切换到GPU以满足计算需求。
此外,Cortex的GitHub仓库提供了丰富的配置示例,涵盖TensorFlow、PyTorch、XGBoost和Scikit-learn等多个领域,便于用户快速上手和实践。
最近,该平台的创始人在Reddit论坛上发布了关于Cortex V0.13的公告。用户反馈褒贬不一,部分人认为它能显著加快机器学习模型的训练速度,但也有人指出其在某些支持功能方面仍有改进空间。
一些用户提出了质疑,例如为何要将Cortex与AWS绑定,为什么不支持所有Kubernetes集群,以及为什么不能通过Minikube在本地测试Cortex。目前,谷歌云平台也提供了类似的ML预测服务,但其并未采用容器技术,这也被认为是Cortex的一大优势。
对于最新版的Cortex,您有什么看法呢?欢迎在评论区分享您的观点。
参考资料:https://towardsdatascience.com/cortex-v0-13-bba9b9b59131