云上快速搭建Serverless AI实验室
Serverless Kubernetes和ACK虛擬節點都已基于ECI提供GPU容器實例功能,讓用戶在云上低成本快速搭建serverless AI實驗室,用戶無需維護服務器和GPU基礎運行環境,極大降低AI平臺運維的負擔,顯著提升整體計算效率。
如何使用GPU容器實例
在pod的annotation中指定所需GPU的類型(P4/P100/V100等),同時在resource.limits中指定GPU的個數即可創建GPU容器實例。每個pod獨占GPU,暫不支持vGPU,GPU實例的收費與ECS GPU類型收費一致,不產生額外費用,目前ECI提供多種規格的GPU類型。
示例
1. 創建Serverless Kubernetes集群
選擇深圳區域,可用區D。
2. 創建GPU容器實例
我們使用tensorflow模型對如下圖片進行識別:
使用模版創建pod,其中選擇P100 GPU規格。在pod中的腳本會下載上述圖片文件,并根據模型進行識別計算。
apiVersion: v1 kind: Pod metadata:name: tensorflowannotations:k8s.aliyun.com/eci-gpu-type : "P100" spec:containers:- image: registry-vpc.cn-shenzhen.aliyuncs.com/ack-serverless/tensorflowname: tensorflowcommand:- "sh"- "-c"- "python models/tutorials/image/imagenet/classify_image.py"resources:limits:nvidia.com/gpu: "1"restartPolicy: OnFailure部署后pod會處于pending狀態:
等待幾十秒后pod狀態變成Running,待計算完成后會變成Terminated狀態。
從pod的日志我們可以看到pod能夠識別P100 GPU硬件,而且可以正確識別圖片為Panda。
總結
通過以上示例可以看出,從環境搭建到計算結束,整個過程用戶無需購買和管理服務器,無需安裝GPU運行環境,serverless的方式可以讓用戶更加關注在AI模型構建,而不是底層基礎設施的管理和維護。
原文鏈接
本文為云棲社區原創內容,未經允許不得轉載。
總結
以上是生活随笔為你收集整理的云上快速搭建Serverless AI实验室的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 淘宝如何保障业务稳定性——诺亚(Noah
- 下一篇: 给 AI 讲故事,如何教它脑补画面?