Intel今天公佈了Nauta的開源版本,這是一個使用Kubernetes或Docker分佈在多個伺服器上的深度學習平臺。
該平臺可以使用MXNet、TensorFlow和PyTorch等許多流行的機器學習框架,並使用可以與Intel的Xeon CPU集群協同工作的處理系統,深度學習實驗的結果可以使用TensorBoard、命令列代碼或Nauta Web使用者介面看到。
Nauta是一個企業級的堆疊,用於需要運行深度學習工作負載來培訓將部署到生產環境中的模型的團隊。
使用Nauta,用戶可以在單個或多個工作節點上使用Kubernetes定義和安排容器化深度學習實驗,並檢查這些實驗的狀態和結果,以進一步調整和運行其他實驗,或準備訓練模型進行部署。
Nauta是最新發佈的可以使用Kubernetes或Docker容器的工具,這種方法允許從業人員在通過內部伺服器部署人工智慧和在雲中部署人工智慧之間進行選擇。
去年11月,Google引入了Kubeflow管道,這是一個Kubernetes工作流,而微軟上個月在公共預覽版中也引入了Azure Kubernetes服務。
Linux基金會的LF深度學習基金會去年秋天還推出了用於深度學習的Acumos AI工具,用於Docker或Kubernetes。
與其他分散式深度學習平臺一樣,Nauta也稱自己可以説明資料科學家和AI從業者團隊協作並協同工作。
使用者可自由定制的預製工具,腳本和模型範本,以及測試模型的批量或流式推斷。新平臺的其他更新將在今年晚些時候推出。
資料來源
該平臺可以使用MXNet、TensorFlow和PyTorch等許多流行的機器學習框架,並使用可以與Intel的Xeon CPU集群協同工作的處理系統,深度學習實驗的結果可以使用TensorBoard、命令列代碼或Nauta Web使用者介面看到。
Nauta是一個企業級的堆疊,用於需要運行深度學習工作負載來培訓將部署到生產環境中的模型的團隊。
使用Nauta,用戶可以在單個或多個工作節點上使用Kubernetes定義和安排容器化深度學習實驗,並檢查這些實驗的狀態和結果,以進一步調整和運行其他實驗,或準備訓練模型進行部署。
Nauta是最新發佈的可以使用Kubernetes或Docker容器的工具,這種方法允許從業人員在通過內部伺服器部署人工智慧和在雲中部署人工智慧之間進行選擇。
去年11月,Google引入了Kubeflow管道,這是一個Kubernetes工作流,而微軟上個月在公共預覽版中也引入了Azure Kubernetes服務。
Linux基金會的LF深度學習基金會去年秋天還推出了用於深度學習的Acumos AI工具,用於Docker或Kubernetes。
與其他分散式深度學習平臺一樣,Nauta也稱自己可以説明資料科學家和AI從業者團隊協作並協同工作。
使用者可自由定制的預製工具,腳本和模型範本,以及測試模型的批量或流式推斷。新平臺的其他更新將在今年晚些時候推出。
資料來源
沒有留言:
張貼留言