C語言中文網 目錄
TensorFlow
1 TensorFlow是什么
2 TensorFlow安裝和下載
3 第一個TensorFlow程序
4 TensorFlow程序結構
5 TensorFlow常量、變量和占位符
6 TensorFlow矩陣基本操作
7 TensorFlow TensorBoard數據流圖可視化
8 TensorFlow代碼自動升級為1.0版本
9 TensorFlow XLA
10 TensorFlow指定CPU和GPU設備
11 TensorFlow與深度學習
12 TensorFlow常用Python擴展包
13 回歸算法有哪些
14 TensorFlow損失函數
15 TensorFlow優化器
16 TensorFlow csv文件讀取數據
17 TensorFlow實現簡單線性回歸
18 TensorFlow實現多元線性回歸
19 TensorFlow邏輯回歸處理MNIST數據集
20 感知機與神經網絡
21 TensorFlow常用激活函數(6種)
22 TensorFlow實現單層感知機
23 TensorFlow實現反向傳播算法
24 TensorFlow多層感知機實現MINIST分類
25 TensorFlow多層感知機函數逼近
26 TensorFlow超參數
27 TensorFlow Keras
28 CNN卷積神經網絡
29 三維卷積神經網絡預測MNIST數字
30 卷積神經網絡分類圖片
31 遷移學習
32 DeepDream網絡
33 TensorFlow實現文本情感分析
34 VGG網絡濾波器
35 VGGNet、ResNet、Inception和Xception
36 預建深度學習提取特征及實現
37 TensorFlow實現InceptionV3
38 TensorFlow WaveNet聲音合成
39 TensorFlow視頻分類(6種方法)
40 RNN循環神經網絡
41 神經機器翻譯(seq2seq RNN)
42 注意力機制(基于seq2seq RNN)
43 RNN訓練模型并生成文本
44 RNN循環神經網絡實現預測比特幣價格
45 主成分分析法(PCA)
46 k均值聚類算法
47 SOM自組織映射法
48 受限玻爾茲曼機訓練
49 推薦系統的實現(基于RBM)
50 基于DBN實現情緒檢測
51 自編碼器
52 標準自編碼器
53 稀疏自編碼器
54 去燥自編碼器
55 卷積自編碼器
56 堆疊自編碼器
57 強化學習
58 OpenAI Gym安裝和使用
59 全連接神經網絡實現玩Pac-Man游戲
60 Q learning實現Cart-Pole平衡游戲
61 DQN算法(深度Q網絡)
62 David Silver策略梯度算法
63 深度學習在移動端的應用
64 Android移動端部署TensorFlow mobile
65 iPhone移動端部署TensorFlow mobile
66 移動端優化TensorFlow代碼
67 GAN生成式對抗網絡
68 GAN生成式對抗網絡虛構MNIST圖像
69 DCGAN虛構MNIST圖像
70 DCGAN虛構名人面孔和其他數據集
71 VAE變分自編碼器
72 CapsNet膠囊網絡
73 TensorFlow分布式
74 TensorFlow GPU的安裝和使用
75 TensorFlow分布式
76 TensorFlow分布式訓練MNIST分類器
77 TensorFlow Serving運行Docker容器
78 TensorFlow分布式在谷歌云平臺運行
79 TensorFlow分布式在谷歌CloudML運行
80 TensorFlow分布式在Microsoft Azure上運行
81 TensorFlow分布式在Amazon AWS上運行
首頁 > TensorFlow 閱讀:97

TensorFlow Serving運行Docker容器(詳解版)

在這個案例中將演示如何為 TensorFlow Serving 運行一個 Docker 容器,這是一組組件,用于導出經過訓練的 TensorFlow 模型,并使用標準的 tensorflow_model_server 來為實現的模型服務。TensorFlow Serving 服務器發掘出新的導出模型并使用 gRPC 來提供服務。

我們將使用 Docker 并假定你熟悉該系統,可參考 https://www.docker.com/ 了解 Docker 的相關知識并安裝它。我們要做的是建立一個 TensorFlow Serving 版本。

具體做法

  1. 從網址https://github.com/tensorflow/serving/blob/master/tensorflow_serving/tools/docker/Dockerfile.devel上下載Dockerfile.devel。
  2. 通過運行以下命令構建一個容器:

    docker build--pull-t$USER/tensorflow-serving-devel-f Dockerfile.devel

  3. 運行容器:

    docker run-it$USER/tensorflow-serving-devel

  4. 克隆TensorFlow Serving、配置和測試服務器:


     
  5. 現在看一個保存模型的示例,以便服務器可以保存它。該例子是受一個示例啟發得到的,構建 MNIST 訓練器并為模型提供服務(https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_saved_model.py)。第一步是將構建器(builder)導入為 saved_model_builder,然后大部分的工作由 SavedModelBuilder() 來完成,它將被訓練模型的 snapshot 保存到可靠的存儲空間中。請注意,這里的 export_path 是 /tmp/mnist_model/


     
  6. 模型可以用一個簡單的命令來執行:

總結

2016 年 2 月谷歌發布 TensorFlow Serving,是針對機器學習模型的一個高性能服務系統,用于生產環境。2017 年 8 月,谷歌在生產中已經有超過 800 個項目使用了 TensorFlow Serving。

TensorFlow Serving 是一款非常靈活的軟件,在這個案例中只是學習了它潛在用途的表面而已。如果你有興趣了解更多的高級功能,如大批量運行或動態加載模型,推薦參考https://github.com/tensorflow/serving/blob/master/tensorflow_serving/g3doc/serving_advanced.md

精美而實用的網站,提供C語言C++STLLinuxShellJavaGo語言等教程,以及socketGCCviSwing設計模式JSP等專題。

Copyright ?2011-2018 biancheng.net, 陜ICP備15000209號

底部Logo