Tensorflow數據讀取有三種方式:
這三種有讀取方式有什么區別呢? 我們首先要知道TensorFlow(TF)是怎么樣工作的。
TF的核心是用C++寫的,這樣的好處是運行快,缺點是調用不靈活。而Python恰好相反,所以結合兩種語言的優勢。涉及計算的核心算子和運行框架是用C++寫的,并提供API給Python。Python調用這些API,設計訓練模型(Graph),再將設計好的Graph給后端去執行。簡而言之,Python的角色是Design,C++是Run。
一、預加載數據:
import tensorflow as tf # 設計Graph x1 = tf.constant([2, 3, 4]) x2 = tf.constant([4, 0, 1]) y = tf.add(x1, x2) # 打開一個session --> 計算y with tf.Session() as sess: print sess.run(y)
二、python產生數據,再將數據喂給后端
import tensorflow as tf # 設計Graph x1 = tf.placeholder(tf.int16) x2 = tf.placeholder(tf.int16) y = tf.add(x1, x2) # 用Python產生數據 li1 = [2, 3, 4] li2 = [4, 0, 1] # 打開一個session --> 喂數據 --> 計算y with tf.Session() as sess:   print sess.run(y, feed_dict={x1: li1, x2: li2}) 說明:在這里x1, x2只是占位符,沒有具體的值,那么運行的時候去哪取值呢?這時候就要用到sess.run()中的feed_dict參數,將Python產生的數據喂給后端,并計算y。
這兩種方案的缺點:
1、預加載:將數據直接內嵌到Graph中,再把Graph傳入Session中運行。當數據量比較大時,Graph的傳輸會遇到效率問題。
2、用占位符替代數據,待運行的時候填充數據。
前兩種方法很方便,但是遇到大型數據的時候就會很吃力,即使是Feeding,中間環節的增加也是不小的開銷,比如數據類型轉換等等。最優的方案就是在Graph定義好文件讀取的方法,讓TF自己去從文件中讀取數據,并解碼成可使用的樣本集。
三、從文件中讀取,簡單來說就是將數據讀取模塊的圖搭好

1、準備數據,構造三個文件,A.csv,B.csv,C.csv
$ echo -e "Alpha1,A1/nAlpha2,A2/nAlpha3,A3" > A.csv $ echo -e "Bee1,B1/nBee2,B2/nBee3,B3" > B.csv $ echo -e "Sea1,C1/nSea2,C2/nSea3,C3" > C.csv
2、單個Reader,單個樣本
#-*- coding:utf-8 -*- import tensorflow as tf # 生成一個先入先出隊列和一個QueueRunner,生成文件名隊列 filenames = ['A.csv', 'B.csv', 'C.csv'] filename_queue = tf.train.string_input_producer(filenames, shuffle=False) # 定義Reader reader = tf.TextLineReader() key, value = reader.read(filename_queue) # 定義Decoder example, label = tf.decode_csv(value, record_defaults=[['null'], ['null']]) #example_batch, label_batch = tf.train.shuffle_batch([example,label], batch_size=1, capacity=200, min_after_dequeue=100, num_threads=2) # 運行Graph with tf.Session() as sess: coord = tf.train.Coordinator() #創建一個協調器,管理線程 threads = tf.train.start_queue_runners(coord=coord) #啟動QueueRunner, 此時文件名隊列已經進隊。 for i in range(10): print example.eval(),label.eval() coord.request_stop() coord.join(threads)
新聞熱點
疑難解答