読者です 読者をやめる 読者になる 読者になる

tensorflowのチュートリアル(MNISTビギナー編)

チュートリアルを翻訳していく。

MNIST For ML Beginners

MNISTは機械学習の"Hello World"だよ。

手書き数字の画像と数字のデータセットを使って、訓練して数字を予測するん。
ソフトマックス(多項ロジスティック)回帰と呼ばれる、単純なモデルで説明するよん。

ソースコードは"tensorflow/examples/tutorials/mnist/mnist_softmax.py"かな。

MNISTデータ

MNISTデータを"input_data.py"でダウンロードするようにしておいた。
下のコードをコピーしてデータを使いな。

訓練データ:55000、テストデータ:10000.、検証データ:5000だ。
これがいい感じの割合なんだ。

xsに28x28=784次元ベクトル(値は0~1)を55000個。
ysに0~9の数字(値は0か1で1種類)を55000個。

準備完了。モデル設計をはじめよう。

ソフトマックス回帰

画像をみてそれが0~9のどれに一致するかを確率で出すことにする。
確率をだすならソフトマックスでやるんだ。
複雑なモデルであっても最後の層はそうすることになる。

んで数式だ。
evidence(i)は各数字の結果
x(j)は784の入力
w(i,j)は結合線の重み
b(i)はバイアス
合計して求める。
それをsoftmaxで確率にする。

行列でいろいろやって、最後はシンプルに。
画像引用な。

実装

Pythonで実装するよ。
行列計算はnumpyをつかうとモデルと分離しやすい。

・tensorflow使うぜ定義:
import tensorflow as tf

・変数使うぜ定義:
x = tf.placeholder(tf.float32, [None, 784])

決まってない変数のところは、入力データの数を入るようにするべ。
んでこれは、浮動小数点(float32)の784個の2次元配列になってんよ。

・あと重みとバイアスが必要だな
これは変更できる数(Variable)にしとく。
W = tf.Variable(tf.zeros([ 784、10 ]))
b = tf.Variable(tf.zeros([ 10 ]))

初期値は0になってる。訓練で覚えていくから気にしなくていい。

次は行列のところをやるんだけど、1行で書けちゃう。
tensorflowすごい!
y = tf.nn.softmax(tf.matmul(x、W)+ b)

これでおしまいだ。簡単だろ?

訓練

コストとロスを定義する。
一般的には交差エントロピーを使うのがいいんだ。詳しくはググってくれ。
変数を追加しよう。
y_ = tf.placeholder(tf.float32, [None, 10])

で交差エントロピーっと、
cross_entropy = -tf.reduce_sun(y_*tf.log(y))

yの対数を計算して、要素に対応するy_をかけて、
reduce_sumがすべての要素に追加する。これは1枚の画像だけな。

バックプロパゲーションで訓練してやんよー
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

学習率は0.01で、勾配降下法をつかう。

訓練の前に初期化する操作:
init = tf.initialize_all_variables()

訓練開始:
sess = tf.Session()
sess.run(init)

訓練は1000回ループだー
for i in range(1000):
  batch_xs, batch_ys = mnist.train.next.batch(100)
  train_step.run({x: batch_xs, y_: batch_ys})

バッチは100個のランダムで取得する。
train_stepになんかする。(ここはよくわからんなー)

評価

tf.argmax使うと配列の最大値がとれるよ。
yとy_で比較できんよ。
tf.reduse_meanで平均値をとれる。
精度を表示するよ。だいたい91%くらいかな。
あまりよくない。ちょっといじれば97%くらいにできるぜ。
すげーのだと99.7%のもあんよ。

え、こんなもん。がっかりだって?
上級者向けのコースがありまっせ。旦那。

Deep MNIST for Experts

翻訳おしまい。