TIM Labs

fujiによるエントリー一覧

MNISTは、グレースケールの手書き数字のデータ・セットだった。
でも、もう飽きたので、写真などでテストすることにしよう。

といっても、自分でディープラーニング用の画像データを集めるのは気が遠くなるほど面倒だ。

それで、まず、ディープラーニング用のデータ・セットでどのようなものがあるか探ってみた。

http://deeplearning.net/datasets/

そうすると、こちらが探そうとしていることが、そのままURLになっているのが見つかった(笑)

These datasets can be used for benchmarking deep learning algorithms:

という文の下に、自由に使えそうなデータセットが並んでいるのだ。
MNIST関連は飛ばして、色々な写真などのデータセットらしいのを探そう。

CIFAR-10
これは、元トロント大、現在GoogleのAlex Krizhevsky氏が配布しているものだ。
サイトは、今もトロント大にあり、データ収集は
Alex Krizhevsky, Vinod Nair, and Geoffrey Hinton の3名が行ったとある。
最後の Geoffrey Hinton
は、the godfather of deep learning として知られ、Google/DeepMind の AlphaGo にも関係している人なのだ。
画像は32x32とかなりコンパクトで、学習用に50000枚、テスト用に10000枚用意されている。
これは外せないな。

Caltech 101
こちらは、その名の通り、カルテック、カリフォルニア工科大学が用意してくれている画像データセットだ。
101種類の画像で、サイズが300x200程度という。各種類40から500枚くらいで、かなりバラバラである。

その他にも色々あるので、あとは自分で見てみよう。

さて、どれを利用してみるか、それが問題だ。

mnistのデータセットは、こんな感じで読み込んだのだった。

train, test = chainer.datasets.get_mnist()
次のデータセットも、同じように読み込めれば楽である。
ということで、こんな感じに読み込めそうな、つまりchainerがサポートしているデータセットを探した。

Docs ≫ Chainer Reference Manual ≫ Dataset examples

この中が、General datasets と Concrete datasets に別れており、Concrete datasets の中にmnistがあったのだ。
mnist以外では、CIFAR10/100 と Pen Tree Bank があったが、後者は英文に関するデータセットで今考えているものとは違う。

ということで、すんなり、CIFARを選ぶことに決定した。
次回から、実際にデータを読み込んで、あれこれやってみよう。
ChainerでGPUを使ってみようで、MNISTのデータセットを使ったディープラーニングのサンプルプログラムである train_mnist.py のコマンドで、-gpu 0 でGPUが使えることを示した。
つまり、操作説明をしたに過ぎなかったが、今回は、プログラムレベルでどう対応しているか見てみよう。
プログラムは,https://github.com/pfnet/chainer/tree/master/examples/mnist である。

    parser.add_argument('--gpu', '-g', type=int, default=-1,
                        help='GPU ID (negative value indicates CPU)')
ここで、 -gpu の処理が行われ、args.gpu に整数値が入る。
デフォルト値は -1 で、GPUを使用しないことを示す。

    if args.gpu >= 0:
        chainer.cuda.get_device(args.gpu).use()  # Make a specified GPU current
        model.to_gpu()  # Copy the model to the GPU
GPUを使用するときだけ、指定したGPUを確保し、作ったモデルをGPUにコピーするようだ。

    # Set up a trainer
    updater = training.StandardUpdater(train_iter, optimizer, device=args.gpu)
    trainer = training.Trainer(updater, (args.epoch, 'epoch'), out=args.out)

    # Evaluate the model with the test dataset for each epoch
    trainer.extend(extensions.Evaluator(test_iter, model, device=args.gpu))

あとは、上記の2個所で、device指定があるので、args.gpu をそのまま与えている。
GPUのの使用に関係してくるのは、たったこれだけである。
 あとは、chainerがよきに計らってくれるので、何もすることはない。
フレームワークとは、こういうものである。

ということで、よくわからなくてもGPUを使うプログラムが書けてしまう。
便利というか、便利過ぎな気がする。

そのうち、Python から直接GPUいじるためにCuPyを紹介するかもしれない。 NumPy互換のインターフェイスでCUDA(NVIDIAのGPUライブラリ)を使えるらしい。
デフォルのままだと、中間層が2層で、それぞれ1000ユニットで、
784 ==> 1000 ==> 1000 ==> 10
として動かしていた。

中間層の2層のノード数を自由に変更できるようになったので、まず次のようにしてみた。
784 ==> 300 ==> 30 ==> 10

Chainer$ python train_mnist1.py -g 0 -u 300 30
GPU: 0
# number: 60000
# units: [300, 30]
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.307806    0.150247              0.913467       0.954                     2.44043       
2           0.123374    0.112284              0.963534       0.9662                    4.77677       
3           0.0812434   0.0797795             0.975833       0.9758                    7.09853  
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・                  
18          0.00678134  0.0989654             0.997766       0.9799                    42.7799       
19          0.00394047  0.107429              0.998866       0.9782                    45.2334       
20          0.00806017  0.0969633             0.997466       0.9803                    47.6298       
Chainer$ 
かなり中間層を小さくしたのだが、テスト精度は98%あり、精度は落ちていない。
つまり、中間層を小さくしても影響は少ないようだ。

ということで、どんどん減らしてみよう。
中間層の第2層を出力層と同じ10まで下げてみた。
分類数と同じだが、どうなるだろうか?

784 ==> 50 ==> 10 ==> 10

Chainer$ python train_mnist1.py -g 0 -u 50 10
GPU: 0
# number: 60000
# units: [50, 10]
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.583669    0.312933              0.828284       0.9087                    2.45214       
2           0.26503     0.23423               0.925767       0.931                     4.88362       
3           0.202712    0.191492              0.942717       0.9448                    7.3304        
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・                  
18          0.0472231   0.132507              0.985798       0.9636                    42.9347       
19          0.0456997   0.120474              0.986715       0.9653                    45.3106       
20          0.0433583   0.123629              0.986148       0.9672                    47.6485       
Chainer$ 

かなり中間層を絞ったのだが、まだ96%の正解率である。
ということで、思いっきり絞ってみた。
784 ==> 40 ==> 2 ==> 10

Chainer$ python train_mnist1.py -g 0 -u 40 2
GPU: 0
# number: 60000
# units: [40, 2]
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           1.66372     1.36298               0.392867       0.5006                    2.45188       
2           1.20082     1.08511               0.562367       0.6294                    4.81112       
3           0.997415    0.951765              0.65775        0.6989                    7.13735       

18          0.3529      0.502587              0.915784       0.8996                    42.5103       
19          0.341643    0.48146               0.918735       0.9035                    44.8852       
20          0.329597    0.491561              0.920851       0.9042                    47.2294       
Chainer$ 
という訳で、中間層のユニット数をどんどん減らし、第2層のユニット数を2まで減らしても正解率90%を維持しているのは脅威だ。

といっても、手書き数字の読み取りでの場合なのだ。
少々手書き数字には飽きてきたので、別のデータセットなども考えてみることにする。
サンプルプログラム train_mnist.py のネットワークの定義は以下のようになっていた。

    def __init__(self, n_units, n_out):
        super(MLP, self).__init__(
            # the size of the inputs to each layer will be inferred
            l1=L.Linear(None, n_units),  # n_in -> n_units
            l2=L.Linear(None, n_units),  # n_units -> n_units
            l3=L.Linear(None, n_out),  # n_units -> n_out
        )
このプログラムでは、入力層のサイズは指定がなく、データにより自動決定される。
2つの中間層はいずれも n_units でノード数が与えられるので、同じサイズになる。
デフォルトでは1000である。
出力層は、0から9を判別するためにn_out に10がパラメータとして与えられる。

中間層の2層が同じサイズというのは、ちょっと面白くない。
それぞれサイズを変えることができれば、中間層のノード数の変化と学習の関係をより詳しく調べられる。

デフォルトのままだと 784 ==> 1000 ==> 1000 ==> 10 であるのを、 784 ==> 150 ==> 50 ==> 10 という感じの指定ができるようにしたい。

コマンドラインパーサーの説明は、先日行った。
その中間層のサイズの解析部分は以下のようになっている。

    parser.add_argument('--unit', '-u', type=int, default=1000,
                        help='Number of units')
これをどう変更すればよいだろうか?
実装DL (285x400).jpg

題名:実装ディープラーニング

株式会社フォワードネットワーク 監修

藤田一弥+高橋歩 共著

A5、272項、本体3200円

2016/11/30 発行

オーム社

ISBN 978-4-274-21999-3


本書は、題名どおり「実装」について説明した本である。
実装といっても、ゼロから実装ではなくて、世界的にも有名なデータや、ニューラルネットワークを自分のマシンで走らせる方法についての手引書といったところ。
ディープラーニングに関する基本的な知識はざっとは書いているが、ちゃんと勉強するには他書を読んだほうが良い。

使っているフレームワークなどは、適当に色々使っている感じ。

Theano, Keras, Chainer などをインストールした上で行う。
もちろん、Numpyを初めとしたPythonの人工知能系でよく使われる各種ライブラリもインストールする。
そして、そうなると問題になるのが各ライブラリのバージョンの整合性の問題に悩むことになる。
本書では、使用した各ライブラリについてバージョンが示されている。
NumPyについては、ダウングレードして難を逃れたと書かれていた。
現状で、PythonでAIをやろうと思ったら、こういうことに慣れるしかない。

また、一部はCのプログラムも紹介されている。

それよりも、GPUの利用について、本書の最初に説明がされている。
ただし、GPUは変化が激しい世界なので、かならずネットで調べるなり、すでにGPUを利用している人に聞くなりするべきだ。

10層、あるいはそれ以上のモデルでの実験を行うので、GPUを前提とした内容と思ったほうが良く、まだGPUを入手していない場合は、本書の最初のGPUの解説や、ネットの情報、NVIDIAの情報などを参考に、NVIDIAのGPUを入手しよう。

テーマは、ほとんどが画像処理ばかりという感じの本だが、最後の方に、3目並べを強化学習で強くする方法について解説しているようだ。

使用する学習データもサイズが大きくなり、どれも数百MBくらいはある。
まとめてダウンロードしようとすると何GBにもなるので、回線が遅い場合は何らかの手段を考えよう。

ディープラーニングにおいて、極度に単純な入門例の解説を読み終えて、もうちょっと本格的なものに手を出してみたい人には丁度お手ごろな本だろう。

学習の進行状況を把握するにはグラフがなんと言ってもわかりやすい。
仕方がないから、ちょっとプログラムして、グラフを作るしかないかな。

と思ったら、resultというフォルダができていて、その中に何やら色々なものができていた。
その中に、accuracy.png と loss.png があり、こんな感じになっていた。

accuracy.png      -n 60000
MNIST6000accuracy.png 青線が学習精度曲線であり、オレンジ線がテスト精度曲線である。
学習曲線は、1.00にかなり近いところまでいっている。
テスト曲線(検証曲線)との差はグラフからはかなりあるように見えるが、0.015(1.5%)程度である。

もう1つのグラフがロス関数(誤差関数)というものであり、上の図をちょうど上下反転したような形になっている。

loss.png      -n 60000
MNIST60000loss.png
さて、データ数が少なくなったら学習曲線がどんな風に変わったか、n=500の場合の精度の変化の様子を見てみよう。

accuracy.png      -n 500
MNIST500accuracy.png今度は、学習精度が早い段階で1.00になってしまっている。
これだけ見ると、非常に学習が順調に進んだように見える。

しかし、テスト精度の方は、0.85あたりでふらふらしているので、学習とテストでは精度が0.15(15%)も違い、エポックが進んでも差は縮まらないようだ。
学習データが60000個の時の10倍もの誤差になってしまった。

こういう風に、学習精度だけ上がって、テスト精度との差が縮まらない状態を過学習という。
つまり、学習のデータを学習し過ぎて、学習データは完璧に判定できるようになったものの、本番データを入れたら精度が悪いということである。
これを避けるためには、大量のデータを使って学習しないとダメということだ。


それにしても、こんなグラフまで何もしないで作ってくれるchainerのサンプルプログラムは素晴らしい。

学習データ数を減らして実験をしてみよう。
オリジナルは、MNISTの学習用データ数の60000であるが、10000, 2000, 500と減らしながら実験してみた。
もちろん、時間がもったいないので GPU を利用した。

学習データ 60000個
Chainer$ python train_mnist0.py -g 0
GPU: 0
# number: 60000
# unit: 1000
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.193926    0.0882014             0.941183       0.9735                    2.43387       
2           0.075335    0.0752461             0.976834       0.976                     4.83063       
3           0.0480114   0.074878              0.984965       0.978                     7.23542       
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・             
18          0.00998753  0.104438              0.996899       0.9828                    43.1969       
19          0.00818152  0.0978973             0.997833       0.9821                    45.6029       
20          0.00540837  0.0948488             0.998149       0.9817                    48.0003       
Chainer$
学習データ 10000個
Chainer$ python train_mnist0.py -g 0 -n 10000
GPU: 0
# number: 10000
# unit: 1000
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.4188      0.217062              0.8749         0.9334                    0.925599      
2           0.153328    0.196418              0.9534         0.9377                    1.74652       
3           0.0852114   0.139428              0.9756         0.9561                    2.58325  
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・             
18          7.43423e-05  0.158279              1              0.9674                    14.9663       
19          6.48571e-05  0.159226              1              0.9674                    15.7797       
20          5.74103e-05  0.160547              1              0.9673                    16.6219       
Chainer$
学習データ 2000個
Chainer$ python train_mnist0.py -g 0 -n 2000
GPU: 0
# number: 2000
# unit: 1000
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.949915    0.49678               0.7335         0.8402                    0.648741      
2           0.315252    0.36667               0.9065         0.8894                    1.21073       
3           0.16682     0.316182              0.957          0.9049                    1.80692       
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・             
18          0.00063135  0.327181              1              0.9257                    10.3965       
19          0.000569121  0.328971              1              0.925                     10.9622       
20          0.000512893  0.331511              1              0.9251                    11.5304       
Chainer$
学習データ 500個
Chainer$ python train_mnist0.py -g 0 -n 500
GPU: 0
# number: 500
# unit: 1000
# Minibatch-size: 100
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           1.814       1.16017               0.456          0.7062                    0.596051      
2           0.66647     0.718226              0.85           0.7652                    1.12284       
3           0.345737    0.635446              0.888          0.7999                    1.65856       
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・             
18          0.00110594  0.596009              1              0.863                     9.70698       
19          0.00101897  0.600444              1              0.8626                    10.2394       
20          0.000941102  0.6048                1              0.8626                    10.7713       
Chainer$
学習データが60000個から500個に減っても、速度は4倍程度しか高速になっていない。
やはり、GPUを使う場合、色々オーバーヘッドが多いということであろうか。

いや、それよりも、テスト時の正解率の減少の方が問題だ。
98%を超えていた正解率が、86%で終わっている。

そうだ、正解率など、学習経過を延々と数字で見るのではなく、パッと一瞬で分かる方法が欲しいものだ。
どうすれば良いだろうか?
MNISTの学習データは6万画像もあって、非常に多い。
もっと少ない枚数でも大丈夫かも。
ということで、学習データ画像数とテストの正解率の関係を知りたいと思ったのだが、コマンド引数にはデータ数を指定する項目がない。

それで、サンプルソース(train_mnist.py)プログラムを見たら、コマンド引数の処理をargparseで行っているようだ。
main()の最初の部分を以下に示す。

import argparse

def main():
    parser = argparse.ArgumentParser(description='Chainer example: MNIST')
    parser.add_argument('--batchsize', '-b', type=int, default=100,
                        help='Number of images in each mini-batch')
    parser.add_argument('--epoch', '-e', type=int, default=20,
                        help='Number of sweeps over the dataset to train')
    parser.add_argument('--frequency', '-f', type=int, default=-1,
                        help='Frequency of taking a snapshot')
    parser.add_argument('--gpu', '-g', type=int, default=-1,
                        help='GPU ID (negative value indicates CPU)')
    parser.add_argument('--out', '-o', default='result',
                        help='Directory to output the result')
    parser.add_argument('--resume', '-r', default='',
                        help='Resume the training from snapshot')
    parser.add_argument('--unit', '-u', type=int, default=1000,
                        help='Number of units')
    args = parser.parse_args()

    print('GPU: {}'.format(args.gpu))
    print('# unit: {}'.format(args.unit))
    print('# Minibatch-size: {}'.format(args.batchsize))
    print('# epoch: {}'.format(args.epoch))
    print('')
ということで、Pythonのマニュアルを調べたら、説明があった。
16.4. argparse -- コマンドラインオプション、引数、サブコマンドのパーサー
せっかくGPUが使えるようになったので、その効果ができるだけ出るようにしてみたいものだ。
ということで、とりあえずミニバッチの数をデフォルトの100から1000に増やしてみた。

Chainer$ python train_mnist.py -g 0 -b 1000
GPU: 0
# unit: 1000
# Minibatch-size: 1000
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           0.398479    0.165815              0.8895         0.9507                    0.972913      
2           0.130305    0.103915              0.9622         0.9661                    1.82951       
3           0.0807383   0.0763431             0.976533       0.9764                    2.68751       
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・   
18          0.000367914  0.0654017             1              0.9838                    15.6677       
19          0.000316801  0.0666274             1              0.984                     16.5294       
20          0.000283742  0.0675182             1              0.9839                    17.3905       
Chainer$  
実行時間は、17.39秒であり、b=100のとき(49秒)と比べて約2.8倍高速になった。 まとめて処理する単位を増やすと、全体の計算量は変わらないはずなのだが、かなり効率的になるようだ。
学習データ自体を使ったテスト(main/accuracy)は正解率100%になっているが、テストデータでは98.4%程度であり、デフォルトの場合との違いはほとんどない。

バッチサイズの変更で、GPUのメモリ使用量は、こんな感じで増加していった。
-b 100 (デフォルト)
|    0     16937    C   python                                         209MiB |

-b 1000
|    0     16917    C   python                                         317MiB |

-b 2000
|    0     16998    C   python                                         339MiB |

-b 5000
|    0     17031    C   python                                         493MiB |

-b 10000
|    0     17343    C   python                                         639MiB |
ミニバッチのサイズを大きくするとより高速になっていくと言いたいところだが、それは100を1000にした時には効果的だったのだが、10000にしても、速度はほとんど上昇しない。
Chainer$ python train_mnist.py -g 0 -b 10000
GPU: 0
# unit: 1000
# Minibatch-size: 10000
# epoch: 20

epoch       main/loss   validation/main/loss  main/accuracy  validation/main/accuracy  elapsed_time
1           1.37287     0.512147              0.660883       0.8614                    0.905861      
2           0.437023    0.361621              0.87135        0.901                     1.69545       
3           0.335709    0.294568              0.905283       0.9191                    2.50435       
・・・・・・・・・・・・・・・      中  略      ・・・・・・・・・・・・・・・   
18          0.0516563   0.0811957             0.986567       0.9746                    14.6888       
19          0.0475925   0.0765162             0.987367       0.9759                    15.4938       
20          0.0428052   0.074131              0.988917       0.9778                    16.29         
Chainer$ 
それよりも、accuracyが少し落ちてきたのがわかる。
ミニバッチ毎に学習が分けて行われるので、どうやら適度なサイズで行わないと、accuracyが落ちるようだ。
速度と精度のバランスを考えてミニバッチのサイズは決定しないといけないらしい。

ところで、MNISTデータセットは、学習用データが60000、テストデータが10000ある。
学習用データの数を変更してみようと思うが、どうやらコマンドパラメータからはできないらしい。
さて、どうしよう。
GPU(GEFORCE)がやってきて、CUDAが動くことが確認できた。
次にやることは、当然、ChainerからGPUを呼び出して高速に処理できるかどうか確認だ。

でも、どうすれば良いだろうか。
ネットをググるといろいろ見つかる。

Chainer, Cupy入門
Using GPU(s) in Chainer

でも、ちゃんと理解して読むのは面倒だ。
もっと横着して、とりあえず高速化できたことを実感したいだけなのだ。

と、思いながら眺めていると、sampleプログラムが用意されているらしい。
ということで、Example: Multi-layer Perceptron on MNIST にたどり着いた。
プログラムの説明がされているが、ここは無視して先へ行こう。

プログラムは,https://github.com/pfnet/chainer/tree/master/examples/mnist
にあり、その中の train_mnist.py を使おう。

落としてきたのを早速使おうと思ったが、引数などがわからない。
ということで、こうしてみた。

Chainer$ python train_mnist.py -h
usage: train_mnist.py [-h] [--batchsize BATCHSIZE] [--epoch EPOCH]
                      [--frequency FREQUENCY] [--gpu GPU] [--out OUT]
                      [--resume RESUME] [--unit UNIT]

Chainer example: MNIST

optional arguments:
  -h, --help            show this help message and exit
  --batchsize BATCHSIZE, -b BATCHSIZE
                        Number of images in each mini-batch
  --epoch EPOCH, -e EPOCH
                        Number of sweeps over the dataset to train
  --frequency FREQUENCY, -f FREQUENCY
                        Frequency of taking a snapshot
  --gpu GPU, -g GPU     GPU ID (negative value indicates CPU)
  --out OUT, -o OUT     Directory to output the result
  --resume RESUME, -r RESUME
                        Resume the training from snapshot
  --unit UNIT, -u UNIT  Number of units
Chainer$ 
このhelpから、GPUを使ったり、使わなかったりできるようである。
また、MNISTのデータセットによる学習の方法を色々変更できるようである。

ということで、とりあえず GPUを使ってみる。

このアーカイブについて

このページには、fujiが最近書いたブログ記事が含まれています。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。