ケーススタディ
前振りが長くなったが、開発したソースコードを用いて実際に「対話ボット」を学習し、実行した結果を示す。学習データ
学習には以下の日常で頻繁に利用している家族とのLINEトークデータを用いた。- 全LINEトークデータ 17,796ペア(in/out)
- trainデータ 16,017ペア(in/out)#全データの9割
- devデータ 1,779ペア(in/out)#全データの1割
ディレクトリ(学習開始時)
学習開始時は、以下の3つのpythonファイルと2つのディレクトリを同階層に配置する。また、line_talk_dataディレクトリには、学習データとして作成した4種類のファイルを格納する。(学習後には中間生成物が各フォルダに生成される)
- chatbot.py
- data_utils.py
- seq2seq_model.py
- line_talk_data #学習データ格納用ディレクトリ
- line_talk_train.out
- line_talk_train.in
- line_talk_dev.out
- line_talk_dev.in
- line_talk_train #学習結果のcheckpointデータ格納用ディレクトリ
学習の実行
python chatbot.py
実行後のコンソールを以下に示す。
chatbot$ python chatbot.py
Preparing LINE talk data in line_talk_data
Creating vocabulary line_talk_data/vocab40000.out from data line_talk_data/line_talk_train.out
Creating vocabulary line_talk_data/vocab40000.in from data line_talk_data/line_talk_train.in
Tokenizing data in line_talk_data/line_talk_train.out
Tokenizing data in line_talk_data/line_talk_train.in
Tokenizing data in line_talk_data/line_talk_dev.out
Tokenizing data in line_talk_data/line_talk_dev.in
Creating 3 layers of 256 units.
Created model with fresh parameters.
Reading development and training data (limit: 0).
global step 100 learning rate 0.5000 step-time 0.66 perplexity 8820.34
eval: bucket 0 perplexity 3683.12
eval: bucket 1 perplexity 4728.98
eval: bucket 2 perplexity 4118.81
eval: bucket 3 perplexity 5504.88
以下のように、ある程度収束してきたところで、学習を切り上げる。
今回は以下のスペックのMac book pro にて8時間程度学習を行った。
CPU : 2.9 GHz Intel Core i5
メモリ: 16 GB 1867 MHz DDR3
メモリ: 16 GB 1867 MHz DDR3
この時、line_talk_trainディレクトリの中に、学習ステップに応じた .ckptファイルが蓄積されている。対話実行時に、蓄積された最新の.ckptファイルはリストアされる。
global step 17000 learning rate 0.3812 step-time 0.49 perplexity 30.66
eval: bucket 0 perplexity 29.40
eval: bucket 1 perplexity 45.61
eval: bucket 2 perplexity 44.65
eval: bucket 3 perplexity 85.85
global step 17100 learning rate 0.3812 step-time 0.51 perplexity 30.04
eval: bucket 0 perplexity 113.59
eval: bucket 1 perplexity 55.54
eval: bucket 2 perplexity 39.45
eval: bucket 3 perplexity 45.94
対話の実行(--decode)
python chatbot.py --decode
--decodeオプションをつけて実行することで、対話モードで実行できる。 以下に「対話ボット」の対話例を示す。 最新の.ckptファイルをリストアされ、対話モードに入っていることが確認出来る。
chatbot$ python chatbot.py --decode
Reading model parameters from line_talk_train/chatbot.ckpt-17600
>
以下に対話例を示す。 ([Morpho]タグ行)は入力の形態素解析の結果を出力している。
> 今日は何時に帰る?
([Morpho]:今日 は 何 時 に 帰る ?)
00 : 00 くらい か なー !
> 今から帰りまーす
([Morpho]:今 から 帰り ま ー す)
今 から ます !
> おつかれー
([Morpho]:お つかれ ー)
[ スタンプ ]
> 退社しましたー!
([Morpho]:退社 し まし た ー !)
00 : 00 くらい か なー !
> お腹空いたのでゆっくり食べてます〜
([Morpho]:お腹 空い た ので ゆっくり 食べ て ます 〜)
たいしゃ
そこそこの対話ができていることがわかる。
「今日は何時に帰る?」という質問に対して、時刻を返答しようとしていることがわかる。パターンとしては上手く学習できているが、 実際に情報がないので正しい時刻を返せていないのは残念であるが。
「ゆっくり食べてます〜(先にご飯を食べています)」という情報に対して、遅れて「たいしゃ」したというのも、日常でよくあるやりとりを上手く学習できているといえる。
また、LINEトークのテキストデータのみを学習しているため、一部の返答が[スタンプ]になってしまっているのも仕方がない結果であろう。
まとめ
LINEトーク履歴のテキストデータを用いた「対話ボット」を開発してみた結果、個人のLINEトークの返し方を学習し、それっぽい回答をしてくれることがわかった。翻訳と違い、「良い」「悪い」の基準が極めて曖昧なため、評価が難しいのは事実であるが、可能性を感じる結果にはなった。今後は、データ量を増加させ、時系列を加味して対話データの生成するなど、学習データの洗練を行いたい。また、今回ハイパーパラメータについても、計算量削減のため、デフォルトの設定よりもだいぶ小さい値を用いている。データ量の増加に合わせて、ハイパーパラメータの調整も併せて行うことで、より自然な対話ができるようになると思われる。
参考
- https://www.tensorflow.org/versions/r0.11/tutorials/seq2seq/index.html#sequence-to-sequence-basics
- http://www.slideshare.net/tak9029/tensorflowai
- http://qiita.com/San_/items/128bf1b5a898ad5c18f1
話題のTensorFlow・LINEトーク履歴を用いて対話ボットを作ってみた(1)
話題のTensorFlow・LINEトーク履歴を用いて対話ボットを作ってみた(2)
話題のTensorFlow・LINEトーク履歴を用いて対話ボットを作ってみた(3)
話題のTensorFlow・LINEトーク履歴を用いて対話ボットを作ってみた(4)
0 件のコメント:
コメントを投稿