You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
タイトル: Long Text Generation via Adversarial Training with Leaked Information
リンク: https://arxiv.org/abs/1709.08624
著者: Jiaxian Guo, Sidi Lu, Han Cai, Weinan Zhang, Yong Yu, Jun Wang
所属: Shanghai Jiao Tong University, University College London
発表年: 2018
掲載: AAAI
0. 論文
タイトル: Long Text Generation via Adversarial Training with Leaked Information
リンク: https://arxiv.org/abs/1709.08624
著者: Jiaxian Guo, Sidi Lu, Han Cai, Weinan Zhang, Yong Yu, Jun Wang
所属: Shanghai Jiao Tong University, University College London
発表年: 2018
掲載: AAAI
1. どんなもの?
Discriminator内で抽出された特徴量をGeneratorで利用することで特に長文において高品質なテキストの生成に成功
![table6](https://user-images.githubusercontent.com/16972179/57567615-0c3e7380-7417-11e9-9669-154f68e7be8f.PNG)
2. 先行研究と比べてどこがすごい?
強化学習を用いたGANによるテキスト生成において従来手法では特に長文の生成時報酬がめったに得られないことにより学習が困難であるという問題があった。
そこで階層型強化学習を利用し、Discriminatorの中間特徴を取り込むManagerモジュールとテキスト生成を行うWorkerモジュールのふたつでGeneratorを構成することで効率的な学習を実現した。
3. 技術や手法のキモはどこ?
Leaked Features from D as Guiding Signals
DiscriminatorにはCNNを使用し最終層の直前の特徴量をManagerにLeakさせる。
これにより二値の分類情報よりも多くの情報をGeneratorが利用できるようになる
Hierarchical Structure of G
Managerの目的はLeakされた情報から生成をガイドする有効な表現を獲得することにある。
![eq7](https://user-images.githubusercontent.com/16972179/57568240-6e02db80-741f-11e9-9ad1-370158d9ae73.PNG)
![eq8](https://user-images.githubusercontent.com/16972179/57568258-bf12cf80-741f-11e9-9537-05929573d21e.PNG)
Managerの勾配は以下のような現在のpolicyから推定される報酬Qを用いて以下のように定義される。
Workerは以下の報酬を最大化するよう学習する。
ManegerとWorkerの学習は別々に行う。
4. どうやって有効だと検証した?
先行研究であるSeqGAN及びRankGANと比較。
使用データセットは3種類。
これらについてBLEUスコアで評価。またCOCOとWMTについては人手での評価も行った。
![table5 2](https://user-images.githubusercontent.com/16972179/57568673-c6d57280-7425-11e9-9a67-a130020bfcff.PNG)
長文であっても高い性能を実現している。![fig5 3](https://user-images.githubusercontent.com/16972179/57568703-069c5a00-7426-11e9-92f0-55d77f4ce8ce.PNG)
テキスト長ごとのLeakGANとのBLEUスコア差のグラフからも長文に対する強さがうかがえる5. 議論はある?
6. 次に読むべき論文は?
コメント
FMGAN論文の比較実験をみるとself-BLEUスコアが一貫してかなり高く、Leakさせていることもあり生成テキストの多様性に欠けているんじゃないかと思った
The text was updated successfully, but these errors were encountered: