-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Semantic Image Synthesis via Adversarial Learning #15
Labels
Comments
著者にコード(Pytorch v0.2)が公開されている |
https://github.com/woozzu/dong_iccv_2017/blob/master/train.py#L78 mismatching textとrelevant textはそれぞれmatching textからのミニバッチ操作でできる。 |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
0. 論文
1. どんなもの?
テキスト(説明文)による画像編集手法を提案(後にLanguage-based image editingと呼ばれている)。
2. 先行研究と比べてどこがすごい?
従来の、説明文からの画像生成(text-to-image)のタスクを拡張して画像も生成条件に追加することで、テキストに条件づけられた画像編集という新たなタスクを提案した。
3. 技術や手法のキモはどこ?
画像とテキストはそれぞれエンコードして16x16x512, 16x16x128の潜在変数にしてから結合する。入力テキストはDiscriminatorでマッチするかどうかを含めたmatching aware lossを用いる(https://arxiv.org/abs/1605.05396)
loss function
x: 実画像
φ(t): 画像とマッチした説明文の潜在変数
φ(^t): 画像とマッチしない説明文の潜在変数
φ(bar(t)): 画像と関連している(一部だけ違う)説明文の潜在変数
※φ(bar(t))は同一ドメインの画像(鳥と花)を指して「関連している」と定義しているので、実験ではbar(t) ∈ {t, ^t}である
4. どうやって有効だと検証した?
CUB, Oxford flowerデータセットで主観評価を実施。
![image](https://user-images.githubusercontent.com/7993233/57577572-fda69980-74b4-11e9-9174-9d651992c2fd.png)
5. 議論はある?
ソース画像とテキスト間で内挿した場合の生成結果を載せて、両方の潜在変数が有効に働いていることを確かめている。
![image](https://user-images.githubusercontent.com/7993233/57577582-24fd6680-74b5-11e9-81f2-c5b8658bc64c.png)
6. 次に読むべき論文は?
The text was updated successfully, but these errors were encountered: