リケラボ論文検索は、全国の大学リポジトリにある学位論文・教授論文を一括検索できる論文検索サービスです。

リケラボ 全国の大学リポジトリにある学位論文・教授論文を一括検索するならリケラボ論文検索大学・研究所にある論文を検索できる

リケラボ 全国の大学リポジトリにある学位論文・教授論文を一括検索するならリケラボ論文検索大学・研究所にある論文を検索できる

大学・研究所にある論文を検索できる 「画像品質及びデータ分布を考慮したデータ拡張」の論文概要。リケラボ論文検索は、全国の大学リポジトリにある学位論文・教授論文を一括検索できる論文検索サービスです。

コピーが完了しました

URLをコピーしました

論文の公開元へ論文の公開元へ
書き出し

画像品質及びデータ分布を考慮したデータ拡張

松田 卓也 早稲田大学

2020.03.24

概要

1.1 研究背景
 近年,AIは技術が向上しているだけでなく,既に様々な商品・サービスに導入されてきている.具体的には,検索サイトやスマートスピーカー,自動車の自動運転などが身近な例として挙げられる.しかし,AIの精度を最大限高めるには一般的に大量のデータセットが必要である.アメリカや中国では,政府や企業の製品・サービスを通じて効率的にデータを収集しており,一部大手IT企業はビッグデータを独占しつつある.それゆえ,AIの技術水準は高い.対して,日本にはグローバルなプラットフォーマ企業がなく,ビッグデータを確保できていないことから,AIの研究やビジネスにおいて遅れをとっていると考えられる.
 国内企業の研究者や開発者がこうした状況の中,世の中にある膨大な量のデータを集めるのは難しい.そこで,既に所有しているデータおよび少ないデータを利活用しようとする研究の取り組みが主に二つある.一つは,少量のデータを効率的に学習する技法であり,もう一つは,生成モデルを使って学習用データを生成する技法である.
 前者では,ファインチューニングや転移学習といった技法があげられる.ファインチューニングは,事前学習したモデルの重みパラメータを初期値として,再度新しいデータセットに対して学習するアルゴリズムである.一方,転移学習は事前学習したモデルの重みパラメータを固定して,新たに追加した層の重みパラメータのみ再度学習するアルゴリズムである.どちらのアルゴリズムも,一般的に事前学習の際に用いられるデータセットは大規模なものが多い.
 後者の例として,Generative Adversarial Network(GAN)[1]やAuto Encoder(AE)[2]が挙げられる.生成モデルに関する研究は近年数多くなされており,GANに関する論文や特許出願の件数は増加傾向にある[3].GANは新しい画像を生成できるが,収束させることが難しい.対して,AEは安定して学習できるが,データセットと同じような画像しか生成できず,新しい画像を生成することが難しい.また,身近な例として,これらの生成モデルは,ファッションや広告用の新しい画像の生成や3Dモデルの生成,顔画像の老化フィルタ生成などの様々なアプリケーションに使われ始めている[4].
 以上のように,生成モデルを用いることで様々な画像を生成することができる.様々な画像を生成することは,国内企業の研究者や開発者のデータセット不足を解決する支援になると考えられる.しかし,一部のクラスのデータセットは既に多く持っている場合や,同一クラスの似ているデータセットを多く持っている場合など,持っているデータセットの分布にはいくつかのパタンが考えられる.よって,データセットの分布のパタンを考慮して画像を生成する必要がある.

1.2 研究目的
 本研究では,画像の品質およびデータ分布を考慮してデータ拡張することで,AIのクラス分類精度を向上することを目的とする.また,画像データセットの分布を3パタンに分け,それぞれに対する提案手法を述べる.一つ目に,全てのクラスの画像データセットが少ない場合.二つ目に,同じクラス内に似た画像データセットが多くある場合.三つ目に,画像データセットが多いクラスと,画像データセットが少ないクラスが混在する場合.手法としては,一つ目のパタンに対して,Generative Adversarial Capsule Network(CapsuleGAN)[5]を用いて品質を考慮した画像を生成する.二つ目のパタンに対しては,Variational Auto-Encoder(VAE)[6]の潜在変数を操作して,同一クラス内に偏りが生じないように画像を生成する.三つ目のパタンに対しては,Adversarial Autoencoder(AAE)[7]とSynthetic Minority Over-sampling Technique(SMOTE)[8]を用いて少数クラスのデータを拡張する.

1.3 本論文の構成
 以下に本論文の構成を示す.
第1章 本章であり,研究の背景および目的について述べる.
第2章 本論文で用いる関連技術について述べる.
第3章 提案手法について述べる.
第4章 提案手法の実験概要と実験結果について記述し,実験結果の考察について述べる.第5章 本論文の結論と今後の課題について述べる.

この論文で使われている画像

参考文献

[1] Ian Goodfellow, Jean Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio, ”Generative Adversarial Networks,” Neural Information Processing Systems (NIPS), 2014

[2] Kramer, Mark A., ”Nonlinear Principal Component Analysis Using Autoassociative Neural Networks,” AIChE Journal. 37 pp.233-243, Feb 1991

[3] 酒井美里, ”画像や音声を生成する AI,「GAN」の特許が急増,” < https://tech.nikkeibp.co.jp/atcl/nxt/column/18/00408/00012/> (参照 2019 年 12 月 5日)

[4] Jason Brownlee, “18 Impressive Applications of Generative Adversarial Networks(GANs),” < https://machinelearningmastery.com/impressive-applications- of-generative-adversarial-networks/> (参照 2019 年 12 月 7 日)

[5] Ayush Jaiswal, Wael AbdAlmageed, Yue Wu, Premkumar Natarajan, ”CapsuleGAN: Generative Adversarial Capsule Network,” The European Conference on Computer Vision (ECCV) Workshops, pp.0-0, 2018

[6] Diederik P. Kingma, Max Welling, ”Auto-Encoding Variational Bayes,” International Conference on Learning Representation, 2014

[7] Alireza Makhzami, Jonathon Shlens, Navdeep Jaitly, Ian Goodfellow, Brendan Frey, ”Adversarial autoencoders,” arXiv preprint arXiv:1511.05644, 2015

[8] N. C. Chawla, K. W. Bowyer, L. O. Hall, W. P. Kegelmeyer, ”SMOTE: Synthetic Minority Over-sampling Technique,” Journal of Artificial Intelligence Research 16, pp.321-357, 2002

[9] Sara Sabour, Nicholas Frosst, Geoffrey E Hinton, ”Dynamic Routing Between Capsules,” Neural Information Processing Systems (NIPS), 2017

[10] A. Krizhevsky, I. Sutskever, G.F.Hinton, ”ImageNet Classification with Deep Convolutional,” Neural Information Processing Systems (NIPS), 2012

[11] A.Radford, L.Metz, S.Chintala, “Unsupervised representation learning with deep convolutional generative adversarial networks,” In 4𝑡ℎ Int. Conf. on Learning Representations (ICLR), No 67, pp.1-16 (May. 2016)

[12] 渡部, 渡辺, “生成画像品質を考慮した DCGAN を用いたデータオーギュメンテーション,” FIT2017(第 16 回情報科学技術フォーラム), H-038, pp.273-274, (Sept. 2017)

[13] Yann Lecun, Corinna Cortes, Christopher JC Burges, “MNIST hand written digit database,” <https://yann.lecun.com/exdb/mnist/> (2018 年 4 月 1 日参照)

[14] Han Xiao, Kashif Rasul, Roland Vollgraf, ”Fashion-MNIST: a Novel Image Dataset for Benchmarking Machine Learning Algorithms,” arXiv preprint arXiv: 1708.07747, 2017

[15] Tim Salimans, “Improved Techniques for Training GANs,” Neural Information Processing Systems (NIPS), 2016

[16] Martin Heusel, “GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium,” Neural Information Processing Systems (NIPS), 2017

[17] Z. Wang, E. P. Simoncelli, A. C. Bovik,”Multiscale structural similarity for image quality assessment,” Proceedings of the 37th IEEE Asilomar Conference on Signals, Systems and Computers, Publisher: IEEE Computer Society (2003), pp.1398-1402

参考文献をもっと見る

全国の大学の
卒論・修論・学位論文

一発検索!

この論文の関連論文を見る