リケラボ論文検索は、全国の大学リポジトリにある学位論文・教授論文を一括検索できる論文検索サービスです。

リケラボ 全国の大学リポジトリにある学位論文・教授論文を一括検索するならリケラボ論文検索大学・研究所にある論文を検索できる

リケラボ 全国の大学リポジトリにある学位論文・教授論文を一括検索するならリケラボ論文検索大学・研究所にある論文を検索できる

大学・研究所にある論文を検索できる 「深層学習による小児口腔内写真の生成および生成画像の評価」の論文概要。リケラボ論文検索は、全国の大学リポジトリにある学位論文・教授論文を一括検索できる論文検索サービスです。

コピーが完了しました

URLをコピーしました

論文の公開元へ論文の公開元へ
書き出し

深層学習による小児口腔内写真の生成および生成画像の評価

古々本, 一馬 大阪大学 DOI:10.18910/87981

2022.03.24

概要

【緒言】
 近年、畳み込みニューラルネットワークを用いた深層学習が発展し、医用画像に応用されている。敵対的生成ネットワーク(Generative Adversarial Network; GAN)は画像生成用の深層学習の1つであり、生成器と識別器の2つのネットワークで構成される教師なし深層学習である。1つの病院で入手可能な口腔内写真の量は限られているため、GANを用いた口腔内写真の生成が期待されている。GANを用いた医用画像の生成に成功している例が報告されているが、グレースケールのエックス線画像のみを対象としている報告が多く、また生成された医用画像の質について専門医による評価は行われていない。
 口腔内診査は歯科医療の意思決定において重要な技術の一つであり、特に小児歯科においては成長に伴い変化していく口腔内環境を理解するために様々な状態の口腔内写真を学習しておくことが望ましい。しかし、プライバシー保護の観点から異なる病院間での口腔内写真の共有には制限がかかることが多く、多数の症例を学習、教育する機会を増やすことは困難である。そのため、経験の浅い小児歯科医と熟練した小児歯科医の差を補うための学習ツール開発が必要である。
 そこで本研究では、医用画像を生成することでプライバシーが制御された疑似データとして応用出来ると考え、GANの一種であり初めて高解像度の画像生成に成功したProgressive Growing of Generative Adversarial Networks(PGGAN)を用いてフルカラーの口腔内写真の生成を行い、生成された口腔内写真の質を小児歯科医が評価することとした。

【材料および方法】
 本研究は、大阪大学大学院歯学研究科・歯学部および歯学部附属病院倫理審査委員会の承認を得て行った(承認番号:R1-E29)。
1. データセット
 本学歯学部附属病院小児歯科を受診した患者から得られた35,254枚の口腔内写真をPGGANの学習用の画像データとして利用した。全ての画像は匿名化されており、氏名や性別、年齢、病名、撮影したカメラなどのメタデータは含まれていなかった。乳歯列や混合歯列、永久歯列、健全歯、う蝕歯、処置歯など、多様な状態が含まれていた。全ての画像を128×128ピクセル、256×256ピクセル、512×512ピクセル、1,024×1,024ピクセルの4種類にリサイズし、JPEGに変換した。深層学習では学習するデータセットが少ないと過学習に陥る傾向があるといわれているため、画像の水増しを行った場合と行わなかった場合で結果を比較した。

2. 画像生成
 GANの1種であるPGGANを採用した。PGGANは低解像度の画像から学習を開始し、生成器と識別器の両方に新しい層を徐々に追加していくことで初めて高解像度の画像生成に成功したアーキテクチャーを持つ。128×128ピクセル、256×256ピクセル、512×512ピクセル、1,024×1,024ピクセルにリサイズした口腔内写真を用いてPGGANを学習させ、各解像度で生成器が生成した画像を定性的および定量的に評価を行った。また、潜在変数を線形補間することで生成される口腔内写真のモーフィングが可能であるかどうか検討した。

3. 定量的評価
 生成画像の定量的評価に用いられる計算指標としてSliced Wasserste in Distance(SWD)を採用した。SWDの値が小さい程、真正画像と生成画像が類似していることを示す。PGGANの学習中は一定時間毎にパラメータを保存し、最小のSWDを示す生成器のパラメータを用いて画像生成を行った。

4. 定性的評価
 生成器からランダムに画像を生成させ、明らかに生成画像と識別可能なものは除外した。128×128ピクセル、256×256ピクセル、512×512ピクセル、1,024×1,024ピクセルの各解像度において、50枚の生成画像と50枚の真正画像をランダムに並べ替え、全ての解像度で異なる画像を用いて合計400枚の画像を用意した。画像を目視して観察し、真正画像か生成画像かを識別するよう本学小児歯科学教室に所属する12名の小児歯科医に指示した。生成画像と識別した場合、識別に至った判定箇所に手書きで印をつけるよう指示した。その後、判定箇所を集計して識別要素を分類し、各要素が識別に使用された回数を集計した。使用回数の解像度間における差はKruskal-Wallis検定で評価した。また、識別結果から信号検出理論に基づき各小児歯科医のd primeを算出した。d primeは与えられた情報を識別する能力を示す指標であり、判断基準による個人差の影響が少ないといわれている。本研究ではd primeの値が大きいほど正しい画像識別が可能であるといえるため、画像を識別する容易さを測る指標として用いた。d primeはShapiro-Wilk検定およびBartlett検定による正規性の確認後、分散分析(ANOVA)およびTukey's HSD検定を行った。ANOVAの結果から検定力を算出し、評価人数の妥当性を検討した。全ての有意水準は5%とした。

【結果】
 定量的評価では、128×128ピクセル、256×256ピクセル、512×512ピクセルでは学習データの水増しによってSWDが減少し、生成画像の真正画像に対する類似度が向上した。一方で、1,024×1,024ピクセルではSWDが増加し、学習データの水増しにより生成画像の類似度は改善されなかった。定性的評価では、水増しした真正画像を学習したPGGANによる生成画像では、画像の辺縁が明らかに異なるため評価せず、水増ししていない真正画像を学習したPGGANによる生成画像のみを評価した。Shapiro-Wilk検定およびBartlett検定の結果、128×128ピクセル、256×256ピクセル、512×512ピクセル、1,024×1,024ピクセルの各解像度のd primeは正規分布に従い、等分散であることを確認出来たため、ANOVAおよびTukey's HSD検定を適応した。ANOVAの検定力は0.99であり、評価者の人数は十分であった。Tukey’s HSD検定の結果、1,024×1,024ピクセルのd primeは128×128ピクセル、256×256ピクセル、512×512ピクセルに比べて有意に高い値を示し、他の組み合わせでは有意差は認められなかった。画像を識別する際の判定箇所を集計したところ「歯」「歯列」「軟組織」「その他」の4要素に分類され、最も多く使用されていた判定箇所は「歯」であった。各要素の使用回数についてKruskal-Wallis検定を行ったところ、解像度間における有意な差は認められなかった。

【考察】
 1,024×1,024ピクセルだけが有意に高いd primeを示し、SWDも高かった。1,024×1,024ピクセルの生成画像は他の解像度と比較して真正画像との識別が容易であり、類似度が低いと考えられる。512×512ピクセル以下で生成された口腔内写真は小児歯科医が真正画像か生成画像か明確に識別困難であり、類似度の高い画像生成に成功しているといえる。また、小児歯科医が画像を識別する際に最も使用された要素は「歯」であった。「歯列」や「軟組織」の種類よりも「歯」の解剖学的形状の種類が多く、本研究の少ないデータセットでは「歯」の特徴をPGGANが学習して生成することが出来なかったからではないかと考えられる。
 乳歯列期、混合歯列期、永久歯列期の画像を生成する潜在変数を得た後、それらを線形補間することで様々な状態の口腔内写真を生成出来ることが示された。生成された口腔内写真は実在する患者から得た物ではなく、プライバシーが制御された疑似データであるため、教育や患者への説明用資料としての応用や口腔内写真に関する深層学習での水増し手法として性能向上に寄与できる可能性が示された。

この論文で使われている画像

参考文献

Abdal, R., Qin, Y., and Wonka, P. 2019. Image2StyleGAN: How to Embed Images Into the StyleGAN Latent Space? 2019 IEEE/CVF International Conference on Computer Vision (ICCV),

Ahmad, I. 2009. Digital dental photography. British Dental Journal, 207(4), 151-157.

Ching, T., Himmelstein, D. S., Beaulieu-Jones, B. K., Kalinin, A. A., Do, B. T., Way, G. P., Ferrero, E., Agapow, P. M., Zietz, M., Hoffman, M. M., Xie, W., Rosen, G. L., Lengerich, B. J., Israeli, J., Lanchantin, J., Woloszynek, S., Carpenter, A. E., Shrikumar, A., Xu, J., Cofer, E. M., Lavender, C. A., Turaga, S. C., Alexandari, A. M., Lu, Z., Harris, D. J., Decaprio, D., Qi, Y., Kundaje, A., Peng, Y., Wiley, L. K., Segler, M. H. S., Boca, S. M., Swamidass, S. J., Huang, A., Gitter, A., and Greene, C. S. 2018. Opportunities and obstacles for deep learning in biology and medicine (Vol. 15). Journal of the Royal Society Interface.

Cohen, J. 1988. Statistical Power Analysis for the Behavioral Sciences Second Edition. Lawrence Elrbaum Associates.

Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. 2014. Generative Adversarial Networks. arXiv:1406.2661.

畑江 敬子. 1993. 信号検出理論の官能検査への応用. 調理科学, 26(1), 78-87.

Hautus, M. J. 1995. Corrections for extreme proportions and their biasing effects on estimated values ofd′. Behavior Research Methods, Instruments, & Computers, 27(1), 46-51.

He, P., Li, H., and Wang, H. 2019. Detection of Fake Images Via the Ensemble of Deep Representations from Multi Color Spaces. Proceedings - International Conference on Image Processing, ICIP, 2019-Septe, 2299-2303.

Hibbert, K. M., Chhem, R. K., van Deven, T., and Wang, S.-c. 2012. Radiology Education. Springer.

Hsu, C.-C., Zhuang, Y.-X., and Lee, C.-Y. 2020. Deep Fake Image Detection Based on Pairwise Learning. Applied Sciences, 10(1), 370-370.

Isola, P., Zhu, J. Y., Zhou, T., and Efros, A. A. 2017. Image-to-image translation with conditional adversarial networks. Proceedings - 30th IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, 2017-Janua, 5967-5976.

Julien, R., Peyré, G., Delon, J., and Marc, B. 2011. Wasserstein Barycenter and its Application to Texture Mixing. SSVM'11, Israel.

Karras, T., Aila, T., Laine, S., and Lehtinen, J. 2017. Progressive Growing of GANs for Improved Quality, Stability, and Variation. arXiv:1710.10196.

Karras, T., Laine, S., and Aila, T. 2018. A Style-Based Generator Architecture for Generative Adversarial Networks. arXiv:1812.04948.

Karras, T., Laine, S., Aittala, M., Hellsten, J., Lehtinen, J., and Aila, T. 2019. Analyzing and Improving the Image Quality of StyleGAN. arXiv:1912.04958.

Krizhevsky, A., Sutskever, I., and Hinton, G. E. 2017. ImageNet Classification with Deep Convolutional Neural Networks. Communications of the ACM, 60(6), 84- 90.

Liu, Z., Luo, P., Wang, X., and Tang, X. 2014. Deep Learning Face Attributes in the Wild. arXiv:1411.7766.

新國 彰彦, 小村 豊, 沼田 憲治. 2015. 視覚系検出・弁別課題間で異なる主観的確からしさの成立過程. 脳科学とリハビリテーション, 15, 5-15.

Nie, D., Trullo, R., Lian, J., Petitjean, C., Ruan, S., Wang, Q., and Shen, D. 2017. Medical Image Synthesis with Context-Aware Generative Adversarial Networks. Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention, 10435, 417-425.

Odena, A., Olah, C., and Shlens, J. 2017. Conditional image synthesis with auxiliary classifier gans. 34th International Conference on Machine Learning, ICML 2017, 6, 4043-4055.

Radford, A., Metz, L., and Chintala, S. 2015. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. arXiv:1511.06434.

坂上 貴之, 河原 純一郎, 木村 英司, 三浦 佳世, 行場 次郎, 石金 浩史,日本基礎心理学会. 2018. 基礎心理学実験法ハンドブック. 朝倉書店.

Salehinejad, H., Colak, E., Dowdell, T., Barfett, J., and Valaee, S. 2019. Synthesizing Chest X-Ray Pathology for Training Deep Convolutional Neural Networks. IEEE Transactions on Medical Imaging, 38(5), 1197-1206.

Salehinejad, H., Valaee, S., Dowdell, T., Colak, E., and Barfett, J. 2018. Generalization of Deep Neural Networks for Chest Pathology Classification in X-Rays Using Generative Adversarial Networks. ICASSP, IEEE International Conference on Acoustics, Speech and Signal Processing - Proceedings, 2018- April, 990-994.

Togo, R., Ishihara, K., Ogawa, T., and Haseyama, M. 2018. Anonymous Gastritis Image Generation via Adversarial Learning from Gastric X-Ray Images. Proceedings - International Conference on Image Processing, ICIP, 2082-2086.

Togo, R., Ogawa, T., and Haseyama, M. 2019. Synthetic Gastritis Image Generation via Loss Function-Based Conditional PGGAN. IEEE Access, 7, 87448-87457.

Wang, T.-C., Liu, M.-Y., Zhu, J.-Y., Tao, A., Kautz, J., and Catanzaro, B. 2017. High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs. arXiv:1711.11585.

Westerlund, M. 2019. The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review, 9(11), 39-52.

Ying, X. 2019. An Overview of Overfitting and its Solutions. Journal of Physics: Conference Series, 1168, 022022.

Zhu, J. Y., Park, T., Isola, P., and Efros, A. A. 2017. Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision, 2017-Octob, 2242-2251.

参考文献をもっと見る

全国の大学の
卒論・修論・学位論文

一発検索!

この論文の関連論文を見る