リケラボ論文検索は、全国の大学リポジトリにある学位論文・教授論文を一括検索できる論文検索サービスです。

リケラボ 全国の大学リポジトリにある学位論文・教授論文を一括検索するならリケラボ論文検索大学・研究所にある論文を検索できる

リケラボ 全国の大学リポジトリにある学位論文・教授論文を一括検索するならリケラボ論文検索大学・研究所にある論文を検索できる

大学・研究所にある論文を検索できる 「制約付き非平滑最適化に対する不動点劣勾配法」の論文概要。リケラボ論文検索は、全国の大学リポジトリにある学位論文・教授論文を一括検索できる論文検索サービスです。

コピーが完了しました

URLをコピーしました

論文の公開元へ論文の公開元へ
書き出し

制約付き非平滑最適化に対する不動点劣勾配法

菱沼 和弘 明治大学

2020.01.01

概要

制約付き非平滑最適化に対する不動点劣勾配法
著者
page range
year
その他のタイトル
学位授与年度
学位授与番号
URL

菱沼 和弘
1-120
2020-01-01
Fixed Point Subgradient Methods for
Constrained Nonsmooth Optimization
2020
32682甲第977号
http://hdl.handle.net/10291/20868

2019年度 理工学研究科
博士学位請求論文(要旨)
Fixed Point Subgradient Methods for Constrained Nonsmooth Optimization
情報科学専攻
菱沼 和弘

1 問題意識と目的
本論文は、制約付き非平滑最適化問題と、それを解く最適化手法について議論し考察する。制約付き最適
化問題は、目的関数と制約と呼ばれる2つの要素を以て構成される。制約付き最適化問題における目的関数
は、利益、時間、エネルギー、またはそれらの数量の組み合わせによって表現される、最適化の対象となる
指標を表現するものであり、他方制約付き最適化問題における制約は、経済問題における予算制約や、デザ
イン問題における形状制約など、最適化問題を解くことによって得られる解が必ず満足する必要のある条件
を表現する。これらの目的関数や制約が与えられた上で、そのすべての制約を満たしつつ、目的関数を最大
化ないし最小化することが、制約付き最適化問題の目的である。ここで、制約付き最適化問題のうち、その
目的関数が微分できないようなものを制約付き非平滑最適化問題と呼ぶ。本論文では特に、その制約がある
写像の不動点として表現されるような制約付き非平滑最適化問題について取り扱う。
本論文では主として、以下の2種類の制約付き非平滑最適化問題を、その議論の対象として取り扱う。


目的関数がいくつかの凸関数の和として表現されるような制約付き非平滑最適化問題。



目的関数が準凸関数として表現されるような制約付き非平滑最適化問題。

目的関数がいくつかの凸関数の和として表現されるような最適化問題には、多くの応用事例がある。サポー
トベクトルマシンを用いた機械学習において現れる最適化問題は、この典型的な例である。サポートベクト
ルマシンを用いた機械学習の目的は、与えられたデータに対して、そのラベルを正しく推定できるような分
類器を構築することである。サポートベクトルマシンを用いた機械学習は、分類器が各訓練データについて
誤った推定をしてしまう度合いを表現した目的関数それぞれを最小化する最適化問題に帰着することができ
る。すなわち、与えられたすべての訓練データについて正しく推定を行うことのできる分類器を獲得するた
めに、各訓練データに対して表現したそれぞれの目的関数、すなわち誤った推定をしてしまう度合いの総和
を最小化する。サポートベクトルマシンを用いた機械学習と同様に、ニューラルネットワークの訓練も、各
訓練データについての目的関数の総和を最小化する問題に帰着できる。そのほか信号処理、帯域幅割当、ビ
ーム形成等の応用に現れる最適化問題も、非平滑な凸関数の和を、与えられた特定の制約上で最小化する制
約付き最適化問題の一例である。
他方、その目的関数が凸関数としては表現できないような最適化問題も数多く存在する。そのうちのいく
つかについては、その目的関数が凸関数ではないものの、凸な目的関数の持ついくつかの性質は引き続き成
立する準凸関数と呼ばれる関数を目的関数とした、準凸最適化問題と呼ばれる問題のクラスに属する。準凸
関数の典型的な例としては、分数関数が挙げられる。分数関数は、2つの関数の分数として表現される関数
であり、応用事例としては財務・経営計画問題に現れる負債資本倍率、生産計画問題に現れる売上高在庫比
率や売上高人件費比率、また保健医療計画問題に現れる患者対費用比率および患者対看護師比率など、実問
題に現れる比率指標を表現するために用いることができる。
これらの背景を踏まえて、本論文では先に述べた2種類の制約付き非平滑最適化問題を解くための効率的
な手法を提案し、それらの提案手法に対する理論的な収束解析を与え、加えて計算機実験を通じた提案手法
1

の性能評価を行う。本論文の目的は、制約付き非平滑最適化問題を解くための既存の最適化手法に対して、
本論文が提案する各手法の得失を解明することである。

2 構成及び各章の要約
本論文は、4つの章から構成される。
第1章では、本論文で述べる研究の背景を紹介し、加えて本論文において議論する各研究の包括的な説明
を与える。まず、本論文で取り扱う主問題たる制約付き非平滑最適化問題を提示し、その問題を取り扱う学
術的・応用的背景および動機について述べる。次に、この制約付き非平滑最適化問題を解くための手法に関
する既存研究について考察する。特に本論文においては、反復的手順によって問題の解へと収束する点列を
生成する反復法を構成し解析するため、ここでは既存の反復法についての議論と考察を主とする。これらの
既存の反復法についての議論と考察を踏まえて、本論文における提案手法およびその学術的貢献の要点を、
それら既存の反復法との比較を交えて説明する。本章の結びでは、以降の章立てと各章の概要について説明
する。
第2章では、既存の増分劣勾配法および並列型劣勾配法に、自動的かつアルゴリズム的に適切な学習率を
実行時に探索する直線探索法を取り入れた修正手法を提案する。目的関数が凸関数の和の形で表現される最
適化問題は、サポートベクトルマシンを用いた機械学習をはじめとする多くの応用事例を持つ。増分劣勾配
法および並列型劣勾配法は、これらの最適化問題を解くための有用な既存手法である。増分劣勾配法は、目
的関数を構成する各関数の情報を逐次的かつ巡回的に用いることによって与えられた最適化問題を解く手法
であり、他方並列型劣勾配法は、目的関数を構成する各関数の情報を独立的かつ並列に用いることによって
与えられた最適化問題を解く手法である。しかしながらこれらの既存手法は、目的関数を構成する各関数の
情報に基づく更新の度合いを表す学習率を実行前に与える必要があるため、収束が遅くなる現象を生じうる
という欠点がある。これらの既存手法に対して本章で提案する手法は、これら既存の増分劣勾配法および並
列型劣勾配法に直線探索法を取り入れることによって、その学習率の精密な調整を必要とせずに、制約付き
凸最適化問題に対して適用することができる。本章で提案する直線探索法は、既存の機械学習アルゴリズム
で求められる仮定よりも弱い条件で学習率を決定することが可能である。すなわち本章で提案する増分劣勾
配法および並列型劣勾配法は、それぞれ制約付き非平滑凸最適化問題を解くための既存の増分劣勾配法およ
び並列型劣勾配法の拡張となっている。本章では、一定の条件において提案手法が生成する点列が制約付き
非平滑凸最適化問題の解へ収束することを示す。本章の主たる貢献は、3種類の実験を通じて、本章で提案
する直線探索法を取り入れた新しい増分劣勾配法および並列型劣勾配法が、具体的な問題について既存の増
分劣勾配法および並列型劣勾配法よりも高速に解けることを示すことである。最初の実験では、テスト問題
に対して既存および本章で提案する増分劣勾配法および並列型劣勾配法を適用することにより、提案手法が
既存手法に対して性能上の利点を有することを示す。続いて具体的なデータセットを用いたサポートベクト
ルマシンを用いた機械学習への適用について、サポートベクトルマシンを用いた機械学習を効率的に行うた
めに設計された Pegasos と呼ばれる既存のアルゴリズムに対して、本章で提案する増分劣勾配法および並列
型劣勾配法の性能を、その正答率、目的関数値、および計算時間の3つの観点から比較する。最後に、本章
で提案する手法を多層ニューラルネットワークの訓練に適用し、その深層学習への活用可能性について議論
する。
第3章では、制約付き準凸最適化問題と呼ばれる最適化問題を解くために、計算可能な非拡大写像を用い
た新しい手法である不動点準凸劣勾配法を提案する。本章で扱う制約付き準凸最適化問題は、経済学、工学、
数理科学など多くの分野に現れる最適化問題である。特に、費用対効果などといった比率指標を表現するこ
とのできる分数計画は、制約付き準凸最適化問題の重要な応用事例である。劣勾配法とその変種は、制約付
き準凸最適化問題を効率的に解くことのできる有用な既存手法である。これらの既存の劣勾配法とその変種
は、その計算の過程で制約集合に対する距離射影を用いるが、実問題に現れる制約付き準凸最適化問題にお
いては、その距離射影を現実的な時間内に求めることのできないような複雑な制約集合を有するような最適
2

化問題も少なくない。これは、既存の劣勾配法とその変種が、これらの複雑な制約集合を有する準凸最適化
問題に対しては適用できないことを意味している。他方、不動点理論を用いると、その不動点集合が、例と
していくつかの集合の共通部分として表現されるような複雑な制約集合と一致するような、かつ計算可能な
非拡大写像を構成することができる。本章では、提案手法の収束性について、定数更新幅および漸減更新幅
の2種類を与えた際に成り立つ解析を、それぞれ与える。加えて、既存の劣勾配法と本章で提案する不動点
準凸劣勾配法について具体的な問題に適用し、その数値比較を行うことよって、既存の劣勾配法が制限時間
を超過するような複雑な最適化問題に対しても、本章で提案する不動点準凸劣勾配法は安定してかつ高速に
解くことができることを示す。
第4章では、前章で提案した制約付き準凸最適化問題を解くための不動点準凸劣勾配法によって生成され
る点列の、収束率解析について議論する。不動点準凸劣勾配法は、前章における議論の通り、非拡大写像の
不動点集合上において準凸関数を最小化する制約付き準凸最適化問題を解くことができる。前章での結果を
踏まえて本章では、不動点準凸劣勾配法が生成する点列について、目的関数値および制約集合への距離の双
方に関して、その収束率の理論的な解析を議論することにより、制約付き準凸最適化問題へ適用した際の不
動点準凸劣勾配法の効率性について評価を行う。加えて、不動点準凸劣勾配法が生成する点列が、有限回の
反復を以て与えられた制約付き準凸最適化問題の最適解に収束するための十分条件を与える定理についても、
ここで示す。

3

この論文で使われている画像

参考文献

[1] D. Aussel. New developments in quasiconvex optimization. In S. A. R. Al-Mezel,

F. R. M. Al-Solamy, and Q. H. Ansari, editors, Fixed Point Theory, Variational

Analysis, and Optimization, chapter 5, pages 139–169. Chapman and Hall/CRC,

2014.

[2] H. H. Bauschke and P. L. Combettes. Convex Analysis and Monotone Operator

Theory in Hilbert Spaces. Springer International Publishing, second edition, 2017.

[3] C. Beltran and F. J. Heredia. An effective line search for the subgradient method.

Journal of Optimization Theory and Applications, 125(1):1–18, 2005.

[4] V. Berinde. Iterative Approximation of Fixed Points, volume 1912 of Lecture

Notes in Mathematics. Springer–Verlag, Berlin Heidelberg, 2007.

[5] D. P. Bertsekas, A. Nedic, and A. E. Ozdaglar. Convex Analysis and Optimization. Athena Scientific, 2003.

[6] L. Bottou. Stochastic gradient learning in neural networks. In Proceedings of

Neuro-Nˆımes 91, Nimes, France, 1991. EC2.

[7] S. P. Bradley and S. C. Frey. Fractional programming with homogeneous functions. Operations Research, 22(2):350–357, 1974.

[8] Y. Censor and A. Segal. Algorithms for the quasiconvex feasibility problem.

Journal of Computational and Applied Mathematics, 185(1):34–50, 2006.

[9] Y. Cheung and J. Lou. Proximal average approximated incremental gradient

descent for composite penalty regularized empirical risk minimization. Machine

Learning, 106(4):595–622, 2017.

[10] P. L. Combettes. A block-iterative surrogate constraint splitting method for

quadratic signal recovery. IEEE Transactions on Signal Processing, 51(7):1771–

1782, 2003.

[11] P. L. Combettes and P. Bondon. Hard-constrained inconsistent signal feasibility

problems. IEEE Transactions on Signal Processing, 47(9):2460–2468, 1999.

[12] P. L. Combettes and J. C. Pesquet. A douglas–rachford splitting approach to

nonsmooth convex variational signal recovery. IEEE Journal of Selected Topics

in Signal Processing, 1(4):564–574, 2007.

[13] N. Cristianini, J. Shawe-Taylor, et al. An introduction to support vector machines

and other kernel-based learning methods. Cambridge university press, 2000.

[14] J. Y. B. Cruz and W. D. Oliveira. On weak and strong convergence of the projected gradient method for convex optimization in real Hilbert spaces. Numerical

Functional Analysis and Optimization, 37(2):129–144, 2016.

[15] D. Dheeru and E. K. Taniskidou. UCI machine learning repository, 2017.

116

[16] M. E. Dyer. Calculating surrogate constraints. Mathematical Programming,

19(1):255–278, 1980.

[17] K. Fujiwara, K. Hishinuma, and H. Iiduka. Evaluation of stochastic approximation algorithm and variants for learning support vector machines. Linear and

Nonlinear Analysis, 4(1):29–61, 2018.

[18] H. Greenberg and W. Pierskalla. Quasi-conjugate functions and surrogate duality.

Cahiers Centre Etudes

Recherche Op´er, 15:437–448, 1973.

[19] N. Hadjisavvas. Convexity, generalized convexity, and applications. In S. A. R.

Al-Mezel, F. R. M. Al-Solamy, and Q. H. Ansari, editors, Fixed Point Theory,

Variational Analysis, and Optimization, chapter 4, pages 139–169. Chapman and

Hall/CRC, 2014.

[20] B. Halpern. Fixed points of nonexpansive maps. Bulletin of the American Mathematical Society, 73:957–961, 1967.

[21] G. H. Hardy, J. E. Littlewood, and G. P´olya. Inequalities. Cambridge University

Press, second edition, 1988.

[22] W. L. Hare and Y. Lucet. Derivative-free optimization via proximal point methods. Journal of Optimization Theory and Applications, 160(1):204–220, 2014.

[23] Y. Hayashi and H. Iiduka. Optimality and convergence for convex ensemble

learning with sparsity and diversity based on fixed point optimization. Neurocomputing, 273:367–372, 2018.

[24] K. Hishinuma and H. Iiduka. Parallel subgradient method for nonsmooth convex

optimization with a simple constraint. Linear and Nonlinear Analysis, 1(1):67–

77, 2015.

[25] K. Hishinuma and H. Iiduka. Convergence property, computational performance,

and usability of fixed point quasiconvex subgradient method. the 6th Asian

Conference on Nonlinear Analysis and Optimization (Oral), 2017.

[26] K. Hishinuma and H. Iiduka. Flexible stepsize selection of subgradient methods for constrained convex optimization. the 10th Anniversary Conference on

Nonlinear Analysis and Convex Analysis (Oral), 2017.

[27] K. Hishinuma and H. Iiduka. Iterative method for solving constrained quasiconvex optimization problems based on the Krasnosel’ski˘ı-Mann fixed point approximation method. RIMS Workshop on Nonlinear Analysis and Convex Analysis

(Oral), 2017.

[28] K. Hishinuma and H. Iiduka. Convergence analysis of incremental and parallel

line search subgradient methods in Hilbert space. Journal of Nonlinear and

Convex Analysis, 20(9):1937–1947, 2019.

[29] K. Hishinuma and H. Iiduka. Convergence rate analyses of fixed point quasiconvex subgradient method. Joint Conference NACA-ICOTA2019: International

Conference on Nonlinear Analysis and Convex Analysis, International Conference on Optimization: Techniques and Applications (Oral), 2019.

[30] K. Hishinuma and H. Iiduka. Incremental and parallel machine learning algorithms with automated learning rate adjustments. Frontiers in Robotics and AI,

6:77, 2019.

117

[31] K. Hishinuma and H. Iiduka. Fixed point quasiconvex subgradient method. European Journal of Operational Research, 282(2):428–437, 2020.

[32] K. Hishinuma and H. Iiduka. Supplementary data S1 for the article entitled

“fixed point quasiconvex subgradient method”. https://doi.org/10.1016/j.

ejor.2019.09.037, 2020.

[33] Y. Hu, X. Yang, and C.-K. Sim. Inexact subgradient methods for quasi-convex

optimization problems. European Journal of Operational Research, 240(2):315–

327, 2015.

[34] Y. Hu, C. K. W. Yu, and C. Li. Stochastic subgradient method for quasi-convex

optimization problems. Journal of Nonlinear and Convex Analysis, 17(4):711–

724, 2016.

[35] Y. Hu, C. K. W. Yu, C. Li, and X. Yang. Conditional subgradient methods

for constrained quasi-convex optimization problems. Journal of Nonlinear and

Convex Analysis, 17(10):2143–2158, 2016.

[36] H. Iiduka. Iterative algorithm for solving triple-hierarchical constrained optimization problem. Journal of Optimization Theory and Applications, 148(3):580–592,

2011.

[37] H. Iiduka. Fixed point optimization algorithm and its application to power control in CDMA data networks. Mathematical Programming, 133(1):227–242, 2012.

[38] H. Iiduka. Iterative algorithm for triple-hierarchical constrained nonconvex optimization problem and its application to network bandwidth allocation. SIAM

Journal on Optimization, 22(3):862–878, 2012.

[39] H. Iiduka. Fixed point optimization algorithms for distributed optimization in

networked systems. SIAM Journal on Optimization, 23(1):1–26, 2013.

[40] H. Iiduka. Acceleration method for convex optimization over the fixed point set

of a nonexpansive mapping. Mathematical Programming, 149(1):131–165, 2015.

[41] H. Iiduka. Parallel computing subgradient method for nonsmooth convex optimization over the intersection of fixed point sets of nonexpansive mappings.

Fixed Point Theory and Applications, 2015:72, 2015.

[42] H. Iiduka. Convergence analysis of iterative methods for nonsmooth convex optimization over fixed point sets of quasi-nonexpansive mappings. Mathematical

Programming, 159(1):509–538, 2016.

[43] H. Iiduka. Incremental subgradient method for nonsmooth convex optimization

with fixed point constraints. Optimization Methods and Software, 31(5):931–951,

2016.

[44] H. Iiduka. Line search fixed point algorithms based on nonlinear conjugate gradient directions: Application to constrained smooth convex optimization. Fixed

Point Theory and Applications, 2016:77, 2016.

[45] H. Iiduka. Proximal point algorithms for nonsmooth convex optimization with

fixed point constraints. European Journal of Operational Research, 253(2):503–

513, 2016.

[46] H. Iiduka. Almost sure convergence of random projected proximal and subgradient algorithms for distributed nonsmooth convex optimization. Optimization,

66(1):35–59, 2017.

118

[47] H. Iiduka. Distributed optimization for network resource allocation with nonsmooth utility functions. IEEE Transactions on Control of Network Systems,

6(4):1354–1365, 2018.

[48] H. Iiduka. Stochastic fixed point optimization algorithm for classifier ensemble.

IEEE Transactions on Cybernetics, pages 1–11, 2019.

[49] H. Iiduka and K. Hishinuma. Acceleration method combining broadcast and

incremental distributed optimization algorithms. SIAM Journal on Optimization,

24(4):1840–1863, 2014.

[50] H. Iiduka and M. Uchida. Fixed point optimization algorithms for network bandwidth allocation problems with compoundable constraints. IEEE Communications Letters, 15(6):596–598, 2011.

[51] E. Jones, T. Oliphant, P. Peterson, et al. SciPy: Open source scientific tools for

Python, 2001–. [Online; accessed Aug. 16, 2018].

[52] F. Kelly. Charging and rate control for elastic traffic. European transactions on

Telecommunications, 8(1):33–37, 1997.

[53] K. C. Kiwiel. Convergence and efficiency of subgradient methods for quasiconvex

minimization. Mathematical Programming, 90(1):1–25, 2001.

[54] I. V. Konnov. On convergence properties of a subgradient method. Optimization

Methods and Software, 18(1):53–62, 2003.

[55] M. A. Krasnosel’ski˘ı. Two remarks on the method of successive approximations.

Uspekhi Matematicheskikh Nauk, 10(1(63)):123–127, 1955.

[56] T. Larsson, M. Patriksson, and A.-B. Str¨omberg. Conditional subgradient

optimization—theory and applications. European Journal of Operational Research, 88(2):382–403, 1996.

[57] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Gradient-based learning applied

to document recognition. Proceedings of the IEEE, 86(11):2278–2324, 1998.

[58] Y. LeCun, C. Cortes, and C. J. C. Burges. The mnist database of handwritten

digits, 1998.

[59] C.-Y. Lee, A. L. Johnson, E. Moreno-Centeno, and T. Kuosmanen. A more

efficient algorithm for convex nonparametric least squares. European Journal of

Operational Research, 227(2):391–400, 2013.

[60] E. Leopold and J. Kindermann. Text categorization with support vector machines. how to represent texts in input space? Machine Learning, 46(1):423–444,

2002.

[61] C.-J. Lin. LIBSVM data: Classification, regression, and multi-label, 2017.

[62] Y. Lin, Y. Lee, and G. Wahba. Support vector machines for classification in

nonstandard situations. Machine Learning, 46(1):191–202, 2002.

[63] W. R. Mann. Mean value methods in iteration. Proceedings of the American

Mathematical Society, 4:506–510, 1953.

[64] M. Meiss, F. Menczer, S. Fortunato, A. Flammini, and A. Vespignani. Ranking

web sites with real user traffic. In Proc. First ACM International Conference on

Web Search and Data Mining (WSDM), pages 65–75, 2008.

[65] Message Passing Interface Forum. MPI: A Message-Passing Interface Standard,

Version 3.1. High-Performance Computing Center Stuttgart, 2015.

119

[66] A. Nedi´c and D. Bertsekas. Convergence Rate of Incremental Subgradient Algorithms, pages 223–264. Springer US, Boston, MA, 2001.

[67] A. Nedi´c and D. P. Bertsekas. Incremental subgradient methods for nondifferentiable optimization. SIAM Journal on Optimization, 12(1):109–138, 2001.

[68] J. Nocedal and S. J. Wright. Numerical Optimization. Springer-Verlag New York,

second edition, 2006.

[69] T. Oliphant. A guide to NumPy. Trelgol Publishing, USA, 2006.

[70] Z. Opial. Weak convergence of the sequence of successive approximations for nonexpansive mappings. Bulletin of the American Mathematical Society, 73(4):591–

597, 1967.

[71] P. S. Pacheco. Parallel Programming with MPI. Morgan Kaufmann, 1996.

[72] C. Pan, C. Yin, N. C. Beaulieu, and J. Yu. Distributed resource allocation in

sdcn-based heterogeneous networks utilizing licensed and unlicensed bands. IEEE

Transactions on Wireless Communications, 17(2):711–721, 2018.

[73] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel,

M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos,

D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. Scikit-learn: Machine

learning in Python. Journal of Machine Learning Research, 12:2825–2830, 2011.

[74] J.-P. Penot. Are generalized derivatives useful for generalized convex functions?

In J.-P. Crouzeix, J.-E. Martinez-Legaz, and M. Volle, editors, Generalized Convexity, Generalized Monotonicity: Recent Results, Nonconvex Optimization and

Its Applications, volume 27, pages 3–59. Kluwer Academic Publishers, 1998.

[75] F. Plastria. Lower subdifferentiable functions and their minimization by cutting

planes. Journal of Optimization Theory and Applications, 46(1):37–53, 1985.

[76] J. Platt. Sequential minimal optimization: A fast algorithm for training support

vector machines. Technical report, 1998.

[77] B. T. Polyak. Introduction to optimization. translation series in mathematics

and engineering. Optimization Software, 1987.

[78] S. Pradhan, K. Hacioglu, V. Krugler, W. Ward, J. H. Martin, and D. Jurafsky.

Support vector learning for semantic argument classification. Machine Learning,

60(1):11–39, 2005.

[79] S. Raschka. Python machine learning. Packt Publishing Ltd, 2015.

[80] R. T. Rockafellar. Monotone operators associated with saddle-functions and

minimax problems. Nonlinear functional analysis, 18(I):397–407, 1970.

[81] R. T. Rockafellar and R. J.-B. Wets. Variational analysis, volume 317. Springer

Science & Business Media, 2009.

[82] K. Sakurai and H. Iiduka. Acceleration of the Halpern algorithm to search for

a fixed point of a nonexpansive mapping. Fixed Point Theory and Applications,

2014(202), 2014.

[83] S. Shalev-Shwartz, Y. Singer, N. Srebro, and A. Cotter. Pegasos: primal estimated sub-gradient solver for SVM. Mathematical Programming, 127(1):3–30,

2011.

[84] K. Shimizu, K. Hishinuma, and H. Iiduka. Parallel computing proximal

method for nonsmooth convex optimization with fixed point constraints of quasi-

120

[85]

[86]

[87]

[88]

[89]

[90]

[91]

[92]

[93]

[94]

[95]

[96]

nonexpansive mappings. Applied Set-Valued Analysis and Optimization (accepted).

K. Slavakis and I. Yamada. Robust wideband beamforming by the hybrid steepest

descent method. IEEE Transactions on Signal Processing, 55(9):4511–4522, 2007.

I. M. Stancu-Minasian. Fractional Programming: Theory, Methods and Applications. Kluwer Academic Publishers, 1997.

W. Takahashi. Introduction to Nonlinear and Convex Analysis. Yokohama Publishers, Inc., Yokohama, 2009.

T. X. Tran and D. Pompili. Joint task offloading and resource allocation for

multi-server mobile-edge computing networks. IEEE Transactions on Vehicular

Technology, 68(1):856–868, 2019.

W. F. Trench. Introduction to Real Analysis. Pearson Education, 2003.

O. Tutsoy and M. Brown. An analysis of value function learning with piecewise linear control. Journal of Experimental & Theoretical Artificial Intelligence,

28(3):529–545, 2016.

O. Tutsoy and M. Brown. Reinforcement learning analysis for a minimum time

balance problem. Transactions of the Institute of Measurement and Control,

38(10):1186–1200, 2016.

P. Wolfe. Convergence conditions for ascent methods. SIAM review, 11(2):226–

235, 1969.

I. Yamada. The hybrid steepest descent method for the variational inequality

problem over the intersection of fixed point sets of nonexpansive mappings. In

D. Butnariu, Y. Censor, and S. Reich, editors, Inherently Parallel Algorithms

in Feasibility and Optimization and their Applications, volume 8 of Studies in

Computational Mathematics, pages 473–504. Elsevier, 2001.

I. Yamada and N. Ogura. Hybrid steepest descent method for variational inequality problem over the fixed point set of certain quasi-nonexpansive mappings.

Numerical Functional Analysis and Optimization, 25(7-8):619–655, 2005.

G. Yuan, Z. Meng, and Y. Li. A modified Hestenes and Stiefel conjugate gradient algorithm for large-scale nonsmooth minimizations and nonlinear equations.

Journal of Optimization Theory and Applications, 168(1):129–152, 2016.

T. Zhang. Analysis of multi-stage convex relaxation for sparse regularization.

Journal of Machine Learning Research, 11:1081–1107, 2010.

Manuscript received November 15th, 2019

revised February 7th, 2020

...

参考文献をもっと見る