Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Sharpening Sparse Regularizers via Smoothing

Tytuł:
Sharpening Sparse Regularizers via Smoothing
Autorzy:
Abdullah H. Al-Shabili
Yining Feng
Ivan Selesnick
Temat:
Sparsity
low-rank
convex analysis
convex optimization
non-convexity
smoothing
Electrical engineering. Electronics. Nuclear engineering
TK1-9971
Źródło:
IEEE Open Journal of Signal Processing, Vol 2, Pp 396-409 (2021)
Wydawca:
IEEE, 2021.
Rok publikacji:
2021
Kolekcja:
LCC:Electrical engineering. Electronics. Nuclear engineering
Typ dokumentu:
article
Opis pliku:
electronic resource
Język:
English
ISSN:
2644-1322
Relacje:
https://ieeexplore.ieee.org/document/9512409/; https://doaj.org/toc/2644-1322
DOI:
10.1109/OJSP.2021.3104497
Dostęp URL:
https://doaj.org/article/c0628eb525e843a98feea27fd704216b  Link otwiera się w nowym oknie
Numer akcesji:
edsdoj.0628eb525e843a98feea27fd704216b
Czasopismo naukowe
Non-convex sparsity-inducing penalties outperform their convex counterparts, but generally sacrifice the cost function convexity. As a middle ground, we propose the sharpening sparse regularizers (SSR) framework to design non-separable non-convex penalties that induce sparsity more effectively than convex penalties such as $\ell _1$ and nuclear norms, but without sacrificing the cost function convexity. The overall problem convexity is preserved by exploiting the data fidelity relative strong convexity. The framework constructs penalties as the difference of convex functions, namely the difference between convex sparsity-inducing penalties and their smoothed versions. We propose a generalized infimal convolution smoothing technique to obtain the smoothed versions. Furthermore, SSR recovers and generalizes several non-convex penalties in the literature as special cases. The SSR framework is applicable to any sparsity regularized least squares ill-posed linear inverse problem. Beyond regularized least squares, the SSR framework can be extended to accommodate Bregman divergence, and other sparsity structures such as low-rankness. The SSR optimization problem can be formulated as a saddle point problem, and solved by a scalable forward-backward splitting algorithm. The effectiveness of the SSR framework is demonstrated by numerical experiments in different applications.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies