Простий та ефективний фреймворк злиття для зображень з камер спостереження
- Деталі
- Категорія: Інформаційні технології, системний аналіз та керування
- Останнє оновлення: 22 січня 2017
- Опубліковано: 22 січня 2017
- Перегляди: 3752
Authors:
Лілі Чен, Лабораторія інтелектуальної обробки інформації, Сучжоу університет, Сучжоу, Китай
Хунцзюнь Го, Лабораторія інтелектуальних обчислень і обробки сигналів Міністерства освіти, Аньхой університет, Хефей, Китай
Abstract:
Мета. З метою вирішення проблеми злиття зображень спостереження в даній роботі пропонується простий та ефективний фреймворк злиття з використанням блочного стиснення вимірювань (BCSS), що складається з двох методів синтезу з використанням базового BCSS і ковзаючого BCSS відповідно.
Методика. За переваги низької частоти дискретизації та низької вимірювальної складності, в обробці сигналів широко використовується теорія стискування вимірів (CS). Основний алгоритм BCSS представляє собою базовий варіант блочного CS, в якому вихідне зображення розділяється на окремі блоки, а ковзаючий BCSS є модифікованою версією базового BCSS, запропонованого раніше, в якому зображення ділиться на невеликі ковзаючі блоки для кожного пікселя з відповідним відступом. Основна ідея фреймворка злиття полягає у виборі блоків чи пікселів з великою L2‑нормою BCSS результатів вимірювань розділених блоків у просторовій області.
Результати. Фреймворк злиття протестовано на трьох парах зображень у відтінках сірого, у тому числі інфрачервоному та видимому зображеннях, міліметровому та видимому зображеннях, і проведене порівняння з декількома традиційними методами синтезу. Експериментальні результати показують, що запропонований фреймворк злиття може одночасно значно покращити якість злиття та швидкість.
Наукова новизна. Уперше запропоновано простий та ефективний фреймворк злиття з використанням BCSS у просторовій області.
Практична значимість. Результат має практичне значення для відеоспостереження в режимі реального часу.
References/Список літератури
1. Li, S., Kang, X., Fang, L., Hu, J. and Yin, H., 2016. Pixel-level image fusion: A survey of the state of the art. Information Fusion, Vol. 33, pp. 100–112.
2. Adu, J., Gan, J., Wang, Y. and Huang, J., 2013. Image fusion based on nonsubsampled contourlet transform for infrared and visible light image. Infrared Physics & Technology, Vol. 61, pp. 94–100.
3. Hu, D., Shi, H., and Jiang, W., 2016. Infrared and visible image fusion using multiscale top-Hat transform and modified adaptive dual-channel pcnn. Revista Tecnica De La Facultad De Ingenieria Universidad Del Zulia, Vol. 39, No. 3, pp. 173–180.
4. Oliver Rockinger image fusion toolbox. [online] Available at: <http://www.metapix.de/toolbox.htm>.
5. Li, C., Ye, H., and Ye, J., 2016. Image fusion based on curvelet transform and principal component analysis. Revista Tecnica De La Facultad De Ingenieria Universidad Del Zulia, Vol. 39, No. 1, pp. 392–396.
6. Gan, L., 2007. Block compressed sensing of natural images. In: Proc. 15th International conference on digital signal processing, pp. 403–406.
7. Mun, S. and Fowler, J. E., 2009. Block compressed sensing of images using directional transforms. In: Proc. 16th IEEE international conference on image processing, pp. 3021–3024.
8. Haghighat, M.B.A., Aghagolzadeh, A. and Seyedarabi, H., 2011. A non-reference image fusion metric based on mutual information of image features. Computers & Electrical Engineering, Vol. 37, No. 5, pp. 744–756.
9. Wang, Z., Bovik, A.C., Sheikh, H.R. and Simoncelli, E. P., 2004. Image quality assessment: from error visibility to structural similarity. IEEE transactions on image processing, Vol. 13, No. 4, pp. 600–612.
10. Petrovic, V. and Xydeas, C., 2005. Objective image fusion performance characterization. In: Proc. 10th IEEE International Conference on Computer Vision, Vol. 2, pp. 1866–1871.
06_2016_Lili | |
2017-01-19 2.32 MB 884 |