Доступ открыт Открытый доступ  Доступ закрыт Только для подписчиков

Метод извлечения фона в естественных изображениях, полученных от фотоловушек


https://doi.org/10.31799/1684-8853-2018-6-35-45

Полный текст:


Аннотация

Постановка проблемы: автоматическое обнаружение животных и птиц в природе на изображениях, полученных от фотоловушек, остается нерешенной проблемой из-за условий съемки и погодных факторов. В результате таких наблюдений формируется большой объем изображений, тысячи или миллионы, которые невозможно анализировать вручную. Обычно в заповедниках и национальных парках используются бюджетные фотоловушки. Поэтому низкокачественные изображения, полученные с их помощью, требуют тщательной многократной обработки перед тем, как распознавать виды животных или птиц. Цель: разработка метода извлечения фона на основе модели смеси гауссианов для обнаружения объекта интереса при любых временных/сезонных/метеорологических условиях. Результаты: предложен метод извлечения фона на основе модифицированной модели смеси гауссианов. Модификация заключается в усечении значений пикселов (младшие разряды) для уменьшения зависимости от изменений освещенности и наличия теней с последующим созданием и обработкой бинарных масок вместо реальных значений интенсивностей. Предлагаемый метод предназначен для оценки фона естественных сцен в заповедниках и национальных парках. Структурные элементы (стволы растущих и (или) упавших деревьев) считаются регионами, медленно изменяющимися в течение сезонов, в то время как другие текстурированные области моделируются текстурными шаблонами, соответствующими текущему сезону. Такой подход обеспечивает компактную модель фона сцены. Помимо этого, мы рассматриваем влияние временных/сезонных/метеорологических атрибутов сцены относительно возможности ее восстановления. Метод был протестирован с использованием богатого набора данных естественных изображений, полученных на территории заповедника «Ергаки», Красноярский край, Россия. Практическая значимость: применение модифицированной модели смеси гауссианов показывает точность распознавания объектов 79–83 % в дневное время и 60–69 % в ночное время суток при нормальных метеорологических условиях. При этом точность восстановленных изображений, полученных при плохих метеорологических условиях, снижается на 5–8 %.


Об авторах

М. Н. Фаворская
Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнёва
Россия

Фаворская Маргарита Николаевна - профессор, заведующая кафедрой информатики и вычислительной техники Сибирского государственного университета науки и технологий им. академика М. Ф. Решетнёва, Красноярск. В 1980 году окончила Рыбинский авиационный технологический институт по специальности «Конструирование и производство электронно-вычислительной аппаратуры». В 2011 году защитила диссертацию на соискание ученой степени доктора технических наук. Является автором около 160 научных публикаций.

Область научных интересов — распознавание образов, цифровая обработка изображений, кластерный анализ, интеллектуальные технологии обработки данных и др.

Красноярский рабочий пр., 31, Красноярск, 660037.



В. В. Буряченко
Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнёва
Россия

Буряченко Владимир Викторович - канд. техн. наук, доцент, кафедра информатики и вычислительной техники Сибирского государственного университета науки и технологий им. академика М. Ф. Решетнёва, Красноярск. В 2011 году окончил магистратуру Сибирского государственного аэрокосмического университета им. академика М. Ф. Решетнёва по специальности «Интеллектуальные системы». В 2014 году защитил диссертацию на соискание ученой степени кандидата технических наук. Является автором 23 научных публикаций и двух свидетельств на регистрацию программных продуктов.

Область научных интересов — цифровая обработка изображений и видеопоследовательностей, стабилизация видео.

Красноярский рабочий пр., 31, Красноярск, 660037.



Список литературы

1. Bouwmans T. Recent advanced statistical background modeling for foreground detection — a systematic survey. Recent Patents on Computer Science, 2011, vol. 4, no. 3, pp. 147–176.

2. Bouwmans T. Traditional and recent approaches in background modeling for foreground detection: an overview. Computer Science Review, 2014, vol. 11–12, pp. 31–66.

3. Hung M. H., Pan J. S., Hsieh C. H. Speed up temporal median filter for background subtraction. International Conference on Pervasive Computing Signal Processing & Applications, 2010, pp. 297–300.

4. Yi Z., Fan L. Moving object detection based on running average background and temporal difference. International Conference on Intelligent Systems and Knowledge Engineering, 2010, pp. 270–272.

5. Stauffer C., Grimson W. E. L. Learning patterns of activity using real-time tracking. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, vol. 22, no. 8, pp. 747–757.

6. Zhang Y., Liang Z., Hou Z., Wang H., Tan M. An adaptive mixture Gaussian background model with online background reconstruction and adjustable foreground mergence time for motion segmentation. IEEE International Conference on Industrial Technology, 2005, pp. 23–27.

7. Kim H., Sakamoto R., Kitahara I., Toriyama T., Kogure K. Robust foreground extraction technique using Gaussian family model and multiple thresholds. Asian Conference on Computer Vision, 2007, pp. 758–768.

8. Bouwmans T., El Baf F. Modeling of dynamic backgrounds by type-2 fuzzy Gaussians mixture models. MASAUM Journal of Basic and Applied Sciences, 2010, vol. 1, no. 2, pp. 265–276.

9. Shah M., Deng J., Woodford B. Illumination invariant background model using mixture of Gaussians and SURF features. International Workshop on Background Models Challenge, Asian Conference on Computer Vision, 2012, pp. 308–314.

10. Elguebaly T., Bouguila N. Background subtraction using finite mixtures of asymmetric Gaussian distributions and shadow detection. Machine Vision and Applications, 2014, vol. 25, no. 5, pp. 1145–1162.

11. Alvar M., Rodriguez-Calvo A., Sanchez-Miralles A., Arranz A. Mixture of merged Gaussian algorithm using RTDENN. Machine Vision and Applications, 2014, vol. 25, no. 5, pp. 1133–1144.

12. Elgammal A., Harwood D., Davis L. Non-Parametric Model for background subtraction. The 6th European Conference on Computer Vision, 2000, part II, LNCS, vol. 1843, pp. 751–767.

13. Zhang R., Gong W., Yaworski A., Greenspan M. Nonparametric on-line background generation for surveillance video. The 21st International Conference on Pattern Recognition, 2012, pp. 1177–1180.

14. Liu Z., Huang K., Tan T. Foreground object detection using top-down information based on EM framework. IEEE Transactions on Image Processing, 2012, vol. 21, no. 9, pp. 4204–4217.

15. Kim K., Chalidabhongse T. H., Harwood D., Davis L. Real-time foreground–background segmentation using codebook model. Real-Time Imaging, 2005, vol. 11, no. 3, pp. 172–185.

16. Guo J. M., Hsia C. H., Liu Y. F., Shih M. H. Fast background subtraction based on a multilayer codebook model for moving object detection. IEEE Transactions on Circuits and Systems for Video Technology, 2013, vol. 23, no. 10, pp. 1809–1821.

17. Barnich O., Van Droogenbroeck M. ViBe: a universal background subtraction algorithm for video sequences. IEEE Transactions on Image Processing, 2011, vol. 20, no. 6, pp. 1709–1724.

18. Guang H., Wang J., Xi C. Improved visual background extractor using an adaptive distance threshold. Journal of Electronic Imaging, 2014, vol. 23, no. 6, pp. 063005-1–063005-12.

19. Huynh-The T., Banos O., Lee S., Kang B. H., Kim E. S., Le-Tien T. NIC: a robust background extraction algorithm for foreground detection in dynamic sce- nes. IEEE Transactions on Circuits and Systems for Video Technology, 2017, vol. 27, no. 7, pp. 1478–1490.

20. Ge W., Guo Z., Dong Y., Chen Y. Dynamic background estimation and complementary learning for pixel-wise foreground/background segmentation. Pattern Recognition, 2016, vol. 59, pp. 112–125.

21. McHugh J. M., Konrad J., Saligrama V., Jodoin P. M. Foreground-adaptive background subtraction. IEEE Signal Processing Letters, 2009, vol. 16, no. 5, pp. 390–393.

22. Heikkilä M., Pietikäinen M. A Texture-based method for modeling the background and detecting moving objects. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, vol. 28, no. 4, pp. 657– 662.

23. Favorskaya M. N., Damov M. V., Zotin A. G. Intelligent method of texture reconstruction in video sequences based on neural networks. International Journal of Reasoning-based Intelligent Systems, 2013, vol. 5, no. 4, pp. 223–236.

24. Favorskaya M., Jain L. C., Bolgov A. Image inpainting based on self-organizing maps by using multi-agent implementation. Procedia Computer Science, 2014, vol. 35, pp. 861–870.

25. Uijlings J. R., van de Sande K. E., Gevers T., Smeulders A. W. Selective search for object recognition. International Journal Computer Vision, 2013, vol. 104, no. 2, pp. 154–171.

26. Krahenbuhl P., Koltun V. Geodesic object proposals. Proceeding European Conference Computer Vision, 2014, pp. 725–739.

27. Fragkiadaki K., Arbelaez P., Felsen P., Malik J. Learning to segment moving objects in videos. Proceeding IEEE Conference Computer Vision Pattern Recognition, 2015, pp. 4083–4090.

28. Perazzi F., Wang O., Gross M., Sorkine-Hornung A. Fully connected object proposals for video segmentation. Proceeding IEEE International Conference Computer Vision, 2015, pp. 3227–3234.

29. Zhang Z., He Z., Cao G., & Cao W. Animal detection from highly cluttered natural scenes using spatiotemporal object region proposals and patch verification. IEEE Transactions on Multimedia, 2016, vol. 18, no. 10, pp. 2079–2092.

30. Redmon J., Divvala S., Girshick R., Farhadi A. You only look once: Unified, real-time object detection CoRR. 2015. Available at: http://arxiv.org/abs/1506.02640 (accessed 5 August 2013).

31. Girshick R. Fast r-CNN. Proceeding International Conference Computer Vision, 2015, pp. 1440–1448.

32. Shaoqing Ren K. H., Ross Girshick J. S. Faster R-CNN: Towards real-time object detection with region proposal networks. Advances in Neural Information Processing Systems, 2015, pp. 91–99.


Дополнительные файлы

Для цитирования: Фаворская М.Н., Буряченко В.В. Метод извлечения фона в естественных изображениях, полученных от фотоловушек. Информационно-управляющие системы. 2018;(6):35-45. https://doi.org/10.31799/1684-8853-2018-6-35-45

For citation: Favorskaya M.N., Buryachenko V.V. Background extraction method for analysis of natural images captured by camera traps. Information and Control Systems. 2018;(6):35-45. https://doi.org/10.31799/1684-8853-2018-6-35-45

Просмотров: 119


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1684-8853 (Print)
ISSN 2541-8610 (Online)