Please use this identifier to cite or link to this item: http://lib.kart.edu.ua/handle/123456789/32279
Title: Adaptive behaviour tuning of a neural network-based method for moving object recognition in video streams
Other Titles: Адаптивне налаштування поведінки нейромережевого методу розпізнавання рухомих об'єктів у відеопотоці
Authors: Sadovnykov, Borys
Lysechko, Volodymyr
Садовников, Борис Ігорович
Лисечко, Володимир Петрович
Keywords: video stream
computer vision
image processing
computational resources
neural networks
object recognition
adaptive algorithms
telecommunication systems
відеопотік
комп'ютерний зір
обробка зображень
обчислювальні ресурси
нейронні мережі
розпізнавання зображень
адаптивні алгоритми
телекомунікаційні системи
Issue Date: 2025
Publisher: Луцький національний технічний університет
Citation: Sadovnykov B. Adaptive behaviour tuning of a neural network-based method for moving object recognition in video streams / B. Sadovnykov, V, Lysechko. Computer-integrated technologies: education, science, production. 2025. № 59. P. 53-62.
Abstract: EN: The article presents an improvement of the method for searching and recognizing moving objects in video streams in real time, which is based on calculating interframe differences (deltas) and using a neural classifier. A mechanism for adaptive behaviour tuning of the method depending on the characteristics of the input data is proposed, which makes it possible to increase the recognition accuracy and processing speed under changing background conditions and limited computational resources. The developed method is an evolutionary adaptive mechanism, that allows the algorithm to gradually change its processing strategies based on the collected data, forming a heat map and optimising its performance for the specifics of a particular environment. To evaluate the effectiveness, an experimental comparison of the improved method with its basic version [5] was carried out, analyzing indicators such as average frame processing time, RAM and video memory usage, CPU and GPU load, and recognition accuracy. The optimization resulted in up to a 20% increase in processing speed and a slight improvement in accuracy (~0.8%) without increasing the use of key computational resources. The experimental results confirm the feasibility of integrating the adaptation mechanism into the delta-classification method to improve its efficiency for real-time operation.
UA: У статті представлено удосконалення методу пошуку та розпізнавання рухомих об’єктів у відеопотоці в реальному часі, що ґрунтується на обчисленні міжкадрових змін (дельт) та використанні нейронного класифікатора. Запропоновано механізм адаптивного налаштування поведінки методу залежно від характеристик вхідних даних, що дозволяє підвищити точність і швидкодію розпізнавання в умовах змінного фону та обмежених обчислювальних ресурсів. Розроблений метод можна інтерпретувати як еволюційно-адаптивний механізм, оскільки він дозволяє алгоритму поступово змінювати свої стратегії обробки на основі зібраних даних, формуючи теплову карту та оптимізуючи свою продуктивність для специфіки конкретного середовища. Для оцінки ефективності проведено експериментальне порівняння удосконаленого методу з його базовою версією [5], у рамках якого аналізувалися середній час обробки кадру, використання оперативної та відеопам’яті, навантаження на процесор і графічний адаптер, а також точність розпізнавання. Оптимізація забезпечила приріст швидкості обробки до 20 % та незначне підвищення точності (~0,8 %) без збільшення використання основних обчислювальних ресурсів. Отримані експериментальні результати підтверджують доцільність інтеграції механізму адаптації у метод дельта-класифікації для підвищення його ефективності роботи в режимі реального часу.
URI: http://lib.kart.edu.ua/handle/123456789/32279
ISSN: 2524-0552 (print); 2524-0560 (online)
Appears in Collections:2025

Files in This Item:
File Description SizeFormat 
Sadovnykov.pdf379.09 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.