Семантико-ймовірнісна мережа для визначення контекста відеопотоку в системах відеоспостереження
DOI:
https://doi.org/10.15587/1729-4061.2013.16386Ключові слова:
Байєсова мережа, онтологія, відео спостереження, семантична модель, імовірнісна модель, людська поведінкаАнотація
Ми представляємо семантико-імовірнісну модель опису поведінки людини і її дій, що об'єднує в собі елементи графічної ймовірнісної моделі — Байєсівської мережі, а також семантичної моделі на основі ієрархічної онтології предметної області, для визначення контексту відеопотоку в інтелектуальних системах відеоспостереження.Посилання
- Aggarwal, J. Human activity analysis: A review [Текст] / J. Aggarwal, M. Ryoo // ACM Computing Surveys. — 2011. — Vol. 43, Issue 3. — С. 43.
- Aggarwal, J. Spatio-temporal relationship match: Video structure comparison for recognition of complex human activities [Текст] / J. Aggarwal, M. Ryoo // In IEEE International Conference on Computer Vision (ICCV). — 2009. — СС. 1593–1600.
- Niebles, J. C. Unsupervised learning of human action categories using spatial-temporal words [Текст] / J.C. Niebles, H. Wang, L. Fei-Fei // International Journal of Computer Vision (IJCV). — 2008. — Vol. 79, Issue 3. — СС. 299–318.
- Gupta, A. Objects in action: An approach for combining action understanding and object perception [Текст] / A. Gupta, L.S. Davis // In IEEE Conference on Computer Vision and Pattern Recognition (CVPR). — 2007. — СС. 1–8.
- Filipovych, R. Recognizing primitive interactions by exploring actor-object states [Текст] / R. Filipovych, E. Ribeiro // IEEE Conference on Computer Vision and Pattern Recognition. — 2008. — СС. 1–7.
- Damen, D. Recognizing linked events: Searching the space of feasible explanations [Текст] / D. Damen, D. Hogg // IEEE Conference on Computer Vision and Pattern Recognition. — 2009. — СС. 927–934.
- Joo, S.-W. Attribute Grammar-Based Event Recognition and Anomaly Detection [Текст] / S.-W. Joo, R. Chelappa // Conference on Computer Vision and Pattern Recognition Workshop. — 2006. — СС. 107–107.
- Gupta, A. Understanding videos, constructing plots learning a visually grounded storyline model from annotated videos [Текст] / A. Gupta, P. Srinivasan, J. Shi, L.S. Davis // In IEEE Conference on Computer Vision and Pattern Recognition. — 2009. — СС. 2012–2019.
- Malgireddy, M.R. A temporal Bayesian model for classifying, detecting and localizing activities in video sequences [Текст] / M.R. Malgireddy, I. Inwogu, V. Govindaraju // Computer Vision and Pattern Recognition Workshops. — 2012. — СС. 43–48.
- Cooper, G. A Bayesian method for the induction of probabilistic networks from data [Текст] / G. Cooper, E. Herskovits // Machine Learning. — 1992. — Vol. 9. — СС. 309–347.
- Murphy, K. Dynamic Bayesian Networks: Representation, Inference and Learning [Текст] / K. Murphy // PhD thesis, University of California at Berkley. — 2002.
- HMDB: A Large Video Database for Human Motion Recognition [электронный ресурс] / SERRE LAB. A Brown University Research Group. — Режим доступа : WWW/ URL: http://serre-lab.clps.brown.edu/resources/HMDB/ — 2011. — Загл. с экрана.
- CAVIAR Test Case Scenarios [электронный ресурс] / INRIA Labs at Grenoble, France. — Режим доступа : WWW/ URL: http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1/ — 2004. — Загл. с экрана.
- Aggarwal, J., Ryoo, M. (2011). Human activity analysis: A review. ACM Computing Surveys, 43 (3), 43.
- Aggarwal, J., Ryoo, M. (2009). Spatio-temporal relationship match: Video structure comparison for recognition of complex human activities. In IEEE International Conference on Computer Vision (ICCV), 1593–1600.
- Niebles, J. C., Wang, H., Fei-Fei, L. (2008). Unsupervised learning of human action categories using spatial-temporal words. International Journal of Computer Vision (IJCV), 79 (3), 299-318.
- Gupta, A., Davis, L.S. (2007). Objects in action: An approach for combining action understanding and object perception. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1–8.
- Filipovych, R., Ribeiro, E. (2008). Recognizing primitive interactions
- by exploring actor-object states. IEEE Conference on Computer Vision and Pattern Recognition, 1–7.
- Damen, D., Hogg, D. (2009). Recognizing linked events: Searching the space of feasible explanations. IEEE Conference on Computer Vision and Pattern Recognition, 927–934.
- Joo, S.-W., Chelappa, R. (2006). Attribute Grammar-Based Event Recognition and Anomaly Detection. Conference on Computer Vision and Pattern Recognition Workshop, 107–107.
- Gupta, A., Srinivasan, P., Shi, J. & Davis, L.S. (2009). Understanding videos, constructing plots learning a visually grounded storyline model from annotated videos. In IEEE Conference on Computer Vision and Pattern Recognition, 2012–2019.
- Malgireddy, M.R., Inwogu, I., Govindaraju, V. (2012). A temporal Bayesian model for classifying, detecting and localizing activities in video sequences. Computer Vision and Pattern Recognition Workshops, 43–48.
- Cooper, G., Herskovits, E. (1992). A Bayesian method for the induction of probabilistic networks from data. Machine Learning, 9, 309–347.
- Murphy, K. (2002). Dynamic Bayesian Networks: Representation, Inference and Learning. PhD thesis, University of California at Berkley.
- HMDB: A Large Video Database for Human Motion Recognition. (2011). Retrieved from http://serre-lab.clps.brown.edu/resources/HMDB/.
- CAVIAR Test Case Scenarios. (2004). INRIA Labs at Grenoble, France. Retrieved from http://homepages.inf.ed.ac.uk/rbf/CAVIARDATA1.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2014 Никита Владиславович Коваленко, Светлана Григорьевна Антощук
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Закріплення та умови передачі авторських прав (ідентифікація авторства) здійснюється у Ліцензійному договорі. Зокрема, автори залишають за собою право на авторство свого рукопису та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons CC BY. При цьому вони мають право укладати самостійно додаткові угоди, що стосуються неексклюзивного поширення роботи у тому вигляді, в якому вона була опублікована цим журналом, але за умови збереження посилання на першу публікацію статті в цьому журналі.
Ліцензійний договір – це документ, в якому автор гарантує, що володіє усіма авторськими правами на твір (рукопис, статтю, тощо).
Автори, підписуючи Ліцензійний договір з ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР», мають усі права на подальше використання свого твору за умови посилання на наше видання, в якому твір опублікований. Відповідно до умов Ліцензійного договору, Видавець ПП «ТЕХНОЛОГІЧНИЙ ЦЕНТР» не забирає ваші авторські права та отримує від авторів дозвіл на використання та розповсюдження публікації через світові наукові ресурси (власні електронні ресурси, наукометричні бази даних, репозитарії, бібліотеки тощо).
За відсутності підписаного Ліцензійного договору або за відсутністю вказаних в цьому договорі ідентифікаторів, що дають змогу ідентифікувати особу автора, редакція не має права працювати з рукописом.
Важливо пам’ятати, що існує і інший тип угоди між авторами та видавцями – коли авторські права передаються від авторів до видавця. В такому разі автори втрачають права власності на свій твір та не можуть його використовувати в будь-який спосіб.