РОЗРОБКА МЕТОДУ ІНТЕРАКТИВНОЇ ПОБУДОВИ ПОЯСНЕНЬ В ІНТЕЛЕКТУАЛЬНИХ ІНФОРМАЦІЙНИХ СИСТЕМАХ НА ОСНОВІ ЙМОВІРНІСНОГО ПІДХОДУ

Автор(и)

DOI:

https://doi.org/10.30837/ITSSI.2021.16.039

Ключові слова:

інтелектуальна система, пояснення, патерн, пояснюваний штучний інтелект, правила

Анотація

Предмет: використання апарату темпоральної логіки та ймовірнісних підходів для побудови пояснення щодо результатів роботи інтелектуальної системи з тим, щоб підвищити ефективність використання отриманих рішень та рекомендацій. Ціль: розробка методу побудови пояснень в інтелектуальних системах з можливістю формування та оцінки декількох альтернативних варіантів тлумачень результатів роботи такої системи. Задачі: обґрунтування використання принципу чорного ящику для інтерактивної побудови пояснень;  розробка моделі патерну пояснення, що передбачає ймовірнісну оцінку; розробка методу інтерактивної побудови пояснень на основі ймовірнісного підходу. Методи: методи аналізу даних, методи системного аналізу, методи побудови пояснень, моделі представлення знань. Результати: Запропоновано модель патерну пояснень, що містить темпоральні правила, які відображають послідовності взаємодії користувача з інтелектуальною системою, що дає можливість формувати пояснення на основі порівняння дій поточного користувача та інших відомих користувачів. Розроблено метод інтерактивної побудови пояснень, який базується на ймовірнісному підході, використовує патерни взаємодії користувача з інтелектуальною системою та містить фази побудови патернів пояснень й формування пояснень з використанням отриманих патернів. Метод упорядковує отримані пояснення за ймовірністю використання, що дає можливість сформувати цільове та альтернативні пояснення для користувача. Висновки: Обґрунтовано використання принципу чорного ящику до розробки ймовірнісного підходу до побудови пояснень в інтелектуальних системах. Запропоновано модель патерну пояснень на базі темпоральних правил. Модель відображає послідовність взаємодії користувача з інтелектуальною системою при отриманні рішень та рекомендацій та містить патерн взаємодії у складі темпоральних правил, що мають вагу, а також визначає ймовірність використання патерну взаємодії з користувачем. Розроблено метод інтерактивної побудови пояснень з урахуванням взаємодії користувача з інтелектуальною системою. Метод містить фази та етапи формування правила й патернів взаємодії з користувачем з визначенням ймовірності їх виконання, а також підбору у упорядкування патернів за ймовірністю їх реалізації. Виконано імплементацію методу при побудові пояснень для рекомендаційних систем.

Біографії авторів

Serhii Chalyi, Харківський національний університет радіоелектроніки

доктор технічних наук, професор, професор кафедри інформаційних управляючих систем

Volodymyr Leshchynskyi, Харківський національний університет радіоелектроніки

кандидат технічних наук, доцент, доцент кафедри програмної інженерії

Посилання

Zhang, Y., Chen, X. (2020), "Explainable recommendation: A survey and new perspectives", Foundations and Trends in Information Retrieval, No. 14 (1), P. 1–101.

Miller T. (2019), "Explanation in artificial intelligence: Insights from the social sciences", Artificial Intelligence, No. 267, P. 1–38.

Barredo, А., Díaz-Rodríguez, N., et al. (2020), "Explainable artificial intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI", Information Fusion, No. 58, P. 82–115.

Lipton, P. (1990), "Contrastive explanation", Royal Institute of Philosophy Supplement, No. 27, P. 247–266.

Lombrozo, T. (2012), "Explanation and abductive inference", Oxford handbook of thinking and reasoning, P. 260–276.

Phillips-Wren, G. (2017), "Intelligent systems to support human decision making", Artificial Intelligence: Concepts, Methodologies, Tools, and Applications, P. 3023–3036. DOI: http://doi:10.4018/978-1-5225-1759-7.ch125

Wang, T., Lin, Q. (2019), "Hybrid decision making: When interpretable models collaborate with black-box models", Journal of Machine Learning Research, No. 1, P. 1–48.

Ribeiro, M., Singh, S., Guestrin, C. (2016), "Why should I trust you?": Explaining the predictions of any classifier", Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, P. 97–101.

Chalyi, S. F., Leshchynskyi, V. O. (2020), "Temporal patterns of user preferences in the tasks of forming explanations in the recommendation system" ["Temporalni paterny vpodoban korystuvachiv v zadachakh formuvannia poiasnen v rekomendatsiinii systemi"], Bionics of Intelligence, No. 2 (95), P. 21–27.

Gogate, V., Domingos, P. (2010), "Formula-Based Probabilistic Inference", Proceedings of the Twenty-Sixth Conference on Uncertainty in Artificial Intelligence, P. 210–219.

Levykin, V., Chala, O. (2018), "Development of a method for the probabilistic inference of sequences of a business process activities to support the business process management", Eastern-European Journal of Enterprise Technologies, No. 5 (95), P. 16–24. DOI: http://doi.org/10.15587/1729-4061.2018.142664

Zeiler, M. D., Fergus, R. (2014), "Visualizing and Understanding Convolutional Networks", Computer Vision – ECCV 2014. Lecture Notes in Computer Science, No. 8689, P. 818–833. DOI: http://doi.org/10.1007/978-981-10-0557-2_87

Gan, C., et al. (2015), "DevNet: A Deep Event Network for multimedia event detection and evidence recounting", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), P. 2568–2577. DOI: http://doi.org/10.1109/CVPR.2015.7298872

LeCun, Y., Bengio, Y., Hinton, G. (2015), "Deep learning", Nature, No. 521, P. 436–444. DOI: http://doi.org/10.1038/nature14539

Hendricks, L. A. (2016), "Generating visual explanations", Computer Vision – ECCV 2016. Lecture Notes in Computer Science, No. 9908, P. 1–17. DOI: http://doi.org/10.1007/978-981-10-0557-2_87

Letham, B., Rudin, C., McCormick, T. H., Madigan, D. (2015), "Interpretable classifiers using rules and Bayesian analysis: Building a better stroke prediction model", Annals of Applied Statistics, No. 9 (3), P. 1350–1371. DOI: http://doi.org/10.1214/15-AOAS848

Lake, B. M., Salakhutdinov, R., Tenenbaum, J. B. (2015), "Human-level concept learning through probabilistic program induction", Science, No. 350 (6266), P. 1332–1338. DOI: http://doi.org/10.1126/science.aab3050

Maierand, M., Taylor, B., Oktay, H., Jensen, D. (2010), "Learning causal models of relational domains", Proceedings of the Twenty-Fourth AAAI Conference on Artificial Intelligence, P. 1–8.

Chalyi, S. F., Leshchynskyi, V. O., Leshchynska, I. O. (2020), "Declarative-temporal approach to the construction of explanations in intelligent information systems", Bulletin of the National Technical University "KhPI", No. 2 (4), P. 51–56. DOI: http://doi.org/10.20998/2079-0023.2020.02.09

Chala, O. (2018), "Method for detecting anomalous states of a control object in information systems based on the analysis of temporal data and knowledge", EUREKA: Physics and Engineering, No. 6, P. 28–35. DOI: http://doi.org/10.21303/2461-4262.2018.00787

##submission.downloads##

Опубліковано

2021-07-06

Як цитувати

Chalyi, S., & Leshchynskyi, V. (2021). РОЗРОБКА МЕТОДУ ІНТЕРАКТИВНОЇ ПОБУДОВИ ПОЯСНЕНЬ В ІНТЕЛЕКТУАЛЬНИХ ІНФОРМАЦІЙНИХ СИСТЕМАХ НА ОСНОВІ ЙМОВІРНІСНОГО ПІДХОДУ. СУЧАСНИЙ СТАН НАУКОВИХ ДОСЛІДЖЕНЬ ТА ТЕХНОЛОГІЙ В ПРОМИСЛОВОСТІ, (2 (16), 39–45. https://doi.org/10.30837/ITSSI.2021.16.039