РОЗРОБКА МЕТОДУ ІНТЕРАКТИВНОЇ ПОБУДОВИ ПОЯСНЕНЬ В ІНТЕЛЕКТУАЛЬНИХ ІНФОРМАЦІЙНИХ СИСТЕМАХ НА ОСНОВІ ЙМОВІРНІСНОГО ПІДХОДУ
DOI:
https://doi.org/10.30837/ITSSI.2021.16.039Ключові слова:
інтелектуальна система, пояснення, патерн, пояснюваний штучний інтелект, правилаАнотація
Предмет: використання апарату темпоральної логіки та ймовірнісних підходів для побудови пояснення щодо результатів роботи інтелектуальної системи з тим, щоб підвищити ефективність використання отриманих рішень та рекомендацій. Ціль: розробка методу побудови пояснень в інтелектуальних системах з можливістю формування та оцінки декількох альтернативних варіантів тлумачень результатів роботи такої системи. Задачі: обґрунтування використання принципу чорного ящику для інтерактивної побудови пояснень; розробка моделі патерну пояснення, що передбачає ймовірнісну оцінку; розробка методу інтерактивної побудови пояснень на основі ймовірнісного підходу. Методи: методи аналізу даних, методи системного аналізу, методи побудови пояснень, моделі представлення знань. Результати: Запропоновано модель патерну пояснень, що містить темпоральні правила, які відображають послідовності взаємодії користувача з інтелектуальною системою, що дає можливість формувати пояснення на основі порівняння дій поточного користувача та інших відомих користувачів. Розроблено метод інтерактивної побудови пояснень, який базується на ймовірнісному підході, використовує патерни взаємодії користувача з інтелектуальною системою та містить фази побудови патернів пояснень й формування пояснень з використанням отриманих патернів. Метод упорядковує отримані пояснення за ймовірністю використання, що дає можливість сформувати цільове та альтернативні пояснення для користувача. Висновки: Обґрунтовано використання принципу чорного ящику до розробки ймовірнісного підходу до побудови пояснень в інтелектуальних системах. Запропоновано модель патерну пояснень на базі темпоральних правил. Модель відображає послідовність взаємодії користувача з інтелектуальною системою при отриманні рішень та рекомендацій та містить патерн взаємодії у складі темпоральних правил, що мають вагу, а також визначає ймовірність використання патерну взаємодії з користувачем. Розроблено метод інтерактивної побудови пояснень з урахуванням взаємодії користувача з інтелектуальною системою. Метод містить фази та етапи формування правила й патернів взаємодії з користувачем з визначенням ймовірності їх виконання, а також підбору у упорядкування патернів за ймовірністю їх реалізації. Виконано імплементацію методу при побудові пояснень для рекомендаційних систем.
Посилання
Zhang, Y., Chen, X. (2020), "Explainable recommendation: A survey and new perspectives", Foundations and Trends in Information Retrieval, No. 14 (1), P. 1–101.
Miller T. (2019), "Explanation in artificial intelligence: Insights from the social sciences", Artificial Intelligence, No. 267, P. 1–38.
Barredo, А., Díaz-Rodríguez, N., et al. (2020), "Explainable artificial intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI", Information Fusion, No. 58, P. 82–115.
Lipton, P. (1990), "Contrastive explanation", Royal Institute of Philosophy Supplement, No. 27, P. 247–266.
Lombrozo, T. (2012), "Explanation and abductive inference", Oxford handbook of thinking and reasoning, P. 260–276.
Phillips-Wren, G. (2017), "Intelligent systems to support human decision making", Artificial Intelligence: Concepts, Methodologies, Tools, and Applications, P. 3023–3036. DOI: http://doi:10.4018/978-1-5225-1759-7.ch125
Wang, T., Lin, Q. (2019), "Hybrid decision making: When interpretable models collaborate with black-box models", Journal of Machine Learning Research, No. 1, P. 1–48.
Ribeiro, M., Singh, S., Guestrin, C. (2016), "Why should I trust you?": Explaining the predictions of any classifier", Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, P. 97–101.
Chalyi, S. F., Leshchynskyi, V. O. (2020), "Temporal patterns of user preferences in the tasks of forming explanations in the recommendation system" ["Temporalni paterny vpodoban korystuvachiv v zadachakh formuvannia poiasnen v rekomendatsiinii systemi"], Bionics of Intelligence, No. 2 (95), P. 21–27.
Gogate, V., Domingos, P. (2010), "Formula-Based Probabilistic Inference", Proceedings of the Twenty-Sixth Conference on Uncertainty in Artificial Intelligence, P. 210–219.
Levykin, V., Chala, O. (2018), "Development of a method for the probabilistic inference of sequences of a business process activities to support the business process management", Eastern-European Journal of Enterprise Technologies, No. 5 (95), P. 16–24. DOI: http://doi.org/10.15587/1729-4061.2018.142664
Zeiler, M. D., Fergus, R. (2014), "Visualizing and Understanding Convolutional Networks", Computer Vision – ECCV 2014. Lecture Notes in Computer Science, No. 8689, P. 818–833. DOI: http://doi.org/10.1007/978-981-10-0557-2_87
Gan, C., et al. (2015), "DevNet: A Deep Event Network for multimedia event detection and evidence recounting", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), P. 2568–2577. DOI: http://doi.org/10.1109/CVPR.2015.7298872
LeCun, Y., Bengio, Y., Hinton, G. (2015), "Deep learning", Nature, No. 521, P. 436–444. DOI: http://doi.org/10.1038/nature14539
Hendricks, L. A. (2016), "Generating visual explanations", Computer Vision – ECCV 2016. Lecture Notes in Computer Science, No. 9908, P. 1–17. DOI: http://doi.org/10.1007/978-981-10-0557-2_87
Letham, B., Rudin, C., McCormick, T. H., Madigan, D. (2015), "Interpretable classifiers using rules and Bayesian analysis: Building a better stroke prediction model", Annals of Applied Statistics, No. 9 (3), P. 1350–1371. DOI: http://doi.org/10.1214/15-AOAS848
Lake, B. M., Salakhutdinov, R., Tenenbaum, J. B. (2015), "Human-level concept learning through probabilistic program induction", Science, No. 350 (6266), P. 1332–1338. DOI: http://doi.org/10.1126/science.aab3050
Maierand, M., Taylor, B., Oktay, H., Jensen, D. (2010), "Learning causal models of relational domains", Proceedings of the Twenty-Fourth AAAI Conference on Artificial Intelligence, P. 1–8.
Chalyi, S. F., Leshchynskyi, V. O., Leshchynska, I. O. (2020), "Declarative-temporal approach to the construction of explanations in intelligent information systems", Bulletin of the National Technical University "KhPI", No. 2 (4), P. 51–56. DOI: http://doi.org/10.20998/2079-0023.2020.02.09
Chala, O. (2018), "Method for detecting anomalous states of a control object in information systems based on the analysis of temporal data and knowledge", EUREKA: Physics and Engineering, No. 6, P. 28–35. DOI: http://doi.org/10.21303/2461-4262.2018.00787
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Наше видання використовує положення про авторські права Creative Commons для журналів відкритого доступу.
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License (CC BY-NC-SA 4.0), котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
Автори мають право укладати самостійні додаткові угоди щодо не комерційного та не ексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису опублікованої роботи, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи.