Труды КНЦ (Технические науки вып. 7/2023(14))

Заключение В работе рассмотрен ряд вопросов, связанных с привлечением дополнительных знаний о предметной области при решении задач машинного обучения. Оказывается, что классические методы классификации, кластеризации, поиска ассоциативных правил плохо приспособлены для учета и анализа дополнительных ограничений экспертов. Модификация подобных методов иногда оказывается достаточно трудоемкой процедурой. Однако модифицированные методы способны существенно повысить достоверность и точность получаемых результатов машинного обучения. В разных типах задач машинного обучения для повышения точности и достоверности их результатов требуются различные типы дополнительных ограничений. Это создает определенные сложности при решении комплексных проблем, предполагающих для их устранения интеграцию нескольких типов задач машинного обучения, и, соответственно, привлечения разнородных дополнительных ограничений. Отдельную проблему составляет производительность вычислений методов, анализирующих дополнительные требования экспертов. Разработчики подобных методов, как правило, стремятся к тому, чтобы ограничения служили для снижения размерности пространства поиска. Список источников 1. Russel S., Norvig P. Artificial Intelligence: A Modem Approach / S. Russel, P. Norvig — 3rd edition. New Jersey: Prentice Hall, 2010. 1132 p. 2. Grossi V., Pedreschi D., Turini F. Data Mining and Constraints: An Overview / V. Grossi, D. Pedreschi, F. Turini // Data Mining and Constraint Programming. Cham: Springer, 2016. P. 25-48. 3. Davidson I., Basu S. A survey o f clustering with instance level constraints / I. Davidson, S. Basu // ACM Transactions on Knowledge Discovery from Data. 2007. № 1. P. 1-41. 4. Wagstaff K., Cardie C., Rogers S., Schrodl S. Constrained K-means Clustering with Background Knowledge / K. Wagstaff, C. Cardie, S. Rogers, S. Schrodl // Proceedings o f the Eighteenth International Conference on Machine Learning (ICML 2001). Williamstown: Williams College, 2001. P. 577-584. 5. Davidson I., Ravi S. Agglomerative hierarchical clustering with constraints: Theoretical and empirical results / I. Davidson, S. Ravi // Knowledge Discovery in Databases: PKDD 2005. Berlin, Heidelberg: Springer, 2005. P. 59-70. 6. Davidson I., Ravi S. S. Clustering With Constraints: Feasibility Issues and the k-Means Algorithm / I. Davidson, S. S. Ravi // Proceedings o f the 2005 SIAM International Conference on Data Mining (SDM). 2005. 7. Bilenko M., Basu S., Mooney R. J. Integrating Constraints and Metric Learning in Semi-Supervised Clustering / M. Bilenko, S. Basu, R. J. Mooney // Proceedings o f the 21st International Conference on Machine Learning. Alberta: 2004. P. 11-18. 8. Xing E. P., Ng A. Y., Jordan M., Russell S. Distance Metric Learning, With Application To Clustering With Side-Information / E. P. Xing, A. Y. Ng, M. Jordan, S. Russell // Advances in Neural Information Processing Systems. 2003. № 15. P. 505-512. 9. Kumar N., Kummamuru K. Semisupervised Clustering with Metric Learning using Relative Comparisons / N. Kumar, K. Kummamuru // IEEE Transactions on Knowledge and Data Engineering. 2008. № 20. P. 496-503. 10. Basu S., Banerjee A., Mooney R. Semi-supervised Clustering by Seeding // Proceedings o f the 19th International Conference on Machine Learning, Sidney, Australia, 2002. pp. 19-26. 11. Atzori M., Mancarella P., Turini F. Abduction in Classification Tasks / M. Atzori, P. Mancarella, F. Turini // AI*IA 2003: Advances in Artificial Intelligence. Berlin, Heidelberg: Springer, 2003. P. 213-224. 12. Kakas A., Kowalski R., Toni F. Abductive Logic Programming / A. Kakas, R. Kowalski, F. Toni // Journal of Logic and Computation. 1992. № 2. P. 719-770. 13. Quinlan J. R. C4.5: Programs for Machine Learning / J. R. Quinlan — San Mateo: Morgan Fauffman Publishers, 1994. 312 p. Труды Кольского научного центра РАН. Серия: Технические науки. 2023. Т. 14, № 7. С. 16-25. Transactions of the Kola Science Centre of RAS. Series: Engineering Sciences. 2023. Vol. 14, No. 7. P. 16-25. © Зуенко А. А., Зуенко О. Н., 2023 23

RkJQdWJsaXNoZXIy MTUzNzYz