Оптимизация кластерных разбиений с привлечением техники латентного анализа классов
УДК 519.237.8
Аннотация
Если каждый из изучаемых объектов отождествить с вектором, координаты которого являются значениями факторов, характеризующих этот объект, то построение кластерного разбиения превращается в формирование системы пучков подобных векторов. В работе изучены закономерности изменения суммарной тесноты этих пучков при перемещении объекта из одного кластера в другой. Исходя из полученных результатов, предлагается алгоритм, действуя согласно которому, можно понизить суммарную внутриклас-терную изменчивость уже имевшегося начального кластерного разбиения. В основу предлагаемого алгоритма положена идея современной методики анализа латентных классов. Она состоит в том, что внутри каждого из построенных кластеров формирующие показатели объектов должны максимально возможным образом коррелировать между собой. Это требование заменяется на максимально возможную близость к среднему вектору соответствующего пучка. Степень такой близости и называется теснотой пучка векторов кластера. Для построенной с помощью предлагаемого алгоритма неулучшаемой кластеризации предложен новый метод квантификации ее кластеров. Рассмотрен практический пример применения алгоритма к медицинским данным. Обсуждаются причины зависимости результата от выбора начального кластерного разбиения.
Скачивания
Metrics
Литература
Xu R., WunschD. II. Survey ofClusteringAlgorithms //IEEETransactionson NeuralNetworks, 2005.Vol. 16.№ 3. DOI: 10.1109/TNN.2005.845141.
Xu D., Tian Y. A. Comprehensive Survey of Clustering Algorithms // Ann. Data. Sci. 2015. Vol. 2. DOI: 10.1007/ s40745-015-0040-1.
Rindskopf D. Latent Class Analysis. In: The SAGE Handbook of Quantitative Methods in Psychology , N.Y.: Sage, 2009.
Hagenaars J.A., McCutcheon A.L. Applied LatentClass Analyses Models // Canadian Journal of Sociology, 2003. Vol.28(3).DOI:10.2307/3341848.
Obersky D.L., Hagenaars J.A., Saris W. The Latent Class Multitrait-Multimethod Model 5 // Psychological Methods, 2014. Vol. 20 (4). DOI: 0.1037/a0039783.
Dronov S.V, Sazonova A.S. Two approaches to cluster variable quantification // Model Assisted Statistics and Applications, 2015. Vol. 10. DOI: 10.3233/mas-140314.
Coates A., Ng A.Y. Learning feature representations with k-means // In: Montavon, G.; Orr, G. B.; Muller, K.-R. (eds.). Neural Networks: Tricks of the Trade (Lecture Notes in Computer Science, volume 7700). Springer, 2012.
Vinnikov A., Shalev-Shwartz S. K-means Recovers ICA Filters when Independent Components are Sparse // Proceedings of the International Conference on Machine Learning, 2014. Vol. 32 (II).
Halkidi M., Batistakis Y. Vazirgiannis M. On clustering validation techniques // Journal of intelligent information systems, 2001. Vol. 17 (2-3). DOI: 10.1023/A:1012801612483.
Айвазян С.А., Бухштабер В.М., Енюков И.С., Ме-шалкин Л.Д. Классификация и снижение размерности. М., 1989.
Zahorian S.A., Hu H. Nonlinear Dimensionality Reduction Methods for Use with Automatic Speech Recognition. In: Speech Technologies. Intech Open, 2011. DOI: 10.5772/16863.
Дронов С.В., Шеларь А.Ю. Новый алгоритм выявления и квантификации латентных классов // Известия Алт. гос. ун-та. 2020. Вып. 4 (114). DOI: 10.14258/ izvasu(2020)4-12 .
Copyright (c) 2023 Сергей Вадимович Дронов
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.