系统聚类法与k均值聚类法有什么异同吗

网上有关“系统聚类法与k均值聚类法有什么异同吗”话题很是火热,小编也是针对系统聚类法与k均值聚类法有什么异同吗寻找了一些与之相关的一些信息进行分析,如果能碰巧解决你现在面临的问题,希望能够帮助到您。

主成分分析与因子分析的区别

1. 目的不同: 因子分析把诸多变量看成由对每一个变量都有作用的一些公共因子和仅对某一个变量有作用的特殊因子线性组合而成,因此就是要从数据中控查出对变量起解释作用的公共因子和特殊因子以及其组合系数;主成分分析只是从空间生成的角度寻找能解释诸多变量变异的绝大部分的几组彼此不相关的新变量(主成分)。

2. 线性表示方向不同: 因子分析是把变量表示成各公因子的线性组合;而主成分分析中则是把主成分表示成各变量的线性组合。

3. 假设条件不同:主成分分析中不需要有假设;因子分析的假设包括:各个公共因子之间不相关,特殊因子之间不相关,公共因子和特殊因子之间不相关。

4. 提取主因子的方法不同:因子分析抽取主因子不仅有主成分法,还有极大似然法,主轴因子法,基于这些方法得到的结果也不同;主成分只能用主成分法抽取。

5. 主成分与因子的变化:当给定的协方差矩阵或者相关矩阵的特征值唯一时,主成分一般是固定的;而因子分析中因子不是固定的,可以旋转得到不同的因子。

6. 因子数量与主成分的数量:在因子分析中,因子个数需要分析者指定(SPSS根据一定的条件自动设定,只要是特征值大于1的因子主可进入分析),指定的因子数量不同而结果也不同;在主成分分析中,成分的数量是一定的,一般有几个变量就有几个主成分(只是主成分所解释的信息量不等)。

7. 功能:和主成分分析相比,由于因子分析可以使用旋转技术帮助解释因子,在解释方面更加有优势;而如果想把现有的变量变成少数几个新的变量(新的变量几乎带有原来所有变量的信息)来进入后续的分析,则可以使用主成分分析。当然,这种情况也可以使用因子得分做到,所以这种区分不是绝对的。

1 、聚类分析

基本原理:将个体(样品)或者对象(变量)按相似程度(距离远近)划分类别,使得同一类中的元素之间的相似性比其他类的元素的相似性更强。目的在于使类间元素的同质性最大化和类与类间元素的异质性最大化。

常用聚类方法:系统聚类法,K-均值法,模糊聚类法,有序样品的聚类,分解法,加入法。

注意事项:1. 系统聚类法可对变量或者记录进行分类,K-均值法只能对记录进行分类;

2. K-均值法要求分析人员事先知道样品分为多少类;

3. 对变量的多元正态性,方差齐性等要求较高。

应用领域:细分市场,消费行为划分,设计抽样方案等

2、判别分析

基本原理:从已知的各种分类情况中总结规律(训练出判别函数),当新样品进入时,判断其与判别函数之间的相似程度(概率最大,距离最近,离差最小等判别准则)。

常用判别方法:最大似然法,距离判别法,Fisher判别法,Bayes判别法,逐步判别法等。

注意事项:1. 判别分析的基本条件:分组类型在两组以上,解释变量必须是可测的;

2. 每个解释变量不能是其它解释变量的线性组合(比如出现多重共线性情况时,判别权重会出现问题);

3. 各解释变量之间服从多元正态分布(不符合时,可使用Logistic回归替代),且各组解释变量的协方差矩阵相等(各组协方方差矩阵有显著差异时,判别函数不相同)。

相对而言,即使判别函数违反上述适用条件,也很稳健,对结果影响不大。

应用领域:对客户进行信用预测,寻找潜在客户(是否为消费者,公司是否成功,学生是否被录用等等),临床上用于鉴别诊断。

3、 主成分分析/ 因子分析

主成分分析基本原理:利用降维(线性变换)的思想,在损失很少信息的前提下把多个指标转化为几个综合指标(主成分),即每个主成分都是原始变量的线性组合,且各个主成分之间互不相关,使得主成分比原始变量具有某些更优越的性能(主成分必须保留原始变量90%以上的信息),从而达到简化系统结构,抓住问题实质的目的。

因子分析基本原理:利用降维的思想,由研究原始变量相关矩阵内部的依赖关系出发,把一些具有错综复杂关系的变量归结为少数几个综合因子。(因子分析是主成分的推广,相对于主成分分析,更倾向于描述原始变量之间的相关关系)

求解主成分的方法:从协方差阵出发(协方差阵已知),从相关阵出发(相关阵R已知)。

(实际研究中,总体协方差阵与相关阵是未知的,必须通过样本数据来估计)

求解因子载荷的方法:主成分法,主轴因子法,极大似然法,最小二乘法,a因子提取法。

注意事项:1. 由协方差阵出发与由相关阵出发求解主成分所得结果不一致时,要恰当的选取某一种方法;

2. 对于度量单位或是取值范围在同量级的数据,可直接求协方差阵;对于度量单位不同的指标或是取值范围彼此差异非常大的指标,应考虑将数据标准化,再由协方差阵求主成分;

3.主成分分析不要求数据来源于正态分布;

4. 在选取初始变量进入分析时应该特别注意原始变量是否存在多重共线性的问题(最小特征根接近于零,说明存在多重共线性问题)。

5. 因子分析中各个公共因子之间不相关,特殊因子之间不相关,公共因子和特殊因子之间不相关。

应用领域:解决共线性问题,评价问卷的结构效度,寻找变量间潜在的结构,内在结构证实。

4、对应分析/最优尺度分析

基本原理:利用降维的思想以达到简化数据结构的目的,同时对数据表中的行与列进行处理,寻求以低维图形表示数据表中行与列之间的关系。

对应分析:用于展示变量(两个/多个分类)间的关系(变量的分类数较多时较佳);

最优尺度分析:可同时分析多个变量间的关系,变量的类型可以是无序多分类,有序多分类或连续性变量,并 对多选题的分析提供了支持。

5、典型相关分析

基本原理:借用主成分分析降维的思想,分别对两组变量提取主成分,且使从两组变量提取的主成分之间的相关程度达到最大,而从同一组内部提取的各主成分之间互不相关。

在没有先验知识的情况下,对样本按各自的特性来进行合理的分类

聚类分析:不需要先知道所属类别就可以实现按各自特性的分类

聚类分析有两种主要计算方法,分别是凝聚层次聚类(Agglomerative hierarchical method)和K均值聚类(K-Means)

(1)层次聚类首先要定义样本之间的距离关系,距离较近的归为一类,较远的则属于不同的类。

(2)K均值聚类不需要计算距离,但要求事先给出分类个数

ris数据集包含5个方面的信息,为了探索聚类分析,所以采用前4个变量作为模型前期数据,使用species作为聚类模型结果的验证。

(1)首先提取iris数据中的4个数值变量,然后计算其欧氏距离矩阵。

(2)然后将矩阵绘制热图,从图中可以看到颜色越深表示样本间距离越近·

从图中可以看到颜色越深表示样本间距离越近。大致上可以区分出三到四个区块,其样本之间比较接近。

使用hclust完成数据集的层次聚类,plot函数可以查看聚类结果

使用cutree函数提取每个样本所属的类别

到此就完成了150个数据的类别划分

可视化展现层次聚类结果

setose品种聚类很成功,但有一些virginica品种的花被错误和virginica品种聚类到一起

使用kmeans函数进行K均值聚类

centers参数用来设置分类个数,

nstart参数用来设置取随机初始中心的次数,其默认值为1,但取较多的次数可以改善聚类效果

K均值聚类后,数据集的结果为:

如果聚类正确的话,圆形点对应红色;三角形对应蓝色;方框对应绿色

K均值聚类setose品种聚类比较好,但有一些virginica品种的花被错误和virginica品种聚类到一起

关于“系统聚类法与k均值聚类法有什么异同吗”这个话题的介绍,今天小编就给大家分享完了,如果对你有所帮助请保持对本站的关注!

本文来自作者[郜梓淇]投稿,不代表精诚号立场,如若转载,请注明出处:https://www.jingchengyq.com/jinchen/976.html

(4)
郜梓淇的头像郜梓淇签约作者

文章推荐

发表回复

作者才能评论

评论列表(3条)

  • 郜梓淇的头像
    郜梓淇 2026年03月23日

    我是精诚号的签约作者“郜梓淇”

  • 郜梓淇
    郜梓淇 2026年03月23日

    本文概览:网上有关“系统聚类法与k均值聚类法有什么异同吗”话题很是火热,小编也是针对系统聚类法与k均值聚类法有什么异同吗寻找了一些与之相关的一些信息进行分析,如果能碰巧解决你现在面临的问...

  • 郜梓淇
    用户032309 2026年03月23日

    文章不错《系统聚类法与k均值聚类法有什么异同吗》内容很有帮助