关注于数据分析的小站

# 5.5. 无监督降维

校验者:
        @程威
翻译者:
        @十四号

如果你的特征数量很多, 在监督步骤之前, 可以通过无监督的步骤来减少特征. 很多的 无监督学习 方法实现了一个名为 transform 的方法, 它可以用来降低维度. 下面我们将讨论大量使用这种模式的两个具体示例.

Pipelining
非监督数据约简和监督估计器可以链接起来。 请看 Pipeline: 链式评估器.

5.5.1. PCA: 主成份分析

decomposition.PCA 寻找能够捕捉原始特征的差异的特征的组合. 请参阅 分解成分中的信号(矩阵分解问题).

示例

5.5.2. 随机投影

模块: random_projection 提供了几种用于通过随机投影减少数据的工具. 请参阅文档的相关部分: 随机投影.

示例

5.5.3. 特征聚集

cluster.FeatureAgglomeration 应用 层次聚类 将行为类似的特征分组在一起.

示例

特征缩放

请注意,如果功能具有明显不同的缩放或统计属性,则 cluster.FeatureAgglomeration 可能无法捕获相关特征之间的关系.使用一个 preprocessing.StandardScaler 可以在这些 设置中使用.

赞(4)
未经允许不得转载:0dayhub » # 5.5. 无监督降维
分享到: 更多 (0)
%d 博主赞过: