简而言之,LDA将数据从m维特征空间线性投影到n维(小于m维)特征空间,核心就是找这么一个线性投影P。 目标是使得投影后的同类数据之间的差距尽可能小,不同类数据之间的差距尽可能大。这里是两个目标,会用除法将其整合为一个目标。 投影降维后的投影点就是经过特征提取后的点,那么降维的过程就是针对分类的特征提取...
假设我们是要将一个D维的数据空间投影到M维的数据空间中(M < D), 那我们取前M个特征向量构成的投影矩阵就是能够使得方差最大的矩阵了。 最小化损失法: 假设输入数据x是在D维空间中的点,那么,我们可以用D个正交的D维向量去完全的表示这个空间(这个空间中所有的向量都可以用这D个向量的线性组合得到)。在D...
若将W视为一个投影矩阵,则多分类LDA将样本投影到N-1维空间,N-1通常远小于数据原有的属性数(维度)。于是,可通过这个投影来减小样本点的维数,且投影过程中使用了类别信息,因此LDA也常被视为一种经典的监督降维技术(可用于特征提取)。 附:另一种多类推广原理解释: 问: LDA是什么?基本原理? LDA是线性判别分析...
LDA的原理:投影到维度更低的空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类别的点,将会在投影后的空间中更接近方法。 下图来自周志华《机器学习》,给出了一个二维示意图: 什么是线性判别分析呢?所谓的线性就是,我们要将数据点投影到直线上(可能是多条直线),直线的函数解析式又称为线性函数,通常...
三 多类别的线性判别分析 上节针对的只是二分类的情况,对于多类别的情况,该如何保证投影后的类别充分分离呢? 假设有 n 维特征,m 个样本数据,共 C 个类别,要将 n 维数据映射到 k 维,所以需要k维向量来做投影:y=W^Tx,其中 W 为(n*k)矩阵。
4. 降维:将原始数据投影到选定的特征向量上,得到降维后的数据。二、应用场景 LDA可以用于:- 分类:通过找到最佳的投影方向,LDA可以提高分类器的准确性。- 降维:在进行分类之前,减少数据的维度,以简化模型并减少计算成本。线性判别分析(LDA)由于其在分类和降维方面的能力,被广泛应用于多种商业场景中。1. ...
1、线性判别要分析的问题 (1)用途:LDA在数据预处理中的主要作用是降维和分类任务。目标:LDA的核心是最大化类间区分度的坐标轴成分。方法:通过将特征空间投影到一个维度更小的K维子空间,同时保持区分类别的信息。原理:将数据投影到更低维度空间,使同类点更加接近,异类点距离更远。难点:寻找...
线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的有监督数据降维方法。LDA的主要思想是将一个高维空间中的数据投影到一个较低维的空间中,且投影后要保证各个类别的类内方差小而类间均值差别大,这意味着同一类的高维数据投影到低维空间后相同类别的聚在一起,而不同类别之间相距较远。如下图将二维...
其中的tr()为矩阵的迹,一个n×n的对角矩阵A的主对角线(从左上方至右下方的对角线)上各个元素的总和被称为矩阵A的迹(或迹数),一般记作tr(A)。 这个优化目标实际上等价于求解多个w组合成W,那么该问题就等价于求解多个上一章的优化目标,使用相同的方法,可以求得下式:...
通过将数据投影到低维空间,LDA追求同一类数据的紧凑和不同类数据的分离。 通过数学推导,LDA在二分类和多分类问题中的目标都是找到一个投影向量,使得类内数据点的差异最大化,类间数据点的差异最小化。 尽管推导过程涉及到复杂的矩阵运算,但最终目标是找到最优的投影向量,将数据降维至最大化...