>>>importnumpyasnp>>>fromsklearn.decompositionimportPCA>>>X = np.array([[-1,-1], [-2,-1], [-3,-2], [1,1], [2,1], [3,2]])>>>pca =PCA(n_components=2)>>>pca.fit(X)PCA(n_components=2)>>>print(pca.explained_variance_
classsklearn.decomposition.IncrementalPCA(n_components=None, *, whiten=False, copy=True, batch_size=None) 增量主成分分析(IPCA)。 使用数据的奇异值分解进行线性降维,仅保留最重要的奇异向量以将数据投影到较低维空间。在应用 SVD 之前,输入数据居中,但未针对每个特征进行缩放。 根据输入数据的大小,该算法的...
用法: class sklearn.decomposition.SparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, max_iter=1000, tol=1e-08, method='lars', n_jobs=None, U_init=None, V_init=None, verbose=False, random_state=None) 稀疏主成分分析(SparsePCA)。 找到可以優化重構數據的稀疏組件集。稀疏程度可以...
用法: classsklearn.decomposition.KernelPCA(n_components=None, *, kernel='linear', gamma=None, degree=3, coef0=1, kernel_params=None, alpha=1.0, fit_inverse_transform=False, eigen_solver='auto', tol=0, max_iter=None, iterated_power='auto', remove_zero_eig=False, random_state=None, co...
用法: classsklearn.decomposition.SparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, max_iter=1000, tol=1e-08, method='lars', n_jobs=None, U_init=None, V_init=None, verbose=False, random_state=None) 稀疏主成分分析(SparsePCA)。
用法: classsklearn.decomposition.MiniBatchSparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, n_iter=100, callback=None, batch_size=3, verbose=False, shuffle=True, n_jobs=None, method='lars', random_state=None) 小批量稀疏主成分分析。
本文简要介绍python语言中 sklearn.decomposition.IncrementalPCA.transform 的用法。 用法: transform(X) 对X 应用降维。 如果X 是稀疏的,则使用大小为 batch_size 的小批量将 X 投影到先前从训练集中提取的第一个主成分上。 参数: X:{类数组,稀疏矩阵},形状为 (n_samples, n_features) 新数据,其中n_...