X_norm= sc.pp.normalize_total(adata, inplace=False)#输出:X_norm {'X': array([[ 3. , 3. , 3. , 6. , 6. ], [3. , 3. , 3. , 6. , 6. ], [0.75, 16.5 , 0.75, 1.5 , 1.5 ]], dtype=float32),'norm_factor': array([21., 7., 28.], dtype=float32)} 在target_...
scanpy的标准化从sc.pp.normalize_per_cell()更新成了sc.pp.normalize_total(),它官方也是建议用后者(当然前面这个函数仍然存在,且可以正常使用)。二者目的是基本一致的,处理数据的过程也没变,但是存在细微的差别,总体而言就是新的sc.pp.normalize_total()在参数设置方面更加人性化了。如下是旧的sc.pp.normalize_...
if adata_GS_uniformed.X.max() > 10: sc.pp.normalize_total(adata_GS_uniformed, target_sum=1e4) sc.pp.log1p(adata_GS_uniformed) 4.载入scMulan模型 ckp_path = 'ckpt/ckpt_scMulan.pt' scml = scMulan.model_inference(ckp_path, adata_GS_uniformed) base_process = scml.cuda_count() scml...
1.3 normalize if self.normalize_total: logger.info("Normalizing total counts ...") normed_ = sc.pp.normalize_total( adata, target_sum=self.normalize_total if isinstance(self.normalize_total, float) else None, layer=key_to_process, inplace=False, )["X"] key_to_process = self.result_nor...
数据处理:统一基因symbol,去除不匹配的基因和重复的基因。然后使用scanpy中的sc.pp.normalize_total和sc.pp.log1p方法对数据进行归一化(所以输入的是归一化后的)。 代码地址:https://github.com/TencentAILabHealthcare/scBERT 1.scBERT算法 1.1 模型架构概览 ...
# PanglaoDB 是 scBERT 的预训练数据集panglao=sc.read_h5ad('./data/panglao_10000.h5ad')# 去除低质量细胞sc.pp.filter_cells(new,min_genes=200)# 根据每个细胞的 Library Size 进行标准化sc.pp.normalize_total(new,target_sum=1e4)# 将基因表达值 x 进行 log2(x+1) 的转化sc.pp.log1p(new,ba...