UCSC里面下载非常方便,只需要根据基因组简称来拼接url即可: http://hgdownload.cse.ucsc.edu/goldenPath/mm10/bigZips/chromFa.tar.gz http://hgdownload.cse.ucsc.edu/goldenPath/mm9/bigZips/chromFa.tar.gz http://hgdownload.cse.ucsc.edu/goldenPath/hg19/bigZips/chromFa.tar.gz http://hgdownload.cs...
===将需要的染色体进行合并,并移动到单个fa文件暂存文件夹=== for i in chr1.fa chr2.fa chr3.fa chr4.fa chr5.fa chr6.fa chr7.fa chr8.fa chr9.fa chr10.fa chr11.fa chr12.fa chr13.fa chr14.fa chr15.fa chr16.fa chr17.fa chr18.fa chr19.fa chr20.fa chr21.fa chr22.fa ...
1、download>genome Data>human 2、latest/进入 3、下载hg19.fa.gz。同理
求hg19.fa的所..本人用bwa index命令给hg19.fasta建立索引,用了一个多小时出来了6个文件,在进入下一步进行比对的时候,报错了,由于没有hg19.fasta.net.ann文件而失败了,求大神给我hg
hg19.sizes 3. 解压文件 解压chromFa.tar.gz,获取单条染色体和线粒体fa文件。# 解压包tar xvf chrom...
wc -l hg19.fa 然后我写了一个脚本统计每条染色体的长度,42秒钟完成任务! 看来这个服务器的性能还是蛮强大的,读取文件非常快! [perl] while(<>){ chomp; if (/>/){ if (exists $hash_chr{$key} ){ $len = length $hash_chr{$key};
wc -l hg19.fa 然后我写了一个脚本统计每条染色体的长度,42秒钟完成任务! 看来这个服务器的性能还是蛮强大的,读取文件非常快! [perl] while(<>){ chomp; if (/>/){ if (exists $hash_chr{$key} ){ $len = length $hash_chr{$key};
url_full = [url_base, chr_list{i}, '.fa.gz']; while true try urlwrite(url_full, [chr_list{i}, '.fa.gz']); break; catch fprintf('try again...\n'); end end end % 脚本运行后,会在脚本当前目录下下载好hg19的基因组序列压缩文件...
do cat chr${i}.fa >>hg19.fasta;done rm -fr chr*.fasta 需要选择一系列参数:Table Browser 1...
perl -lne 'END { print $. }' hg19.fa awk 'END { print NR }' hg19.fa wc -l hg19.fa 然后我写了一个脚本统计每条染色体的长度,42秒钟完成任务! 看来这个服务器的性能还是蛮强大的,读取文件非常快! [perl] while(<>){ chomp; if (/>/){ ...