没有自己的服务器如何学习生物数据分析(下篇)
编者注:在上篇文章《没有自己的服务器如何学习生物数据分析》上篇,我们对 IBM 云计算平台有了基本了解,也学习了如何对数据进行下载上传以及基本的预处理。
在《没有自己的服务器如何学习生物数据分析》下篇,我们将继续跟随作者的脚步学习如何利用IBM云计算平台处理实际的生物学数据分析问题。题目来自生信技能树论坛,论坛网址:http://biotrainee.com/forum.php/
如果你没有看过上篇内容,建议你先去阅读没有自己的服务器如何学习生物数据分析(上篇)
祝阅读愉快,下面是文章正文!
首先思考一下提问者的几个问题:
每条染色体基因个数的分布?
所有基因平均有多少个转录本?
所有转录本平均有多个exon和intron?
那如何将这几句话翻译成 SQL 语句呢
每条染色体基因个数的分布?
思考一下,问的其实是:
每个 Chrom 值,对应 几种、不重复的Gene?
SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF
GROUP BY Chrom
"每个" Chrom 意味着 GROUP BY Chrom, 与此同时,前面SELECT 就得加上 Chrom,这样最后的结果才会显示是哪个染色体。
"几种" 翻译成 COUNT,不重复翻译成 "DISTINCT",于是合并后就是 COUNT(DISTINC(Gene))
然后我们要保证只看 Gene Tran Exon 都非空的行,即 WHERE (Gene != "NULL") AND (Tran !="NULL") AND (Exon != "NULL")
。
于是写出SQL:
SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF
WHERE (Gene != "NULL") AND (Tran != "NULL") AND (Exon != "NULL")
GROUP BY Chrom
了解更多 SQL 可以在这个网站 https://www.w3schools.com/sql/ 在线学习基本的SQL语句。
SQL 语句在调取 UCSC 数据集中同样作用巨大,具体这里不表。
这句话怎么在 DataFrame 执行?需要先 registerTempTable("GTF")
把 df 这个 dataFrame 给 SparkSQL,取一个表名,叫做 “GTF”。这样 df 就可以直接用 SQL语句分析了。
更多内容参考文档http://spark.apache.org/docs/2.0.2/sql-programming-guide.html
代码块【6】:
df.registerTempTable("GTF")
sqlDF_genesInEachChr = spark.sql("""
SELECT Chrom, COUNT(DISTINCT(Gene)) AS Cnt FROM GTF
WHERE (Gene != "NULL") AND (Tran != "NULL") AND (Exon != "NULL")
GROUP BY Chrom
""")
sqlDF_genesInEachChr.show()
结果:
运行过程时间有点长,请耐心等待。
因为 IBM 的免费机器是 2 核心单机模式,体现不出 Spark 大数据分析的威力。如果你在Spark集群模式下,几台 48 线程的机器上对一个大文件执行SparkSQL(前提是没人使用 + 满CPU使用),在等待的过程中去后台 top 一下,会看见计算节点上全部都是恐怖的 4800% 的 CPU 使用率,共同执行同一个任务。
好啦,SparkSQL 的结果已经只有20+行了,此时可以收进内存里面了。
不过 SparkSQL 的结果是个 DataFrame, R 语言倒是能直接收进去,Python 默认的数据类型,没有这个,怎么办?
来,我们先抑制住重复造轮子、准备自己写一个的冲动,由于我们最开始 Import 了 pandas,这个包引入后, Python 也就支持 DataFrame 了。这里直接用SparkSQL 的 toPandas 方法,就可以得到Pandas 的 DataFrame 了:
代码块【7】:
pd_genesInEachChr = sqlDF_genesInEachChr.toPandas()
pd_genesInEachChr.head()
结果:
画图
得到表了,有人要说,你最开始就讲* Jupyter 能画图*,有个包叫做 seaborn 的还跟 ggplot2 一样简单,记忆力强的还念叨着 setstyle('white') 相当于 themebw(),现场画一个呗?
没问题。首先,Pandas 的DataFrame 没有R语言的 factor 这种让人又爱又恨的东西(掉过这个坑的在下面举手)。所以如果要调整顺序,得自己想办法。我就用了高阶函数做这个事情。具体大家参考 廖雪峰大神的Python 教程之匿名函数篇 加 高阶函数篇。简单说, 下面的 lambda 属于匿名函数,对我这种懒人而言不用写 def 定义函数了。map 是对一个列表每个值执行一个函数, reduce 把返回结果一个接在另一个尾巴上。有Python基础的注意,由于 map 返回的是 pandas 的 DataFrame 而不是 Python 默认的list,实际上 reduce 的 append 是 Pandas的append 而不是系统 append。
还不清楚的,这里写一个 shell 的同义语句:
rm input.chrSort.txt
for chr in {1..22} X Y MT
do
grep -w ${chr} input.txt >>input.chrSort.txt
done
代码块【8】:
l_plotChrOrder = map(lambda x: str(x), range(1, 23)) + ['X', 'Y', 'MT']
pd_genesInEachChrSort = reduce(lambda x,y: x.append(y),
map(lambda x: pd_genesInEachChr[pd_genesInEachChr['Chrom'] == x], l_plotChrOrder)
)
pd_genesInEachChrSort.head()
结果:
代码块【9】:
sns.barplot(data=pd_genesInEachChrSort, x="Cnt", y="Chrom")
结果:
<matplotlib.axes._subplots.AxesSubplot at 0x7fb1a31e9110>
大家看是不是实现了 ggplot2 的效果?更多例子请查看 seaborn文档。
OK,快速解决剩下来的问题:
所有基因平均有多少个转录本?
代码块【10】:
sqlDF_transInEachGene = spark.sql("""
SELECT Gene, COUNT(DISTINCT(Tran)) AS Cnt FROM GTF
WHERE (Gene != "NULL") AND (Tran != "NULL") AND (Exon != "NULL")
GROUP BY Gene
""")
pd_transInEachGene = sqlDF_transInEachGene.toPandas()
sns.distplot(pd_transInEachGene['Cnt'])
结果:
<matplotlib.axes._subplots.AxesSubplot at 0x7fb1a09a6bd0>
图片展示效果调整
画好了,拿给老板看,这个肯定得挨骂,不好看啊,长尾效应太明显。Python 作图微调效果如何?好用的话你画一个 0~25 的柱状分布呗?
既然要微调,我就用原始的python 作图 matplotlib 库了,他和 seaborn 的关系如同 R 的 plot 与 ggolot2。
matplotlib 库有非常精美的 gallery,代码拿来就能在jupyter上画,再次强调,如果不显示图像请像我这里最开始import 一样加 %matplotlib inline 魔法。
画之前先简单看下数据分布,类似 R 的 summary
代码块【11】:
pd_transInEachGene['Cnt'].describe()
结果:
count 57992.000000
mean 3.413143
std 5.103533
min 1.000000
25% 1.000000
50% 1.000000
75% 4.000000
max 170.000000
Name: Cnt, dtype: float64
代码块【12】:
plt.hist(pd_transInEachGene['Cnt'], max(pd_transInEachGene['Cnt']), histtype='bar')
plt.xlim(0, 25)
结果:
(0, 25)
OK,这个应该拿给老板不会挨骂了,下一个问题:
所有转录本平均有多个exon?
代码块【13】:
sqlDF_exonsInEachTran = spark.sql("""
SELECT Tran, COUNT(DISTINCT(Exon)) AS Cnt FROM GTF
WHERE (Gene != "NULL") AND (Tran != "NULL") AND (Exon != "NULL")
GROUP BY Tran
""")
pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()
pd_exonsInEachTran.head()
结果:
代码块【14】:
print("Median Value %d " % (pd_exonsInEachTran.median(0)))
plt.hist(pd_exonsInEachTran['Cnt'], max(pd_exonsInEachTran['Cnt']), histtype='bar')
plt.xlim(0, 15)
结果:
Median Value 4
(0, 15)
老板觉得似乎不对,想起了什么……
“这里看的是所有基因,我要你看的是编码基因。那么多非编码的看他干嘛!除了把中位数往下带跑偏影响结果,有什么意义?!”
此时,听话的人就直接 grep protein_coding
去了。而对此,我认为,如果长期以往,只能一直做菜鸟。我们要多长一个心眼,里面不还有 lincRNA 嘛,也挺重要,万一老板哪天让我比一下lincRNA 和编码的,我是不是还得再算一次?万一又要看其他的呢?
防止这种情况,很简单,把基因类型那一列加进去,分不同基因类别,全算出来放那里就好了。
如果是用 perl 的 hash表做这件事,就会出来个似乎是(原谅我几年不写perl全忘光了)这样的数据架构:
push(@{$TypeTranExons{$gtype}{$tran}}, $exon);
相信有过这种噩梦般经历的读者此时会是懵逼的。哪地方该有括号,用 $ @ 还是%,小骆驼根本就没有,写错一个就报错,想深入学习,要么去看大神的代码,要么就得去看一本叫做 《Perl高级编程》的书,京东购买链接 在这里,点开发现无货的别急,这本书我几年前学这个的时候,就早已断货了。
Python 就没有这么多规矩,我最早就为的这个转的 python。
TypeTranExons[gtype][tran].append(exon)
当然我们现在有了 pyspark,更不用去折腾 Hash 结构去了,直接在 SQL 里,说人话。
代码块【15】:
pat_gene = '''gene_id\s+\"(\S+)\";'''
pat_tran = '''transcript_id\s+\"(\S+)\";'''
pat_exon = '''exon_number\s+\"*(\w+)\"*'''
pat_type = '''gene_biotype\s+\"*(\w+)\"*'''
pattern_gene = re.compile( pat_gene )
pattern_tran = re.compile( pat_tran )
pattern_exon = re.compile( pat_exon )
pattern_type = re.compile( pat_type )
def parseEachLineV2(f_line):
match_gene = pattern_gene.search( f_line[-1] )
match_tran = pattern_tran.search( f_line[-1] )
match_exon = pattern_exon.search( f_line[-1] )
match_type = pattern_type.search( f_line[-1] )
gene = "NULL"
tran = "NULL"
exon = "NULL"
gtype = "NULL"
if match_gene:
gene = match_gene.group(1)
if match_tran:
tran = match_tran.group(1)
if match_exon:
exon = match_exon.group(1)
if match_type:
gtype = match_type.group(1)
return [gene, tran, exon, gtype,f_line[0]]
rdd = spark.read.text(path_1).rdd\
.filter(lambda x: x.value[0]!= "#")\
.map(lambda x: x.value.split("\t"))\
.map(lambda x: parseEachLineV2(x))
rdd.take(5)
结果:
[[u'ENSG00000223972',
'NULL',
'NULL',
u'transcribed_unprocessed_pseudogene',
u'1'],
[u'ENSG00000223972',
u'ENST00000456328',
'NULL',
u'transcribed_unprocessed_pseudogene',
u'1'],
[u'ENSG00000223972',
u'ENST00000456328',
u'1',
u'transcribed_unprocessed_pseudogene',
u'1'],
[u'ENSG00000223972',
u'ENST00000456328',
u'2',
u'transcribed_unprocessed_pseudogene',
u'1'],
[u'ENSG00000223972',
u'ENST00000456328',
u'3',
u'transcribed_unprocessed_pseudogene',
u'1']]
代码块【16】:
from pyspark.sql.types import *
schema2=StructType(
[StructField("Gene", StringType())] +
[StructField("Tran", StringType())] +
[StructField("Exon", StringType())] +
[StructField("Type", StringType())] +
[StructField("Chrom", StringType())]
)
df2 = sqlCtx.createDataFrame(rdd, schema2)
df2.show()
结果:
+---------------+---------------+----+--------------------+-----+
| Gene| Tran|Exon| Type|Chrom|
+---------------+---------------+----+--------------------+-----+
|ENSG00000223972| NULL|NULL|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000456328|NULL|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000456328| 1|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000456328| 2|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000456328| 3|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305|NULL|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305| 1|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305| 2|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305| 3|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305| 4|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305| 5|transcribed_unpro...| 1|
|ENSG00000223972|ENST00000450305| 6|transcribed_unpro...| 1|
|ENSG00000227232| NULL|NULL|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147|NULL|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147| 1|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147| 2|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147| 3|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147| 4|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147| 5|unprocessed_pseud...| 1|
|ENSG00000227232|ENST00000488147| 6|unprocessed_pseud...| 1|
+---------------+---------------+----+--------------------+-----+
only showing top 20 rows
OK, 新的一列成果加入表格,然后写SQL 分析数据。既然要看各种基因类型、每个转录本有几种外显子,那么 GROUP BY 就加一个 Type 列,SELECT 也加一个 Type 列显示出来。
代码块【17】:
df2.registerTempTable("GTF2")
sqlDF_exonsInEachTran = spark.sql("""
SELECT Tran, Type, COUNT(DISTINCT(Exon)) AS Cnt FROM GTF2
WHERE (Gene != "NULL") AND (Tran != "NULL") AND (Exon != "NULL")
GROUP BY Tran, Type
""")
pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()
pd_exonsInEachTran.head()
结果:
Pandas 也可以进行分组信息统计,如同 R 的 ddply。
代码块【18】:
pd_sort = pd_exonsInEachTran[['Type', 'Cnt']].groupby(['Type'])\
.agg([len,np.median, np.mean, np.std])['Cnt']\
.sort_values(['median'], ascending=False)
pd_sort.head()
结果:
再排序画图看看
代码块【19】:
pd_exonsInEachTran_sort = reduce(lambda x,y: x.append(y),
map(lambda x: pd_exonsInEachTran[pd_exonsInEachTran['Type']==x], pd_sort.index[0:10])
)
pd_exonsInEachTran_sort.head()
结果:
最后画一个复杂点的啊
代码块【20】:
fig = plt.figure(figsize=(8, 8))
ax1 = fig.add_subplot(121)
ax2 = fig.add_subplot(122)
sns.boxplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax1)
sns.violinplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax2, bw=0.5)
ax1.set_xlim(0, 20)
ax2.set_xlim(-5, 60)
ax2.set_yticklabels([])
ax2.set_xticks([0, 20, 40, 60])
ax2.set_xticklabels([0, 20, 40, 60])
ax1.set_title("Boxplot")
ax2.set_title("Violinplot")
结果:
<matplotlib.text.Text at 0x7fb19e203050>
IBM data science 上代码:
https://apsportal.ibm.com/analytics/notebooks/d3400624-fd7f-483b-96f3-b9d07876f455/view?access_token=499996f6a4e6f93e448907bf219bae6310975c0d02521c7c67ef02b79b1ccf77