前几天,有个粉丝在后台留言:
“实验做到两眼昏花,不知道大家的论文都写得怎么样了?我现在是恨不得克隆十个自己,一个泡在实验室盯实验结果,一个去盯基金申请,一个去写月底要送审的稿子.....
还有另外七个“我”,这边六七篇论文还没搞定。那边又有新论文要开题了,加上最后一个“本我”,刚刚够用,我可真是个数学天才!
可现实是只有一个我,只能天天熬夜。
好家伙,整得我都开始反问自己,是不是只有我的科研生活这么兵荒马乱?”
其实他不是个例,成千上万的科研人都要面对无尽的实验调研、反复修改的论文。
师弟今年研二,在一个严苛的老板手下,每天饱受折磨。“别给我发什么普刊,你这篇毕业论文至少发个南大核心。”老板最近定下的毕业目标,直接让他秃了头。为此他经常点开几百个网站去搜寻文献,逐个手动筛选数据。不仅耗费巨大的时间和精力,还收集到一堆无用又重复的垃圾资料。好不容易整理完所有数据,放进Spss里统计分析,出来的结果却与自己的结论相差甚远。他只能修改变量,收集新变量数据,再重新检验。这个循环至少要重复个十几遍,直到结果达到预期,才能继续后面的回归分析。为了这个核心期刊,师弟每天都得熬夜到凌晨。本来红润的脸逐渐枯黄,黑眼圈也一天比一天肿大。现在他血丝密布的双眼,看不到一点生机。可当他把这篇心血成果递到老板面前,却挨了一阵批斗。论文因各种理由被退回大改:想当然,文章太空洞,结论下得过于潦草,缺乏分析讨论;但同样是研二的数学专业的师姐小李,前不久就作为一作,发了篇南核C刊。而且她还有时间参加全国研究生数学建模比赛,斩获了二等奖,登上学校荣誉榜,引来大家仰慕的眼光。无奈的师弟忍不住向她请教。小李直接甩出她的神器:Python。本来还不太了解,但看小李演示后,震惊的师弟瞪大了眼睛:最让人头疼的文献,用Python 3秒就能定位,5分钟一并下载相关领域的关键文章、重要作者和科研热点,追溯引证关系。国外文献也能翻墙下载,专业匹配的自动翻译,让你不用为英文不好而烦恼。自动完成Spss中数据统计操作,并精准分析实验和调查的数据,省时省力,减少人工输入可能出现的错误。Python能把数据自动输出成折线图、三维图、直方图、嵌套饼图等规范高质量的图表,直观展示千辛万苦得来的研究成果,助力文章发表。要是我用Python查文献、做数据,写论文时也不至于这么煎熬了。想到这里,师弟下定决心要学习Python,并列下自己的学习计划。一个月后,学完Python的师弟精神焕发。Python不仅帮助他完成了毕业论文,还在工作、生活上也起到重要作用。在互联网信息爆炸的时代,信息来源网站多,信息量大,如果采用常规的人工搜索文献和手动整理数据,往往费时费力还完不成。但他有了Python这个强大的工具,只需要几行简短的代码,就可以:● 网络爬虫,一键爬取全网公开资料
● 对实验结果进行数据分析,让观点更科学严谨
● 批量处理上百个Excel、Word、PDF文件
● 生成可视化图表,成果展示更专业
……将用Python省掉的大量时间,去享受生活,去提升自己,它不香吗?当下,Python在信息搜集和数据分析方面的应用已经非常普遍,很多行业专家和学霸都在用Python来辅助自己做科研。就连中科院,都早已将Python列入招聘条件和培训范围。打开招聘网站,看一看高薪岗位的任职条件里,Python更是频繁出现。知名互联网企业都在使用Python,比如Google、Facebook、NASA、百度、腾讯、美团等。
20年前不会英语等于文盲;而未来不会Python等于文盲。
工欲善其事,必先利其器。大数据时代,科研人想要如鱼得水,学会Python应当提上日程。