Python 是两个很酷的词汇。它是当今世界上产业发展最慢的C词汇众所周知。它一场又一场地证明了在开发者职务中和跨地区的统计数据自然科学职务中的便携性。整座 Python 或其库的生态系使它正式成为在当今世界上使用者(新手和高阶使用者)的最合适优先选择。它的获得成功和盛行的其原因众所周知是它强悍的服务器端库的子集,那些集州它能维持生机和高效率。
在责任编辑中,他们会科学研究许多用作统计数据自然科学各项任务的 Python 库,而并非常用的比如说 panda、scikit-learn 和 matplotlib 等的库。虽然像 panda 和 scikit-learn 这种的库,是在机器学习各项任务中常有的,但介绍那个应用领域中的其他 Python 商品常常很有益处的。
一、Wget
从互联网上抽取统计数据是统计数据自然生物学家的关键各项任务众所周知。Wget 是两个完全免费的程序库,能用作从互联网上浏览非互动式的文档。它全力支持 HTTP、HTTPS 和 FTP 协定,和透过 HTTP 的代理展开文档索引。虽然它亦然互动式的,即便使用者没登入,它也能在前台组织工作。因此到时候当你想浏览两个中文网站或是两个网页上的大部份相片时,wget 能协助你。
加装:
$ pip install wget范例:
import wget url = http://www.futurecrew.com/skaven/song_files/mp3/razorback.mp3 filename = wget.download(url) 100% […………………………………………] 3841532 / 3841532 filename razorback.mp3 ### Pendulum二、Pendulum
对于那些在 python 中处理日期时间时会感到沮丧的人来说,Pendulum 很适合你。它是两个简化日期时间操作的 Python 包。它是 Python 原生类的简易替代。请参阅文档深入学习。
加装:
$ pip install pendulum范例:
import pendulum dt_toronto = pendulum.datetime(2012, 1, 1, tz=America/Toronto) dt_vancouver = pendulum.datetime(2012, 1, 1, tz=America/Vancouver) print(dt_vancouver.diff(dt_toronto).in_hours()) 3三、imbalanced-learn
能看出,当每个类的样本数量基本相同时,大多数分类算法的效果是最好的,即需要维持统计数据平衡。但现实案例中大多是不平衡的统计数据集,那些统计数据集对机器学习算法的学习阶段和后续预测都有很大影响。幸运的是,那个库就是用来解决此问题的。它与 scikit-learn 兼容,是 scikit-lear-contrib 项目的一部分。到时候当你遇到不平衡的统计数据集时,请尝试使用它。
加装:
pip install -U imbalanced-learn # 或是 conda install -c conda-forge imbalanced-learn范例:
使用方法和范例请参考文档。
四、FlashText
在 NLP 各项任务中,清理文本统计数据往往需要替换句子中的关键字或从句子中抽取关键字。通常,这种操作能使用正则表达式来完成,但如果要搜索的术语数量达到数千个,这就会变得很麻烦。Python 的 FlashText 模块是基于 FlashText 算法为这种情况提供了两个最合适的替代方案。FlashText 最棒的一点是,不管搜索词的数量如何,运行时间都是相同的。你能在这里介绍更多内容。
加装:
$ pip install flashtext范例:
抽取关键字
from flashtext importKeywordProcessor keyword_processor = KeywordProcessor()# keyword_processor.add_keyword(<unclean name>, <standardised name>) keyword_processor.add_keyword(Big Apple, New York) keyword_processor.add_keyword(Bay Area) keywords_found = keyword_processor.extract_keywords(I love Big Apple and Bay Area.) keywords_found [New York, Bay Area]替换关键字
keyword_processor.add_keyword(New Delhi, NCR region) new_sentence = keyword_processor.replace_keywords(I love Big Apple and new delhi.) new_sentence I love New York and NCR region. Fuzzywuzzy五、fuzzywuzzy
那个库的名字听起来很奇怪,但在字符串匹配方面,fuzzywuzzy 是两个十分有用的库。能很方便地实现计算字符串匹配度、令牌匹配度等操作,也能很方便地匹配保存在不同统计数据库中的记录。
加装:
$ pip install fuzzywuzzy范例:
from fuzzywuzzy import fuzz from fuzzywuzzy import process # 简单匹配度 fuzz.ratio(“this is a test”, “this is a test!”) 97 # 模糊匹配度 fuzz.partial_ratio(“this is a test”, “this is a test!”) 100更多有趣范例能在 GitHub 仓库找到。
六、PyFlux
时间序列分析是机器学习应用领域中最常用的问题众所周知。PyFlux 是 Python 中的两个开源库,它是为处理时间序列问题而构建的。该库拥有一系列优秀的现代时间序列模型,包括但不限于 ARIMA、GARCH 和 VAR 模型。简而言之,PyFlux 为时间序列建模提供了一种概率方法。值得尝试一下。
加装
pip install pyflux范例
详细用法和范例请参考官方文档。
七、Ipyvolume
结果展示也是统计数据自然科学中的两个关键方面。能够将结果展开可视化将具有很大优势。IPyvolume 是两个能在 Jupyter notebook 中可视化三维体和图形(例如三维散点图等)的 Python 库,并且只需要少量配置。但它目前还是 1.0 之前的版本阶段。用两个比较恰当的比喻来解释就是
使用 pip
$ pip install ipyvolume使用 Conda/Anaconda
$ conda install -c conda-forge ipyvolume范例
动画八、Dash
Dash 是两个高效率的用作构建 web 应用程序的 Python 框架。它是在 Flask、Plotly.js 和 React.js 基础上设计而成的,绑定了很多比如说下拉框、滑动条和图表的现代 UI 元素,你能直接使用 Python 代码来写相关分析,而无需
pip install dash==0.29.0 # 核心 dash 后端 pip install dash-html-components==0.13.2 # HTML 组件 pip install dash-core-components==0.36.0 # 增强组件 pipinstall dash-table==3.1.3 # 互动式 DataTable 组件(最新!)范例下面的范例展示了两个具有下拉功能的高度互动式图表。当使用者在下拉菜单中优先选择两个值时,应用程序代码将动态地将统计数据从 Google Finance 导出到 panda DataFrame。
九、Gym
OpenAI 的 Gym 是一款用作增强学习算法的开发和比较工具包。它兼容任何数值计算库,如 TensorFlow 或 Theano。Gym 库是测试问题子集的必备工具,那个子集也称为环境 —— 你能用它来开发你的强化学习算法。那些环境有两个共享接口,允许你展开通用算法的编写。
加装
pipinstall gym范例那个范例会运行CartPole-v0环境中的两个实例,它的时间步数为 1000,每一步都会渲染整座场景。
总结
以上那些有用的统计数据自然科学 Python 库都是我精心挑选出来的,并非常用的如 numpy 和 pandas 等库。如果你知道其他库,能添加到列表中来,请在下面的评论中提一下。另外别忘了先尝试运行一下它们。