助力图深度学习研究与应用,清华团队发布CogDL v0.2

来源: 学术头条

发布日期: 2021-01-22

清华团队开发的CogDL工具包,专注于图深度学习,最新v0.2版本简化了调用机制,支持自定义模型和数据集,并整合了超参搜索功能,提升了实验效率。

图神经网络最近好火呀,可现在相关论文太多了,想发一篇论文要跑超多实验,对比各种baseline。我知道有个叫做CogDL的工具包,能一键帮我们把baseline跑完。CogDL是由清华团队开发的一个专注图深度学习的工具包。安装完PyTorch之后通过pip install cogdl就完成安装了。安装也这么方便,让我马上试试。哇,成功了!这也太方便了吧!妈妈再也不用担心我跑不完baseline了!

不仅如此,CogDL还支持你把自定义的模型和数据集接入现有的训练逻辑中快速进行实验。那我可以专注于我的模型!这样从idea到完成实验的时间都大幅缩短了!最近他们还推出了v0.2的新版本呢!快去使用和关注(star)!2020年10月28日,CogDL发布了v0.1版本。图深度学习工具包CogDL v0.1:一行即训练,上线以来受到大家的广泛关注,同时也收到了大家的很多建议。

现在,CogDL推出了更容易使用,更友好的v0.2版本。下面一起看看有哪些新功能吧~在之前的版本中,需要构造模型参数、数据集,建立模型,执行训练和验证等任务。在CogDL v0.2版本中,将任务、数据集、模型和参数,统一为一个experiment接口,只需直接调用experiment函数即可完成一行实现训练。

experiment接口还整合了optuna的超参搜索功能,只需提供不同超参的搜索范围即可。具体使用方法如下:此外,该接口支持自定义模型和数据集,快来试试吧。新增pineline方法,通过调用pipeline方法可以很容易的实现一些有趣的应用,比如数据集的状态显示、节点的k-hop neighbor可视化等。值得一提的是,pipeline接口还支持调用OAGBert模型。

该模型是我们实验室在大规模学术语料上训练的Bert模型。CogDL项目传送门:https://github.com/THUDM/cogdl

UUID: 07d6eb7a-302d-4031-bf96-72c887b2423a

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2021年/2021-01-22_助力图深度学习研究与应用,清华团队发布CogDLv0.2.txt

是否为广告: 否

处理费用: 0.0031 元