模型:
ncfrey/ChemGPT-1.2B
ChemGPT是基于GPT-Neo模型的,该模型在论文 Neural Scaling of Deep Chemical Models 中介绍。
ChemGPT是一个用于生成分子模型的transformers模型,它是在PubChem10M数据集上进行预训练的。
您可以直接使用?/transformers库中的这个模型。
该模型是在PubChem的一部分分子上进行训练的。您可以使用这个模型生成分子,但它主要用于研究预训练和微调对下游数据集的影响。
PubChem10M,一个包含来自PubChem的SMILES字符串的数据集,可通过 DeepChem 获取。
使用SELFIES库的1.0.4版本将SMILES字符串转换为SELFIES。
请参考 LitMatter repository 中的代码。
@article{frey_soklaski_axelrod_samsi_gomez-bombarelli_coley_gadepally_2022, place={Cambridge}, title={Neural Scaling of Deep Chemical Models}, DOI={10.26434/chemrxiv-2022-3s512}, journal={ChemRxiv}, publisher={Cambridge Open Engage}, author={Frey, Nathan and Soklaski, Ryan and Axelrod, Simon and Samsi, Siddharth and Gomez-Bombarelli, Rafael and Coley, Connor and Gadepally, Vijay}, year={2022}} This content is a preprint and has not been peer-reviewed.
Frey, Nathan, Ryan Soklaski, Simon Axelrod, Siddharth Samsi, Rafael Gomez-Bombarelli, Connor Coley, and Vijay Gadepally. "Neural Scaling of Deep Chemical Models." ChemRxiv (2022). Print. This content is a preprint and has not been peer-reviewed.