scGPT: 用生成式AI搭建单细胞多组学数据的基础大模型
GPT(Generative Pre-training Transformer)是一种基于Transformer架构的预训练语言模型,它仅使用了Transformer的解码器结构,在生成时看不到自己后面的内容,相比于BERT选择了更难的技术路线(后者只使用了T
GPT(Generative Pre-training Transformer)是一种基于Transformer架构的预训练语言模型,它仅使用了Transformer的解码器结构,在生成时看不到自己后面的内容,相比于BERT选择了更难的技术路线(后者只使用了T