![从零开始大模型开发与微调:基于PyTorch与ChatGLM](https://wfqqreader-1252317822.image.myqcloud.com/cover/322/52842322/b_52842322.jpg)
上QQ阅读APP看书,第一时间看更新
2.3 生成式模型实战:古诗词的生成
为了验证安装情况,本节准备了一段实战代码供读者学习,首先读者需要打开CMD窗口安装一个本实战所需要的类库transformers,安装命令如下:
pip install transformers
之后在PyCharm中直接打开作者提供的Peom代码文件:
from transformers import BertTokenizer, GPT2LMHeadModel,TextGenerationPipeline tokenizer = BertTokenizer.from_pretrained("uer/gpt2-chinese-poem") model = GPT2LMHeadModel.from_pretrained("uer/gpt2-chinese-poem") text_generator = TextGenerationPipeline(model, tokenizer) result = text_generator("[CLS] 万 叠 春 山 积 雨 晴 ,", max_length=50, do_sample=True) print(result)
这里需要提示一下,在上述代码段中,“[CLS]万叠春山积雨晴”是起始内容,然后根据所输入的起始内容输出后续的诗句,当然读者也可以自定义起始句子,如图2-23所示。
![](https://epubservercos.yuewen.com/68977F/31397789204971206/epubprivate/OEBPS/Images/Figure-P34_1601.jpg?sign=1738798929-soBfLN8a0luExkBZQ2Ofsi13U2Je4s1Q-0-e4981fa5524f22881567c2183af26b47)
图2-23 根据输入的起始内容输出后续的诗句