当前位置: 首页 > news >正文

肇庆网站制作策划如何在亚马逊上开店卖到国外

肇庆网站制作策划,如何在亚马逊上开店卖到国外,产品推广方法有哪些,建协官网1 GPT-2 模型结构 GPT-2的整体结构如下图#xff0c;GPT-2是以Transformer为基础构建的#xff0c;使用字节对编码的方法进行数据预处理#xff0c;通过预测下一个词任务进行预训练的语言模型。 1.1 GPT-2 功能简介 GPT-2 就是一个语言模型#xff0c;能够根据上文预测下… 1 GPT-2 模型结构 GPT-2的整体结构如下图GPT-2是以Transformer为基础构建的使用字节对编码的方法进行数据预处理通过预测下一个词任务进行预训练的语言模型。 1.1 GPT-2 功能简介 GPT-2 就是一个语言模型能够根据上文预测下一个单词所以它就可以利用预训练已经学到的知识来生成文本如生成新闻。也可以使用另一些数据进行微调生成有特定格式或者主题的文本如诗歌、戏剧。 2 手动加载GPT-2模型并实现语句与完整句子预测 使用GPT-2模型配套的PreTrainedTokenizer类所需要加载的词表文件比BERT模型多了一个merges文件。 2.1 代码实现手动加载GPT-2模型并实现下一个单词预测---GPT2_make.py第1部分 import torch from transformers import GPT2Tokenizer, GPT2LMHeadModel# 案例描述Transformers库中的GPT-2模型并用它实现下一词预测功能即预测一个未完成句子的下一个可能出现的单词。 # 下一词预测任务是一个常见的任务在Transformers库中有很多模型都可以实现该任务。也可以使用BERT模型来实现。选用GPT-2模型主要在于介绍手动加载多词表文件的特殊方式。# 1.1 加载词表文件# 自动加载预训练模型权重 # tokenizer GPT2Tokenizer.from_pretrained(gpt2) # 手动加载词表文件gpt2-merges.txt gpt2-vocab.json。 # from_pretrained方法是支持从本地载入多个词表文件的但对载入的词表文件名称有特殊的要求该文件名称必须按照源码文件tokenization_gpt2.py的VOCAB_FILES_NAMES字典对象中定义的名字来命名。 # 故使用from_pretrained方法必须对已经下载好的词表文件进行改名将/gpt2/gpt2-vocab.json和/gpt2/gpt2-merges.txt这两个文件分别改名为“gpt2/vocab.json和/gpt2/merges.txt tokenizer GPT2Tokenizer.from_pretrained(r./models/gpt2) # 自动加载改名后的文件# 编码输入 indexed_tokens tokenizer.encode(Who is Li BiGor ? Li BiGor is a) print(输入语句为,tokenizer.decode(indexed_tokens)) tokens_tensor torch.tensor([indexed_tokens]) # 将输入语句转换为张量# 自动加载预训练模型权重 # model GPT2LMHeadModel.from_pretrained(gpt2) # 手动加载配置文件gpt2-config.json 与 权重文件pt2-pytorch_model.bin model GPT2LMHeadModel.from_pretrained(./models/gpt2/gpt2-pytorch_model.bin,config./models/gpt2/gpt2-config.json)# 将模型设置为评估模式 model.eval() DEVICE torch.device(cuda if torch.cuda.is_available() else cpu) tokens_tensor tokens_tensor.to(DEVICE) model.to(DEVICE)# 预测所有标记 with torch.no_grad():outputs model(tokens_tensor)predictions outputs[0]# 得到预测的下一词 predicted_index torch.argmax(predictions[0, -1, :]).item() predicted_text tokenizer.decode(indexed_tokens [predicted_index]) print(输出语句为,predicted_text) # GPT-2模型没有为输入文本添加特殊词。 # 输出:Who is Li BiGor? Li BiGor is a Chinese 2.2 代码实现手动加载GPT-2模型并实现完整句子预测---GPT2_make.py第2部分 # 案例描述Transformers库中的GPT-2模型通过循环生成下一词实现将一句话补充完整。 # 1.2 生成一段完整的话 这里有BUg 暂不会改 stopids tokenizer.convert_tokens_to_ids([.])[0] # 定义结束符# 在循环调用模型预测功能时使用了模型的past功能。该功能以使模型进入连续预测状态即在前面预测结果的基础之上进行下一词预测而不需要在每预测时对所有句子进行重新处理。 # past功能是使用预训练模型时很常用的功能在Transformers库中凡是带有下一词预测功能的预训练模型如GPTXLNetCTRL等都有这个功能。 # 但并不是所有模型的past功能都是通过past参数进行设置的有的模型虽然使用的参数名称是mems但作用与pat参数一样。 past None # 定义模型参数for i in range(100): # 循环100次with torch.no_grad():output, past model(tokens_tensor, pastpast) # 预测下一次token torch.argmax(output[..., -1, :])indexed_tokens [token.tolist()] # 将预测结果收集if stopids token.tolist(): # 当预测出句号时终止预测。breaktokens_tensor token.unsqueeze(0) # 定义下一次预测的输入张量sequence tokenizer.decode(indexed_tokens) # 进行字符串编码 print(sequence) 3 GPT2_make.py汇总 import torch from transformers import GPT2Tokenizer, GPT2LMHeadModel# 案例描述Transformers库中的GPT-2模型并用它实现下一词预测功能即预测一个未完成句子的下一个可能出现的单词。 # 下一词预测任务是一个常见的任务在Transformers库中有很多模型都可以实现该任务。也可以使用BERT模型来实现。选用GPT-2模型主要在于介绍手动加载多词表文件的特殊方式。# 1.1 加载词表文件# 自动加载预训练模型权重 # tokenizer GPT2Tokenizer.from_pretrained(gpt2) # 手动加载词表文件gpt2-merges.txt gpt2-vocab.json。 # from_pretrained方法是支持从本地载入多个词表文件的但对载入的词表文件名称有特殊的要求该文件名称必须按照源码文件tokenization_gpt2.py的VOCAB_FILES_NAMES字典对象中定义的名字来命名。 # 故使用from_pretrained方法必须对已经下载好的词表文件进行改名将/gpt2/gpt2-vocab.json和/gpt2/gpt2-merges.txt这两个文件分别改名为“gpt2/vocab.json和/gpt2/merges.txt tokenizer GPT2Tokenizer.from_pretrained(r./models/gpt2) # 自动加载改名后的文件# 编码输入 indexed_tokens tokenizer.encode(Who is Li BiGor ? Li BiGor is a) print(输入语句为,tokenizer.decode(indexed_tokens)) tokens_tensor torch.tensor([indexed_tokens]) # 将输入语句转换为张量# 自动加载预训练模型权重 # model GPT2LMHeadModel.from_pretrained(gpt2) # 手动加载配置文件gpt2-config.json 与 权重文件pt2-pytorch_model.bin model GPT2LMHeadModel.from_pretrained(./models/gpt2/gpt2-pytorch_model.bin,config./models/gpt2/gpt2-config.json)# 将模型设置为评估模式 model.eval() DEVICE torch.device(cuda if torch.cuda.is_available() else cpu) tokens_tensor tokens_tensor.to(DEVICE) model.to(DEVICE)# 预测所有标记 with torch.no_grad():outputs model(tokens_tensor)predictions outputs[0]# 得到预测的下一词 predicted_index torch.argmax(predictions[0, -1, :]).item() predicted_text tokenizer.decode(indexed_tokens [predicted_index]) print(输出语句为,predicted_text) # GPT-2模型没有为输入文本添加特殊词。 # 输出:Who is Li BiGor? Li BiGor is a Chinese# 案例描述Transformers库中的GPT-2模型通过循环生成下一词实现将一句话补充完整。 # 1.2 生成一段完整的话 这里有BUg 暂不会改 stopids tokenizer.convert_tokens_to_ids([.])[0] # 定义结束符# 在循环调用模型预测功能时使用了模型的past功能。该功能以使模型进入连续预测状态即在前面预测结果的基础之上进行下一词预测而不需要在每预测时对所有句子进行重新处理。 # past功能是使用预训练模型时很常用的功能在Transformers库中凡是带有下一词预测功能的预训练模型如GPTXLNetCTRL等都有这个功能。 # 但并不是所有模型的past功能都是通过past参数进行设置的有的模型虽然使用的参数名称是mems但作用与pat参数一样。 past None # 定义模型参数for i in range(100): # 循环100次with torch.no_grad():output, past model(tokens_tensor, pastpast) # 预测下一次token torch.argmax(output[..., -1, :])indexed_tokens [token.tolist()] # 将预测结果收集if stopids token.tolist(): # 当预测出句号时终止预测。breaktokens_tensor token.unsqueeze(0) # 定义下一次预测的输入张量sequence tokenizer.decode(indexed_tokens) # 进行字符串编码 print(sequence)
http://www.huolong8.cn/news/361819/

相关文章:

  • wordpress 全站加密企业网站建设成本
  • 广州市城乡建设局网站暴雪回归
  • 长沙工程建设管理中心网站建行卡如何网上签约
  • 博客网站的建设网页开发工资高吗
  • 鞍山网站设计制作网站购买域名后怎么做网站
  • phpmysql网站开发入门与提高网站开发与维护学什么
  • 专线可以做网站中国建设网官方网站e路护航
  • 商务网站建设与维护课程wordpress 判断语句
  • .net 网站优化微信小程序项目源码
  • 大连网站建设功能服装网络营销推广案例
  • 自动做网站抖音小程序怎么关闭或注销
  • 烟台做网站找哪家好重庆网上注册公司
  • 装修第三方平台网站建设中太建设集团股份有限公司网站
  • 阿里云网站建设官方自营店哪家开发app好
  • 长沙网站建设公司联系方式免费网站建设入门
  • 网站邮件发送功能怎么做wordpress中文插件seo百度云
  • 铜陵公司做网站企业网站可信度建设
  • 营销型门户网站wordpress建站导航
  • 老渔哥网站建设公司曼联对利物浦新闻
  • 公司的服务器能建设网站吗东莞大岭山
  • 佛山专业网站制作网站目录提交
  • 网站做支付功能上海建网站开发公
  • 网站被降权了wordpress 分类权限
  • 多个网站集成在一个页面东莞人才信息网官网
  • 百度怎么做开锁网站集安网站建设
  • 网页制作公司需要什么资质营口网站seo
  • 重庆建设工程信息网站龙岩天宫山攻略
  • 长沙网站建设价广告策划的目的是什么
  • 17网站一起做网店普宁池尾雅晨公众号推广一个6元
  • 那些做面点的网站好wordpress去除cat