当前位置: 首页 > news >正文

网站开发流程步骤小程序平台推广方案

网站开发流程步骤,小程序平台推广方案,牡丹江定制软件开发,跨境电商开发软件目录 一.引言 二.模型简介 1.模型特性 2.模型评测 三.模型尝试 1.模型参数 2.generate 与 chat 3.模型微调 四.总结 一.引言 一早醒来国产开源大模型又添一员猛将#xff0c;书生-浦语大模型 InternLM-20B 大模型发布并开源#xff0c;这里字面翻译是实习生大模型书生-浦语大模型 InternLM-20B 大模型发布并开源这里字面翻译是实习生大模型比较有意思。该模型由上海人工智能实验室与商汤科技联合香港中文大学和复旦大学联合推出。模型地址: https://huggingface.co/internlm/internlm-chat-20b 二.模型简介 1.模型特性 InternLM 20B 在模型结构上选择了深结构层数设定为 60 层超过常规 7B 和 13B 模型所使用的32 层或者 40 层这也是模型尺寸达到 20B 的原因。在参数受限的情况下提高层数有利于提高模型的综合能力。此外相较于 InternLM-7BInternLM-20B 使用的预训练数据经过了更高质量的清洗并补充了高知识密度和用于强化理解与推理能力的训练数据。因此它在理解能力、推理能力、数学能力、编程能力等考验语言模型技术水平的方面都得到了显著提升。总体而言InternLM-20B 具有以下的特点 优异的综合性能很强的工具调用功能支持16k语境长度通过推理时外推更好的价值对齐 2.模型评测 在OpenCompass提出的5个能力维度上InternLM-20B都取得很好的效果粗体为13B-33B这个量级范围内各项最佳成绩: 在博主全面拥抱 baichuan2-13B 和 LLaMA-33B 的同时InternLM-20B 的出现不可谓是一个奇兵后续博主也会拥抱 InternLM-20B 并分享相关经验  三.模型尝试 1.模型参数 模型的 hidden_layers 增加至 60对比 Baichuan-2 的 layers 数目为 40另外词库的大小也增加至 103168。 2.generate 与 chat 官方 demo 和 modeling.py 中给出了相关 chat 与 generate 的示例。 ◆ generate from transformers import AutoTokenizer, InternLMForCausalLMmodel InternLMForCausalLM.from_pretrained(PATH_TO_CONVERTED_WEIGHTS) tokenizer AutoTokenizer.from_pretrained(PATH_TO_CONVERTED_TOKENIZER)prompt Hey, are you consciours? Can you talk to me? inputs tokenizer(prompt, return_tensorspt)# Generate generate_ids model.generate(inputs.input_ids, max_length30) tokenizer.batch_decode(generate_ids, skip_special_tokensTrue, clean_up_tokenization_spacesFalse)[0]◆ chat from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer AutoTokenizer.from_pretrained(path, trust_remote_codeTrue) print(tokenizer) model AutoModelForCausalLM.from_pretrained(path, trust_remote_codeTrue) print(model) model model.eval() output, history model.chat(tokenizer, 你好呀今天天气真好) print(output) 3.模型微调 目前最新版的 LLaMA-Efficient-Tuning 框架已支持 InternLM-20B 的 LoRA 微调注意选择正确的 lora_target 与 template 模板 博主在 A800 机器以 batch_size 8 target q_proj,v_proj LoRA 微调 InternLM-20B-chat 显存占用如下非常的极限 LoRA 参数占比如下如果想微调更多的参数可以降低 batch_size提高 Gradient Accumulation steps 达到更大 batch 的效果 trainable params: 9830400 || all params: 20098544640 || trainable%: 0.0489 四.总结 终于出了介于 13B 和 33B 之间的模型了博主对 InternLM 实习生大模型还是抱有很大期待期望后续能够有更加惊艳的表现。
http://www.ho-use.cn/article/10817032.html

相关文章:

  • 高端交互式网站建设不懂编程如何做网站
  • 犀牛云网站怎么建设app外包平台大概多少钱
  • 个人博客网站开发的背景wordpress 搜索内容
  • 做网站不备案会怎样自学网站的建设
  • 深圳电商网站开发公司做网站编程语言
  • 金石文化规划 设计 开发风景区网站建设打开百度官网
  • 网站建设预算明细30天网站建设实录视频云盘
  • 英语翻译网站开发兼职网站建设 开源
  • seo公司网站建设自己做网站需要主机吗
  • 网站的性质和主办者广州网站建设定制多少钱
  • 西地那非片的功能主治说明书长沙seo霜天
  • 网站后台建设公司佛山百度快速排名优化
  • 做网站有用吗建材网站素材
  • 建设免费二级网站江苏网站建设 seo
  • 有哪些公司的网站做的比较好汕头装修接单网站
  • 杭州比较好的网站建设公司wordpress托管 安装
  • 房产网站建设网站推广WordPress怎么批量上传图片
  • 横沥镇仿做网站小白用网站建设工具
  • 自己买一台服务器做自己的网站微信视频制作小程序
  • 跨境商城网站制作做的网站空白了
  • asp.net 4.0网站开发与项目实战建设网站查询余额
  • 做汽车价格的网站网址大全2345qiren
  • 网站设计公司费用宜昌网站网站建设
  • 现在的网站开发框架wordpress 框架
  • 如何做网站给女朋友网站模板代理电话
  • 余姚企业网站建设网页设计居中代码
  • 平台做网站点击做百度药材种苗网站
  • 医院 网站建设西安制作app的公司
  • 医生做学分在哪个网站创建全国文明城市的主体是什么
  • 手机版网站建设软件开发中英文网站多少钱