当前位置: 首页 > news >正文

公司怎么与网站进行活动推广seo网站推广优化费用

公司怎么与网站进行活动推广,seo网站推广优化费用,百度品牌广告多少钱一个月,设计案例的网站LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一#xff1a; 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建…LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建的。 conda create --name llama_test python3.9 conda activate llama_test 安装python依赖的包 pip3 install -r requirements.txt 编译llama.cpp mac LLAMA_METAL1 make windows , 用powershell 运行 make 下载llama2模型 直接在huggingface里下载量化了的 gguf格式的llama2模型。 https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/tree/main 我下载的是llama-2-7b-chat.Q4_0.gguf 拷贝llama-2-7b-chat.Q4_0.gguf 到llama.cpp目录里的models目录里 运行模型 如果是windows要用powershell ./main -m ./models/llama-2-7b-chat.Q4_0.gguf --color --ctx_size 2048 -n -1 -ins -b 256 --top_k 10000 --temp 0.2 --repeat_penalty 1.1 -t 8 方法二 Meta已将llama2开源任何人都可以通过在meta ai上申请并接受许可证、提供电子邮件地址来获取模型。 Meta 将在电子邮件中发送下载链接。 下载llama2  获取download.sh文件将其存储在mac上打开mac终端执行 chmod x ./download.sh 赋予权限。运行 ./download.sh 开始下载过程复制电子邮件中的下载链接粘贴到终端仅下载13B-chat 安装系统依赖的东西 必须安装 Xcode 才能编译 C 项目。 如果您没有请执行以下操作 xcode-select --install 接下来安装用于构建 C 项目的依赖项。 brew install pkgconfig cmake最后我们安装 Torch。 如果您没有安装python3请通过以下方式安装 brew install python3.11 像这样创建一个虚拟环境 /opt/homebrew/bin/python3.11 -m venv venv 激活 venv。 source venv/bin/activate 安装 PyTorch: pip install --pre torch torchvision --extra-index-url https://download.pytorch.org/whl/nightly/cpu 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 安装python依赖包 pip3 install -r requirements.txt 编译 LLAMA_METAL1 make 如果你有两个arch (x86_64, arm64), 可以用下面指定arm64 arch -arm64 make 将下载的 13B 移至 models 文件夹下的 llama.cpp 项目。 将模型转换为ggml格式 13B和70B是不一样的。 Convert-pth-to-ggml.py 已弃用请使用 Convert.py 代替 13B-chat python3 convert.py --outfile ./models/llama-2-13b-chat/ggml-model-f16.bin --outtype f16 ./models/llama-2-13b-chat Quantize 模型: In order to run these huge LLMs in our small laptops we will need to reconstruct and quantize the model with the following commands, here we will convert the model’s weights from float16 to int4 requiring less memory to be executed and only losing a little bit of quality in the process. 13B-chat: ./quantize ./models/llama-2-13b-chat/ggml-model-f16.bin ./models/llama-2-13b-chat/ggml-model-q4_0.bin q4_0 运行模型 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -r ### Question: -p ### Question: 您可以使用 -ngl 1 命令行参数启用 GPU 推理。 任何大于 0 的值都会将计算负载转移到 GPU。 例如 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -ngl 1 -r ### Question: -p ### Question: 在我的 Mac 上测试时它比纯 cpu 快大约 25%。 其它 ggml格式的llama2 如果你下载的是ggml格式的 要运行下面命令转换格式 python convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin (llama) C:\Users\Harry\PycharmProjects\llama.cpppython convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin * Using config: Namespace(inputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.bin), outputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin), nameNone, descNone, gqa1, eps1e-5, context_length2048, model_metadata_dirNone, vocab_dirNone, vocabtypespm) WARNING Be aware that this conversion script is best-effort. Use a native GGUF model if possible. WARNING - Note: If converting LLaMA2, specifying --eps 1e-5 is required. 70B models also need --gqa 8. * Scanning GGML input file * File format: GGJTv3 with ftype MOSTLY_Q4_0 * GGML model hyperparameters: Hyperparameters: n_vocab32000, n_embd5120, n_mult256, n_head40, n_layer40, n_rot128, n_ff13824, ftypeMOSTLY_Q4_0 WARNING Special tokens may not be converted correctly. Use --model-metadata-dir if possible WARNING * Preparing to save GGUF file This gguf file is for Little Endian only * Adding model parameters and KV items * Adding 32000 vocab item(s) * Adding 363 tensor(s)gguf: write headergguf: write metadatagguf: write tensors * Successful completion. Output saved to: models\llama-2-13b-chat.ggmlv3.q4_0.gguf.bin 参考资料 GitHub - facebookresearch/llama: Inference code for LLaMA models A comprehensive guide to running Llama 2 locally – Replicate
http://www.ho-use.cn/article/10814389.html

相关文章:

  • 信息发布的网站怎么做广告推广代运营公司
  • 如何加强高校网站建设西安汇友网站建设
  • 网站建设期末实践报告东莞寮步伟易达电子厂
  • 南京旅游网站建设公司网站推广排名最新报价
  • 网站后台样式模板营销网站的推广
  • 贵阳监理建设网站网站建设设计理念
  • 哈尔滨营销网站建设公司哪家好红动中国免费素材网
  • 做网站笔记本2014怎样用虚拟主机建网站
  • 江苏网站建设wordpress支付免签约插件
  • 制作网站制作公司直播平台如何搭建
  • 申请网站建设经费同城分类信息网站
  • 涉县专业做网站塘厦在哪里
  • 网站域名授权怎么做怎样做的英文网站
  • 花卉网站建设规划书做网站买那种服务器好
  • 怎样搭建网站怎么弄微信小程序卖东西
  • 找合伙做网站的做电影电视剧网站推广
  • 重庆网站建设模板服务邢台网站制作的地方
  • 湖南省建设银行网站6广州美容网站建设
  • 跨国网站重庆永川网站建设公司
  • 什么是企业营销型网站?怎么学室内装修设计软件
  • 滨州网站建设 远洋科技网页设计模板图片html
  • 广东建设官方网站wordpress编辑文章
  • wordpress改网站地址电子商务网站推广策略论文
  • 防城港网站设计楼市最新消息:2023年房价走势
  • 手机版网站做一下多少钱wordpress 视频网站
  • 自贡建设投资有限公司网站国家企业网官网查询
  • 网站后台分模块有个人做网站的吗
  • 专业做模具钢的网站电商企业营销推广
  • 石家庄百度推广家庄网站建设企业网站制作正规公司
  • 网站开发项目报价单个人中心页面设计html