本文是 Meta 官网推出的 Llama2 使用教学博客,简单 5 步教会你如何使用 Llama2。
权重
和初始代码,
参数
范围从 7B 到 70B。Llama 2 的训练数据比 Llama 多了 40%,上下文长度也多一倍,并且 Llama 2 在公开的在线数据源上进行了预训练。
Llama2
参数
说明图
Llama2 流程说明图
基准
测试中,Llama 2 的表现均优于其他开放式
语言模型
。Llama 2 可免费用于研究和商业用途。
开始使用 Llama2
步骤 1:前置条件和依赖项
pip install transformers
pip install accelerate
步骤 2:下载模型
权重
-
访问 Meta 网站,接受许可并提交表格。请求通过后才能收到在电子邮件中的预签名 URL;
-
克隆 Llama 2
知识库
到本地。
git clone https://github.com/facebookresearch/llama
-
选择要下载的模型版本,例如 7b-chat。然后就能下载 tokenizer.model 和包含
权重
的 llama-2-7b-chat 目录。
权重
,以便与 Hugging Face 一起运行:
TRANSFORM=`python -c"import transformers;print ('/'.join (transformers.__file__.split ('/')[:-1])+'/models/llama/convert_llama_weights_to_hf.py')"`
pip install protobuf && python $TRANSFORM --input_dir ./llama-2-7b-chat --model_size 7B --output_dir ./llama-2-7b-chat-hf
权重
。要使用 Hugging Face 上的下载,必须按照上述步骤申请下载,并确保使用的电子邮件地址与 Hugging Face 账户相同。
步骤 3:编写 python 脚本
生成模型
的输出,torch 用于引入 PyTorch 并指定想要使用的数据类型。
import torch
import transformers
from transformers import LlamaForCausalLM, LlamaTokenizer
权重
(本例中存储在 ./llama-2-7b-chat-hf 中)加载 Llama 模型。
model_dir = "./llama-2-7b-chat-hf"
model = LlamaForCausalLM.from_pretrained (model_dir)
tokenizer = LlamaTokenizer.from_pretrained (model_dir)
pipeline = transformers.pipeline (
"text-generation",
model=model,
tokenizer=tokenizer,
torch_dtype=torch.float16,
device_map="auto",
)
概率分布
中选择下一个 token。本文示例脚本使用的是 top_k 采样。
参数
设置为大于 1,可以生成多个输出。在脚本中添加以下内容,以提供输入以及如何运行 pipeline 任务的信息:
sequences = pipeline (
'I have tomatoes, basil and cheese at home. What can I cook for dinner?\n',
do_sample=True,
top_k=10,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
max_length=400,
)
for seq in sequences:
print (f"{seq ['generated_text']}")
步骤 4:运行 Llama
python < 脚本名称 >.py
本地运行 2-7b-chat-hf
参数
中提供不同的提示来尝试不同的提示。你还可以通过在加载模型时指定模型名称来加载其他 Llama 2 模型。下一节中提到的其他资源可以帮你了解更多 Llama 2 工作原理的信息,以及可用于帮助入门的各种资源。
步骤 5:能力拔高
人工智能
工具 Code Llama,这是一个建立在 Llama 2 基础上的
人工智能
模型,针对生成和分析代码的能力进行了微调。
语言模型
(LLM) 支持的产品的最佳实践和注意事项,涵盖了从开始到部署的各个开发阶段。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...