什么是 Yi-1.5?
Yi-1.5 系列是由李开复博士创立的零一万物(01.AI)公司开发的下一代开源大语言模型。这些模型以其在中英文双语任务中的强大性能而闻名,使其成为双语应用的首选。虽然这些模型是开源的,但它们也可以通过阿里云人工智能平台(PAI)等云服务轻松部署和进行推理,为企业级应用提供了可扩展的解决方案。
主要特点
- 卓越的双语性能: Yi-1.5 模型在高质量的多语言语料库上进行了预训练,在中英文语言任务中均提供最先进的结果。
- 多种模型尺寸: 该系列包括 9B 和 34B 参数模型等多种尺寸,允许开发者在性能和计算成本之间选择最佳平衡。
- 长上下文窗口: 凭借 32K 的上下文窗口,Yi-1.5 可以在一次处理中理解长文档、复杂对话和庞大的代码库。
- 强大的编码能力: 这些模型在各种编程语言的代码生成、补全和解释方面表现出令人印象深刻的能力。
- 开源且商业友好: Yi 系列在 Apache 2.0 许可下发布,可用于学术研究和商业用途,促进了广泛的采用和创新。
应用场景
- 多语言客户支持: 驱动能够与中英文客户无缝沟通的聊天机器人和虚拟助手。
- 内容创作: 为双语受众生成文章、摘要和营销文案。
- 软件开发: 协助开发人员进行代码生成、调试和文档编写。
- 跨语言信息检索: 构建能够从不同语言来源中提取信息的搜索和问答系统。
入门指南
这是一个简单的“Hello World”风格示例,使用 transformers 库来运行 Yi-1.5 9B 聊天模型。
```python from transformers import AutoModelForCausalLM, AutoTokenizer
定义模型ID
model_id = “01-ai/Yi-1.5-9B-Chat”
加载分词器和模型
tokenizer = AutoTokenizer.from_pretrained(model_id, use_fast=False) model = AutoModelForCausalLM.from_pretrained( model_id, device_map=”auto”, torch_dtype=’auto’ ).eval()
为聊天模型准备消息
messages = [ {“role”: “user”, “content”: “你好!你能写一个关于宇航员发现神秘外星文物的小故事吗?”} ]
格式化输入并生成响应
input_ids = tokenizer.apply_chat_template(conversation=messages, tokenize=True, add_generation_prompt=True, return_tensors=’pt’) output_ids = model.generate(input_ids.to(‘cuda’), max_new_tokens=512) response = tokenizer.decode(output_ids[0][input_ids.shape[1]:], skip_special_tokens=True)
print(response)
定价
Yi-1.5 模型基本上是基于 Apache 2.0 许可的 开源 项目,这意味着它们可以免费下载并用于研究或商业目的。然而,运行这些大型模型需要大量的计算资源。对于需要企业级性能和可扩展性而又不想管理基础设施的用户,可以通过阿里云 PAI 等云平台上的 按使用量付费 模型来访问它们。