查看“LLaMA Factory”的源代码
←
LLaMA Factory
跳到导航
跳到搜索
因为以下原因,您没有权限编辑本页:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
LLaMA-Factory 是一个开源项目,它提供了一套全面的工具和脚本,用于微调、服务和基准测试 LLaMA 模型。[[Ollama|LLaMA]] 是 Meta AI 开发的一组基础语言模型。 [https://github.com/hiyouga/LLaMA-Factory LLaMA-Factory]提供以下内容: *数据预处理和标记化的脚本 *用于微调 LLaMA 模型的训练流程 *使用经过训练的模型生成文本的推理脚本 *评估模型性能的基准测试工具 *用于交互式测试的 Gradio Web UI === 环境 === ==== 软件 ==== {| class="wikitable" !必需项 !至少 !推荐 |- |python |3.8 |3.11 |- |torch |1.13.1 |2.4.0 |- |transformers |4.41.2 |4.43.4 |- |datasets |2.16.0 |2.20.0 |- |accelerate |0.30.1 |0.32.0 |- |peft |0.11.1 |0.12.0 |- |trl |0.8.6 |0.9.6 |} {| class="wikitable" !可选项 !至少 !推荐 |- |CUDA |11.6 |12.2 |- |deepspeed |0.10.0 |0.14.0 |- |bitsandbytes |0.39.0 |0.43.1 |- |vllm |0.4.3 |0.5.0 |- |flash-attn |2.3.0 |2.6.3 |} ==== 硬件 ==== {| class="wikitable" !方法 !精度 !7B !13B !30B !70B !110B !8x7B !8x22B |- |Full |32 |120GB |240GB |600GB |1200GB |2000GB |900GB |2400GB |- |Full |16 |60GB |120GB |300GB |600GB |900GB |400GB |1200GB |- |Freeze |16 |20GB |40GB |80GB |200GB |360GB |160GB |400GB |- |LoRA/GaLore/APOLLO/BAdam |16 |16GB |32GB |64GB |160GB |240GB |120GB |320GB |- |QLoRA |8 |10GB |20GB |40GB |80GB |140GB |60GB |160GB |- |QLoRA |4 |6GB |12GB |24GB |48GB |72GB |30GB |96GB |} [[分类:Develop]] [[分类:AI]]
返回
LLaMA Factory
。
导航菜单
个人工具
登录
命名空间
页面
讨论
大陆简体
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
目录
文章分类
侧边栏
帮助
工具
链入页面
相关更改
特殊页面
页面信息