项目简介
本项目是基于PyTorch和CUDA的大型语言模型(LLM)微调框架,结合PyTorch灵活性与CUDA计算能力,为预训练语言模型提供高效、灵活的微调和优化工具集。支持多种模型和数据集微调任务,具备丰富配置选项与优化技术,如LoRA和量化技术,可提升模型训练效率与性能。
项目的主要特性和功能
- 多模型支持:支持Baichuan - 7B、Baichuan - 13B - Base、Qwen - 7B等多种预训练模型,有灵活的模型配置选项。
- 数据处理:高效的数据处理模块,可从多种数据源加载和预处理数据,保证数据集准备和处理高效灵活。
- 量化技术:集成BitsAndBytes等量化技术,减小模型大小与计算需求,加快训练和推理速度。
- LoRA优化:支持LoRA技术进行模型低秩适应调整,降低内存占用,提高计算效率。
- CUDA加速:充分利用CUDA并行计算能力,加速模型训练和推理过程。
- 灵活配置:提供丰富配置选项,支持自定义训练参数、优化器设置、学习率调度策略等。
安装使用步骤
1. 环境准备
- 操作系统:Ubuntu 22.04 Server
- CUDA版本:CUDA 11.8
- Python版本:建议使用Python 3.8及以上版本
2. 安装依赖
创建并激活新的conda环境:
bash
conda create -n llm_finetune python=3.8
conda activate llm_finetune
安装PyTorch和相关依赖包:
bash
pip install torch
pip install -r requirements.txt
3. 编译可选组件
若有需要,手动编译安装flash_attention
包中缺少的组件:
bash
cd flash_attention/csrc/rotary
python setup.py install
cd ../layer_norm
python setup.py install
4. 数据和模型准备
创建数据文件夹并放置数据集:
bash
mkdir data
从Hugging Face平台下载模型并放置在remote_scripts
文件夹:
bash
mkdir remote_scripts
将模型配置文件放置在config
文件夹下。
5. 运行训练和推理
运行训练脚本:
bash
sh train.sh
运行推理脚本:
bash
sh infer.sh
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】