littlebot
Published on 2025-04-09 / 2 Visits
0

【源码】基于PyTorch和CUDA的LLM微调框架

项目简介

本项目是基于PyTorch和CUDA的大型语言模型(LLM)微调框架,结合PyTorch灵活性与CUDA计算能力,为预训练语言模型提供高效、灵活的微调和优化工具集。支持多种模型和数据集微调任务,具备丰富配置选项与优化技术,如LoRA和量化技术,可提升模型训练效率与性能。

项目的主要特性和功能

  1. 多模型支持:支持Baichuan - 7B、Baichuan - 13B - Base、Qwen - 7B等多种预训练模型,有灵活的模型配置选项。
  2. 数据处理:高效的数据处理模块,可从多种数据源加载和预处理数据,保证数据集准备和处理高效灵活。
  3. 量化技术:集成BitsAndBytes等量化技术,减小模型大小与计算需求,加快训练和推理速度。
  4. LoRA优化:支持LoRA技术进行模型低秩适应调整,降低内存占用,提高计算效率。
  5. CUDA加速:充分利用CUDA并行计算能力,加速模型训练和推理过程。
  6. 灵活配置:提供丰富配置选项,支持自定义训练参数、优化器设置、学习率调度策略等。

安装使用步骤

1. 环境准备

  • 操作系统:Ubuntu 22.04 Server
  • CUDA版本:CUDA 11.8
  • Python版本:建议使用Python 3.8及以上版本

2. 安装依赖

创建并激活新的conda环境: bash conda create -n llm_finetune python=3.8 conda activate llm_finetune 安装PyTorch和相关依赖包: bash pip install torch pip install -r requirements.txt

3. 编译可选组件

若有需要,手动编译安装flash_attention包中缺少的组件: bash cd flash_attention/csrc/rotary python setup.py install cd ../layer_norm python setup.py install

4. 数据和模型准备

创建数据文件夹并放置数据集: bash mkdir data 从Hugging Face平台下载模型并放置在remote_scripts文件夹: bash mkdir remote_scripts 将模型配置文件放置在config文件夹下。

5. 运行训练和推理

运行训练脚本: bash sh train.sh 运行推理脚本: bash sh infer.sh

下载地址

点击下载 【提取码: 4003】【解压密码: www.makuang.net】