根据代码分析,Qwen2VL的数据预处理主要包含以下步骤:
src/llamafactory/data/loader.py:307-313
):
dataset.map()
方法进行批处理preprocessing_batch_size=1000
num_proc=84
(你的配置)在自然语言生成任务中,如何评估模型生成文本的质量是一个关键问题。BLEU和ROUGE是两个最常用的自动评估指标,本文将详细介绍这两个指标的原理、计算方法和代码实现。
bash展开代码rsync -av --checksum LLaMA-Factory-old/ LLaMA-Factory-qwen2vl/
这个指令使用 rsync
工具将 LLaMA-Factory-old/
目录的内容同步到 LLaMA-Factory-qwen2vl/
目录,具体参数解析如下:
LLaMA-Factory-old/
下的所有文件和子目录同步到 LLaMA-Factory-qwen2vl/
。路径末尾的 /
/
(如 LLaMA-Factory-old/
),则同步目录内的内容到目标路径。/
(如 LLaMA-Factory-old
),则同步目录本身到目标路径(包含目录名)。目标目录存在性
LLaMA-Factory-qwen2vl/
不存在,会自动创建。--checksum
的性能影响
计算校验和会增加 CPU 开销,但适合对文件一致性要求严格的场景(如防止隐藏的数据损坏)。
管理员运行命令:
bash展开代码reg.exe add "HKCU\Software\Classes\CLSID\{86ca1aa0-34aa-4e8b-a509-50c905bae2a2}\InprocServer32" /f /ve
重启就恢复win10右键了
这个是恢复win11右键:
bash展开代码reg.exe delete "HKCU\Software\Classes\CLSID\{86ca1aa0-34aa-4e8b-a509-50c905bae2a2}\InprocServer32" /va /f
指定好 --model_name_or_path,模型存储路径。
指定 --save_only_model false ,不光保存模型,还保存优化器状态等参数。
指定 --overwrite_output_dir false ,可以接续恢复训练。接续恢复训练千万别改参数,不然会引起异常(训练看起来正常其实不正常)。要改参数最好是导出之前模型,然后重新指定 --model_name_or_path 重新训练。
The client socket has timed out after 900000ms while trying to connect to (10.130.18.56, 58509).
展开代码实际batch_size = per_device_train_batch_size × gradient_accumulation_steps × 设备数量 您的设置: - per_device_train_batch_size = 12 - gradient_accumulation_steps = 2 - 假设8张卡:实际batch_size = 12 × 2 × 8 = 192