LLamaFactory
在 data 目录下有以下测试数据集:
mllm_demo - 多模态图像数据集
data/mllm_demo.jsonmllm_video_demo - 多模态视频数据集
data/mllm_video_demo.jsonmllm_audio_demo - 多模态音频数据集
data/mllm_audio_demo.jsonmllm_video_audio_demo - 视频+音频混合数据集
data/mllm_video_audio_demo.json这些数据集已配置在 dataset_info.json 中,可直接使用。
在 dataset_info.json 中还配置了以下在线数据集:
llava_1k_en / llava_1k_zh - LLaVA 数据集(1k 样本,英文/中文)llava_150k_en / llava_150k_zh - LLaVA 数据集(150k 样本)pokemon_cap - Pokemon 图像描述数据集mllm_pt_demo - 多模态预训练演示数据集rlhf_v - 视觉反馈数据集(用于 DPO 训练)vlfeedback - 视觉反馈数据集rlaif_v - RLAIF-V 数据集训练时指定数据集名称,例如:
bash展开代码llamafactory-cli train --dataset mllm_demo
或使用多个数据集:
bash展开代码llamafactory-cli train --dataset mllm_demo,mllm_video_demo
这些数据集已配置好,可直接用于测试多模态训练功能。


本文作者:Dong
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC。本作品采用《知识共享署名-非商业性使用 4.0 国际许可协议》进行许可。您可以在非商业用途下自由转载和修改,但必须注明出处并提供原作者链接。 许可协议。转载请注明出处!