模型:
OpenAssistant/falcon-40b-sft-top1-560
这个模型是基于 TII 的 Falcon 40B LLM 进行微调的。使用 OASST 数据集的 top-1(高质量)演示进行训练(于2023年5月6日导出),有效批量大小为144,持续训练了大约7.5个epoch,采用了 LIMA 风格的 dropout(p=0.3)和上下文长度为2048个标记。
有两个特殊的标记用于标记用户和助手对话的开始:<|prompter|>和<|assistant|>。每个对话轮次以<|endoftext|>标记结尾。
输入提示示例:
<|prompter|>What is a meme, and what's the history behind this word?<|endoftext|><|assistant|>
输入以<|assistant|>标记结束,表示模型应开始生成助手的回复。
模型:
falcon-40b: dtype: bf16 log_dir: "falcon_log_40b" learning_rate: 5e-6 model_name: "tiiuae/falcon-40b" deepspeed_config: configs/zero3_config_falcon.json output_dir: falcon weight_decay: 0.0 max_length: 2048 warmup_steps: 20 gradient_checkpointing: true gradient_accumulation_steps: 1 per_device_train_batch_size: 18 per_device_eval_batch_size: 10 eval_steps: 80 save_steps: 80 num_train_epochs: 8 save_total_limit: 4 use_flash_attention: false residual_dropout: 0.3 residual_dropout_lima: true sort_by_length: false save_strategy: steps
数据集:
oasst-top1: datasets: - oasst_export: lang: "bg,ca,cs,da,de,en,es,fr,hr,hu,it,nl,pl,pt,ro,ru,sl,sr,sv,uk" # sft-8.0 input_file_path: 2023-05-06_OASST_labels.jsonl.gz val_split: 0.05 top_k: 1