英文

Open-Assistant Falcon 40B SFT OASST-TOP1 模型

这个模型是基于 TII 的 Falcon 40B LLM 进行微调的。使用 OASST 数据集的 top-1(高质量)演示进行训练(于2023年5月6日导出),有效批量大小为144,持续训练了大约7.5个epoch,采用了 LIMA 风格的 dropout(p=0.3)和上下文长度为2048个标记。

模型详情

提示

有两个特殊的标记用于标记用户和助手对话的开始:<|prompter|>和<|assistant|>。每个对话轮次以<|endoftext|>标记结尾。

输入提示示例:

<|prompter|>What is a meme, and what's the history behind this word?<|endoftext|><|assistant|>

输入以<|assistant|>标记结束,表示模型应开始生成助手的回复。

配置详情

模型:

falcon-40b:
  dtype: bf16
  log_dir: "falcon_log_40b"
  learning_rate: 5e-6
  model_name: "tiiuae/falcon-40b"
  deepspeed_config: configs/zero3_config_falcon.json
  output_dir: falcon
  weight_decay: 0.0
  max_length: 2048
  warmup_steps: 20
  gradient_checkpointing: true
  gradient_accumulation_steps: 1
  per_device_train_batch_size: 18
  per_device_eval_batch_size: 10
  eval_steps: 80
  save_steps: 80
  num_train_epochs: 8
  save_total_limit: 4
  use_flash_attention: false
  residual_dropout: 0.3
  residual_dropout_lima: true
  sort_by_length: false
  save_strategy: steps

数据集:

oasst-top1:
  datasets:
    - oasst_export:
        lang: "bg,ca,cs,da,de,en,es,fr,hr,hu,it,nl,pl,pt,ro,ru,sl,sr,sv,uk" # sft-8.0
        input_file_path: 2023-05-06_OASST_labels.jsonl.gz
        val_split: 0.05
        top_k: 1