该数据集由wiki40b数据集中的三个parquet文件组成,仅包含日语数据。这是通过以下Python代码生成的。
这个数据集由wiki40b数据集中的三个parquet文件组成,仅包含日语数据。这是通过以下python代码生成的。
import datasets dss = datasets.load_dataset( "wiki40b", "ja", beam_runner="DirectRunner", ) for split,ds in dss.items(): ds.to_parquet(f"wikipedia-ja-20230101/{split}.parquet")