Kaggle大师Abhinand Balachandran推出了“Tamil-Llama”,一种专门针对提升泰米尔语领域而设计的印度LLM(大型语言模型)。这款AI模型是在Meta的Llama 2基础上构建的。
Tamil-Llama是精心制作的,集成了额外的泰米尔语标记,并利用LoRA方法进行流畅和有效的训练。
Kaggle大师Sudalai Rajkumar (SRK)在LinkedIn上发布了关于这个模型的信息,并祝贺Balachandran的成就。
这个模型以其拥有70亿和130亿参数的不同版本而自豪,标志着泰米尔语AI领域的一大进步,并有可能成为迄今为止最先进的专为印度语言定制的开源LLM。
该模型提供四个不同的迭代版本:Tamil LLaMA 7B、13B、7B Instruct和14B Instruct,迎合不同的复杂度和需求。
研究论文解释说,在训练阶段,模型的词汇库已经扩大到包含了16000个泰米尔语标记,以补充最初的32000个标记,以增强语言的包容性。
在微调阶段使用的数据集在仓库内很容易获得,这促进了AI社区中的透明度和协作。
该项目在两个月内建成。Balachandran解释了他是如何平衡管理GPU开销和导航构建最先进语言模型的复杂技术性挑战;这个过程是Balachandran承诺的证明。
凭借着推动印度语言走向AI前沿的愿景,Balachandran设想Tamil-LLaMA不仅仅是一个技术突破。