zzhangxian / alpaca-cot Goto Github PK
View Code? Open in Web Editor NEWThis project forked from phoebussi/alpaca-cot
We unified the interfaces of instruction-tuning data (e.g., CoT data), multiple LLMs and parameter-efficient methods (e.g., lora, p-tuning) together for easy use. Meanwhile, we created a new branch to build a Tabular LLM.(我们分别统一了丰富的IFT数据(如CoT数据)、多种训练效率方法以及多种LLMs,三个层面上的接口,打造方便研究人员上手的LLM-IFT研究和使用平台。我们欢迎开源爱好者在这个repo上发起任何有意义的pr,一起将尽可能多的LLM相关技术集成进来。
License: Apache License 2.0