Git Product home page Git Product logo

Comments (10)

itsliupeng avatar itsliupeng commented on July 22, 2024

"发现模型非常倾向于输入CoT过程。" 这里是指输出 CoT 过程吗?

from yi.

QiongsK avatar QiongsK commented on July 22, 2024

"发现模型非常倾向于输入CoT过程。" 这里是指输出 CoT 过程吗?

我觉得他的意思是,模型对非CoT的输入,敏感度较差

from yi.

ZhaoFancy avatar ZhaoFancy commented on July 22, 2024

预训练阶段放入了大量的CoT数据吗。

具体用到的数据会在接下来的报告中详细阐述。

全量微调了34b版本的模型,发现模型非常倾向于输入CoT过程。

方便透露下具体怎么微调的么?

这也导致经常得不到我想要的prompt对应的要求输出。

可以发一些具体的 case 么?

from yi.

psy-mas avatar psy-mas commented on July 22, 2024

预训练阶段放入了大量的CoT数据吗。

具体用到的数据会在接下来的报告中详细阐述。

全量微调了34b版本的模型,发现模型非常倾向于输入CoT过程。

方便透露下具体怎么微调的么?
使用fastchat方法微调的。

这也导致经常得不到我想要的prompt对应的要求输出。

可以发一些具体的 case 么?

from yi.

psy-mas avatar psy-mas commented on July 22, 2024

"发现模型非常倾向于输入CoT过程。" 这里是指输出 CoT 过程吗?

sft完以后,我使用任务prompt期望模型输出我想要的的格式的内容,但是它输出完以后,就是会输出一大段CoT的过程。

from yi.

renxiaoyi avatar renxiaoyi commented on July 22, 2024

预训练阶段放入了大量的CoT数据吗。

预训练没有刻意放入 CoT 数据.

from yi.

LiuChen19960902 avatar LiuChen19960902 commented on July 22, 2024

预训练阶段放入了大量的CoT数据吗。 全量微调了34b版本的模型,发现模型非常倾向于输出CoT过程。 这也导致经常得不到我想要的prompt对应的格式要求输出。

请问您34B模型微调用了多少张卡呢,之前没有训练34B的经验,我的8张A100 80G的训不起来

from yi.

jiangchengSilent avatar jiangchengSilent commented on July 22, 2024

"发现模型非常倾向于输入CoT过程。" 这里是指输出 CoT 过程吗?

sft完以后,我使用任务prompt期望模型输出我想要的的格式的内容,但是它输出完以后,就是会输出一大段CoT的过程。

在输出结果的时候,配置tokenizer.decode(skip_special_tokens=False),看看截止符是否输出,以及这个截止符、和你SFT数据的截止符、以及model.generate里的截止符是否一致

from yi.

jiangchengSilent avatar jiangchengSilent commented on July 22, 2024

预训练阶段放入了大量的CoT数据吗。 全量微调了34b版本的模型,发现模型非常倾向于输出CoT过程。 这也导致经常得不到我想要的prompt对应的格式要求输出。

请问您34B模型微调用了多少张卡呢,之前没有训练34B的经验,我的8张A100 80G的训不起来

参考finetune/scripts/run_sft_Yi_34b.sh里边的配置,8张A卡是可以训练的,但如果开了offload要注意CPU内存使用,一般CPU内存需要900G以上,同时通过CUDA_VISIBLE_DEVICES来限制分布式并发量为4。
在这个script的配置下,一般单卡显存使用约80G,总内存使用量800G左右,如果还不行,考虑减小max_seq_len,从64开始慢慢往上加

from yi.

LiuChen19960902 avatar LiuChen19960902 commented on July 22, 2024

预训练阶段放入了大量的CoT数据吗。 全量微调了34b版本的模型,发现模型非常倾向于输出CoT过程。 这也导致经常得不到我想要的prompt对应的格式要求输出。

请问您34B模型微调用了多少张卡呢,之前没有训练34B的经验,我的8张A100 80G的训不起来

参考finetune/scripts/run_sft_Yi_34b.sh里边的配置,8张A卡是可以训练的,但如果开了offload要注意CPU内存使用,一般CPU内存需要900G以上,同时通过CUDA_VISIBLE_DEVICES来限制分布式并发量为4。 在这个script的配置下,一般单卡显存使用约80G,总内存使用量800G左右,如果还不行,考虑减小max_seq_len,从64开始慢慢往上加

十分感谢回复,我去试一试~

from yi.

Related Issues (20)

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.