|
|
瞎聊: SFT模型为何不如Pretrain模型 刘聪NLP · 公众号 · · 1 年前 · |
|
|
该来的还是会来,Qwen团队开源推理大模型-QwQ!!! 刘聪NLP · 公众号 · · 1 年前 · |
|
|
2024年,做大模型增量预训练(continue pretrain)的注意事项!!! 刘聪NLP · 公众号 · · 1 年前 · |
|
|
测测Kimi新开的k0-math,你是数学模型,但我就测文本 刘聪NLP · 公众号 · · 1 年前 · |
|
|
写了一个月提示词(Prompt)后的感悟!! 刘聪NLP · 公众号 · · 1 年前 · |
|
|
聊一聊做角色扮演大模型的经验 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列-详聊OpenRLHF中的各种Loss 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列-聊聊大模型SFT的数据清洗过程有多繁琐? 刘聪NLP · 公众号 · · 1 年前 · |
|
|
也许是2024年最值得一去的大模型国内年会! 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列-从零开始预训练1B级别大模型的心路历程 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列—大模型的拒绝采样2 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列-昇腾910B上进行Qwen2.5推理 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列-细聊LLM的拒绝采样 刘聪NLP · 公众号 · · 1 年前 · |
|
|
面向中文有害表情包(meme)的综合性检测 刘聪NLP · 公众号 · · 1 年前 · |
|
|
OpenAI-O1之下,我们技术该何去何从 刘聪NLP · 公众号 · · 1 年前 · |
|
|
CartesianMoE:通过笛卡尔积路由提升专家间的知识共享 刘聪NLP · 公众号 · · 1 年前 · |
|
|
LLM实践系列-拯救Continue Pretrain的数据 刘聪NLP · 公众号 · · 1 年前 · |