|
|
Llama 3模型作者在智源大会的分享 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
大模型长文本trick:KV cache 量化 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
大模型微调与RAG的选型建议 包包算法笔记 · 公众号 · 科技自媒体 · 1 年前 · |
|
|
Qwen2开源发布!0.5B到72B,显著提升! 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
北航x百度:大模型RAG遇到幻觉内容怎么办? 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
关于Scaling Law、合成数据、MOE及长文本的看法及未来 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
PPO vs DPO 对齐擂台的武林纷争 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
混合专家模型(MoE)的崛起与天工AI的突破 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
GPT-4o炸裂登场!大模型仍是最大赢家! 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
DPO作者新作|From r to Q* 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
如何从零训练多模态大模型(预训练方向) 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
从头预训练一只超迷你 LLaMA 3 包包算法笔记 · 公众号 · · 1 年前 · |
|
|
一文逮尽知名开源大模型作弊!训题库... 包包算法笔记 · 公众号 · · 1 年前 · |