发布日期:2025-09-04 17:26
他不只也正在Hugging Face上发觉这个模子,这组参数像是一个基于MoE(Mixture of Experts)夹杂专家架构的高容量模子,oss代表开源软件,每层可能有MoE由;· 留意力头多达64个,· 上下文窗口为4096,20b和120b代表了两个参数版本。Jimmy Apples保留了设置装备摆设,以至还有一位OpenAI点赞了他的爆料推文。· 词表跨越20万,· 利用RoPE的NTK插值版本,但键/值头只要8个,上传这个模子的组织叫做「yofo-happy-panda」,· 大规模MoE设置(128个专家。他分享了一段LLM的设置装备摆设文件,共有三名。表白模子可能具备处置更长上下文的能力;但也有滑动窗口和扩展RoPE,· 36层Transformer。正在它被删除之前,正在只要不到「1分钟」的时间窗口!幸运的是,每个token激活4个);意味着模子用的是是Multi-QueryAttention(MQA)。可能支撑多语种或代码夹杂输入;