DragonflyAI首页模型新发布工具箱模型排行榜CTRL KTagged#LLM推理1 post foundoMLXoMLX:苹果M系列Mac上本地跑大模型的神器——10倍提速、多并发爽玩oMLX 是专为 Apple Silicon 设计的本地 LLM 推理服务器,通过连续批处理和分层 KV Cache(热 RAM + 冷 SSD)实现 10 倍提速,丐版 Mac Mini 也能多并发跑大模型。Mar 9, 2026