MiMo-V2-Flash
小米开源的高效混合专家(MoE)大语言模型,具备 3090亿参数、150亿激活参数、150 tokens/s 超高速推理、256K 超长上下文支持,在推理、代码生成与智能体任务上表现出色。
华为云盘古大模型的官方网站。以下是对该网站的描述:
本站AI工具导航提供的盘古大模型页面内容基于公开资料、第三方工具目录与用户可访问信息整理,不代表官方立场,也不构成商业承诺或事实背书。内容均由chatgpt系列生成。同时,对于该外部链接的指向,不由AI工具导航实际控制,在2024年6月6日 下午2:29收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,AI工具导航不承担任何责任。
