Amux

MiniMax 适配器

使用 MiniMax 适配器连接到 MiniMax-M2.5 等模型,支持 Interleaved Thinking

MiniMax 适配器提供了与 MiniMax API 的集成。MiniMax M2.5 是最新的旗舰模型,采用 MoE 架构(2300 亿总参数,每 token 仅激活 100 亿),在编码和 Agent 任务上达到业界领先水平,成本仅为同类模型的 1/10~1/20。支持 Interleaved Thinking 增强推理能力。

安装

pnpm add @amux.ai/llm-bridge @amux.ai/adapter-minimax

基础用法

import { createBridge } from '@amux.ai/llm-bridge'
import { minimaxAdapter } from '@amux.ai/adapter-minimax'

const bridge = createBridge({
  inbound: minimaxAdapter,
  outbound: minimaxAdapter,
  config: {
    apiKey: process.env.MINIMAX_API_KEY
  }
})

const response = await bridge.chat({
  model: 'MiniMax-M2.5',
  messages: [
    { role: 'system', content: '你是一个有帮助的助手。' },
    { role: 'user', content: '你好,你好吗?' }
  ]
})

console.log(response.choices[0].message.content)

支持的模型

模型说明输出速度
MiniMax-M2.5编码和 Agent SOTA,MoE 架构(2300亿/100亿激活)约 50 tps
MiniMax-M2.5-lightningM2.5 极速版:效果不变,速度更快约 100 tps
MiniMax-M2.1强大多语言编程能力,全面升级编程体验约 60 tps
MiniMax-M2.1-lightningM2.1 极速版:效果不变,更快,更敏捷约 100 tps
MiniMax-M2专为高效编码与 Agent 工作流而生约 60 tps

核心特性

Interleaved Thinking

MiniMax M2.5 / M2.1 支持 Interleaved Thinking,提供透明的推理过程。

reasoning_split 默认已启用 - 思考内容会自动分离:

// reasoning_split 默认已启用
const stream = bridge.chatStream({
  model: 'MiniMax-M2.5',
  messages: [
    { role: 'user', content: '计算: 15 * 24 等于多少?' }
  ],
  stream: true
})

for await (const event of stream) {
  if (event.type === 'reasoning') {
    console.log('思考中:', event.reasoning?.delta)
  } else if (event.type === 'content') {
    console.log('答案:', event.content?.delta)
  }
}

多语言编程

MiniMax M2.5 在多种编程语言上表现出色:

const response = await bridge.chat({
  model: 'MiniMax-M2.5',
  messages: [
    {
      role: 'user',
      content: '用 Rust 写一个计算斐波那契数列的函数'
    }
  ],
  temperature: 1.0 // MiniMax 推荐的温度值
})

console.log(response.choices[0].message.content)

支持的语言包括:

  • Rust、Java、Golang、C++
  • Kotlin、Objective-C
  • TypeScript、JavaScript
  • Python 等

函数调用

const response = await bridge.chat({
  model: 'MiniMax-M2.5',
  messages: [
    { role: 'user', content: '北京的天气怎么样?' }
  ],
  tools: [{
    type: 'function',
    function: {
      name: 'get_weather',
      description: '获取指定城市的天气',
      parameters: {
        type: 'object',
        properties: {
          city: { type: 'string', description: '城市名称' }
        },
        required: ['city']
      }
    }
  }]
})

流式输出

const stream = bridge.chatStream({
  model: 'MiniMax-M2.5-lightning',
  messages: [
    { role: 'user', content: '给我讲一个关于 AI 的故事' }
  ],
  stream: true
})

for await (const chunk of stream) {
  if (chunk.choices[0]?.delta?.content) {
    process.stdout.write(chunk.choices[0].delta.content)
  }
}

配置选项

const bridge = createBridge({
  inbound: minimaxAdapter,
  outbound: minimaxAdapter,
  config: {
    apiKey: process.env.MINIMAX_API_KEY,
    baseURL: 'https://api.minimaxi.com/v1', // 默认值
    timeout: 60000
  }
})

与 OpenAI 格式转换

MiniMax 完全兼容 OpenAI 格式:

import { openaiAdapter } from '@amux.ai/adapter-openai'
import { minimaxAdapter } from '@amux.ai/adapter-minimax'

// OpenAI 格式 → MiniMax API
const bridge = createBridge({
  inbound: openaiAdapter,
  outbound: minimaxAdapter,
  config: {
    apiKey: process.env.MINIMAX_API_KEY
  }
})

// 使用 OpenAI 格式发送请求
const response = await bridge.chat({
  model: 'gpt-4', // 将被映射到 MiniMax-M2.5
  messages: [{ role: 'user', content: '你好' }]
})

功能支持

功能支持备注
对话补全完全支持
流式输出支持 usage 追踪
函数调用完全支持
视觉理解文本模型暂不支持
系统提示词完全支持
推理能力Interleaved Thinking
JSON 模式结构化输出

特色功能

Interleaved Thinking

MiniMax M2.5 / M2.1 支持 Interleaved Thinking,可以看到模型的推理过程。

默认情况下,reasoning_split 已启用,这意味着思考内容会自动与最终答案分离:

// reasoning_split 默认启用
const stream = bridge.chatStream({
  model: 'MiniMax-M2.5',
  messages: [
    { role: 'user', content: '解决这个复杂问题...' }
  ],
  stream: true
})

for await (const event of stream) {
  if (event.type === 'reasoning') {
    // 模型的思考过程(自动分离)
    console.log('💭 思考中:', event.reasoning?.delta)
  } else if (event.type === 'content') {
    // 最终答案(不包含 <think> 标签)
    console.log('📝 答案:', event.content?.delta)
  }
}

如果要禁用推理分离(在内容中显示 <think> 标签):

const ir = {
  model: 'MiniMax-M2.5',
  messages: [
    { role: 'user', content: '解决这个复杂问题...' }
  ],
  stream: true,
  extensions: {
    minimax: {
      reasoning_split: false  // 禁用推理分离
    }
  }
}

const stream = await bridge.chatStream(ir)
// 现在思考内容会包含在 content 中,带有 <think> 标签

温度参数范围

MiniMax 的温度参数范围为 (0.0, 1.0]:

const response = await bridge.chat({
  model: 'MiniMax-M2.5',
  messages: [{ role: 'user', content: '你好' }],
  temperature: 1.0 // 推荐值: 1.0
})
  • 最小值: 0.01(≤ 0.0 的值会被限制为 0.01)
  • 最大值: 1.0(> 1.0 的值会被限制为 1.0)
  • 推荐值: 1.0

优势

  • SOTA 编码性能: M2.5 在 SWE-Bench Verified 上达到 80.2%,Multi-SWE-Bench 上达到 51.3%
  • MoE 架构: 2300 亿总参数,每 token 仅激活 100 亿,顶级性能,成本仅为同类模型的 1/10~1/20
  • Interleaved Thinking: 透明的推理过程,适合复杂任务
  • 多语言编程: 对 Rust、Java、Golang、C++ 等语言有出色支持
  • WebDev & AppDev: 增强的 Web 和移动应用开发能力
  • Agent 友好: 对各类 AI 编程工具和 Agent 框架有良好支持
  • 开源: M2.5 已在 HuggingFace 上以修改版 MIT 许可证开源

最佳实践

1. 选择合适的模型

// SOTA 编码和 Agent 任务
const response = await bridge.chat({
  model: 'MiniMax-M2.5',
  messages: [{ role: 'user', content: '解释量子计算' }]
})

// M2.5 品质的高速响应
const fastResponse = await bridge.chat({
  model: 'MiniMax-M2.5-lightning',
  messages: [{ role: 'user', content: '快速总结这篇文章' }]
})

// 通用任务,平衡性能
const generalResponse = await bridge.chat({
  model: 'MiniMax-M2.1',
  messages: [{ role: 'user', content: '帮我调试这段代码' }]
})

2. 利用 Interleaved Thinking

// 复杂问题求解
const ir = {
  model: 'MiniMax-M2.5',
  messages: [
    {
      role: 'system',
      content: '你是一个专业的问题解决专家。请一步步思考。'
    },
    {
      role: 'user',
      content: '设计一个高可用的分布式缓存系统'
    }
  ],
  stream: true,
  extensions: {
    minimax: {
      reasoning_split: true
    }
  }
}

3. 优化多语言开发

const response = await bridge.chat({
  model: 'MiniMax-M2.5',
  messages: [
    {
      role: 'system',
      content: '你是一个精通多种编程语言的专家。'
    },
    {
      role: 'user',
      content: '将这段 Python 代码转换为 Rust 并优化性能'
    }
  ],
  temperature: 1.0
})

不支持的参数

以下 OpenAI 参数不被 MiniMax 支持:

  • presence_penalty
  • frequency_penalty
  • logit_bias
  • logprobs
  • seed
  • n(仅支持值为 1)

相关资源

下一步

On this page