文本翻译接口
基本介绍
与传统的翻译接口不同,模力方舟的文本翻译接口是基于大语言模型构建的,尽管在速度和成本上要略高与传统的翻译接口,但是因其能够理解上下文语境,从而提供更准确和自然的翻译结果。
该接口兼容 Google Translate 的 API 调用方式,方便用户快速集成。
功能特点
- 精准翻译:依托大语言模型的深层语义理解,实现更贴合语境的专业翻译。
- 多语言互译:支持多种常见语言间的互译。
- 模型适配:支持使用针对翻译任务优化的专用模型。
使用方法
POST https://api.moark.com/v1/translations
在模型使用界面输入待翻译文本和目标语言,即可实时获取翻译结果。以下是使用 Qwen3-4B 模型的示例:

认证方式
请参考 模力方舟 API 认证方式 。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| q | string/array | 是 | 待翻译的字符串数组 |
| model | string | 否 | 使用的模型名称,目前只支持 Qwen3-4B |
| source | string | 否 | 需要翻译的源文本 |
| target | string | 是 | 目标语言 |
支持的模型列表
| 模型名称 |
|---|
| Qwen3-4B |
| Qwen3-14B |
| Qwen3-32B |
| DeepSeek-V3 |
| HY-MT1.5-7B |
响应内容
如果请求成功,响应内容示例如下:
{
"translations": [
{
"detected_source_language": "zh",
"translated_text": "Hello, world!"
}
]
}
示例代码
python
import requests
import json
API_URL = "https://api.moark.com/v1/translate"
API_TOKEN = "XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX" # 请替换为您的令牌
headers = {
"Authorization": f"Bearer {API_TOKEN}",
"Content-Type": "application/json"
}
def translate_text(text, target_lang, source_lang=None, model="Qwen3-4B"):
payload = {
"model": model,
"q": text,
"target": target_lang
}
if source_lang:
payload["source"] = source_lang
try:
response = requests.post(API_URL, headers=headers, json=payload, timeout=30)
response.raise_for_status()
result = response.json()
return result
except requests.exceptions.RequestException as e:
print(f"请求失败: {e}")
return None
except json.JSONDecodeError as e:
print(f"解析响应失败: {e}")
return None
if __name__ == "__main__":
# 示例:翻译单条文本
translation_result = translate_text("今天天气非常好,适合出去散步。", "en", "zh")
if translation_result and "translations" in translation_result:
for trans in translation_result["translations"]:
print(f"检测到的源语言: {trans['detected_source_language']}")
print(f"翻译结果: {trans['translated_text']}")
else:
print("翻译请求未成功。")
核心参数说明:
-H "Authorization: Bearer ...":用于身份验证,请将您的访问令牌替换为从模力方舟控制台获取的真实令牌。"q":需要翻译的文 本,可直接传入单个字符串(如"今天天气非常好"),或传入字符串数组(如["文本一", "文本二"])。"source"和"target":分别指定源语言和目标语言的代码。
更多示例代码您可参考 模力方舟示例代码仓库 。
计费方式
文本翻译接口提供两种计费模式,具体费用与所使用的大语言模型的费用一致:
- 按Token计费
- 按次计费