翻译 LLM 模型的监督式微调简介

如果您有翻译任务并且有可用的已加标签文本数据,则监督式微调是个不错的选择。对于特定领域的应用,如果其翻译与最初训练大型模型的通用数据存在显著差异,这种方法尤其有效。

监督式微调使用带标签的数据集调整模型行为。此过程会调整模型的权重,以最大限度地减少其预测结果与实际标签之间的差异。

支持的模型

以下翻译 LLM 模型支持监督式调优:

  • translation-llm-002(处于公开预览版阶段,仅支持文本)

限制

  • 输入和输出词元数上限:
    • 投放次数:1,000 次(约 4,000 个字符)
  • 验证数据集大小:1024 个示例
  • 训练数据集文件大小:对于 JSONL 不超过 1 GB
  • 训练示例长度:1,000 个(约 4,000 个字符)
  • 适配器大小:
    • Translation LLM V2:仅支持值 4。使用任何其他值(例如 1 或 8)将导致失败。

使用监督式微调的应用场景

如果要翻译的文本基于模型学习到的常见通用文本结构,通用预训练翻译模型会发挥良好效果。如果您希望模型学习偏离常规翻译的特定领域或特定内容,则不妨考虑对该模型进行调优。例如,您可以使用模型调优来训练模型学习以下内容:

  • 行业领域的特定内容,包含专业术语或特定风格
  • 用于生成输出的特定结构或格式。
  • 特定行为,例如何时提供简洁或详细输出。
  • 针对特定输入类型的特定自定义输出。

配置调优作业区域

用户数据(例如转换后的数据集和经过调优的模型)存储在调优作业区域中。唯一受支持的区域是 us-central1

  • 如果您使用的是 Vertex AI SDK,则可以在初始化环节指定区域。例如:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • 如果您通过使用 tuningJobs.create 方法发送 POST 请求来创建监督式微调作业,则可以使用网址来指定调优作业运行的区域。例如,在下面的网址中,您可以通过将 TUNING_JOB_REGION 的两个实例都替换为运行作业的区域来指定该区域。

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • 如果您使用 Google Cloud 控制台,则可以在模型详细信息页面的区域下拉字段中选择所需区域的名称。您也可以在此页面选择基本模型���经过调优的模型名称。

配额

系统对并发调优作业的数量实施配额。每个项目都配有运行至少一个调优作业的默认配额。这是一个全球配额,所有可用区域和支持的模型共用这一配额。如果要同时运行更多作业,则需要为 Global concurrent tuning jobs 申请更多配额

价格

适用于 translation-llm-002 的监督式微调目前为预览版。 在调优处于预览版阶段期间,您无需为模型调优付费,也不用为使用模型进行推理付费。

训练令牌的计算方法为训练数据集中的令牌总数乘以周期数。

后续步骤