多租户训练

2026年3月1日 · 1 分钟阅读时长
Twinkle 多租户架构
showcase

Twinkle 支持在共享基座模型上同时进行多租户训练,大幅降低部署成本,同时允许每个租户使用灵活的配置。

核心特性

  • 资源高效: 单一基座模型服务多个并发训练会话
  • 完全隔离: 每个租户拥有独立的 LoRA 权重、优化器和损失函数
  • 异构配置: 每个租户可使用不同的 rank、学习率和训练目标
  • 并发访问: 训练会话之间互不干扰

使用场景

租户数据集LoRA Rank训练类型
A私有数据8SFT
B开源数据32预训练
CRL 数据16GRPO
D推理-对数概率

示例

from twinkle_client import init_twinkle_client
from twinkle_client.model import MultiLoraTransformersModel

client = init_twinkle_client(base_url='http://server:8000')

model = MultiLoraTransformersModel(model_id='ms://Qwen/Qwen3.5-4B')
model.add_adapter_to_model('tenant_a', LoraConfig(r=8))
model.set_loss('GRPOLoss', epsilon=0.2)

for batch in dataloader:
    model.forward_backward(inputs=batch)
    model.step()
ModelScope Team
Authors
AI Research & Engineering
Building open-source AI infrastructure for the community. Twinkle is our lightweight LLM training framework.