低代码 AI Coding:如何让大模型 “少传 token” 用自定义规则?

大家好~分享一个近期做低代码平台 AI Coding 的小困惑,想求各位大佬点拨:

背景:在低代码平台的 AI Coding 场景中,需要给大模型绑定大量平台专属的 Skills(如表单生成、DSL 解析)和 Rule(合规约束、语法规则),但当前 “把所有规则塞到上下文里传 token” 的方式,既费成本又容易超限。

核心思考:

  1. 能否把 Skills/Rule 做成模型侧的 “预设能力”,前端仅传 ID / 关键词,让模型自主匹配调用?

  2. 这种 “模型侧治理” 的架构,在 TRA E IDE / 不同大模型(Qwen/DeepSeek/ 豆包)上的适配性如何?

  3. 规则高频迭代时,如何保证模型侧的 Skills/Rule 能快速同步,且不影响线上调用?

想听听大家的思路,不管是理论探讨还是实战案例,都欢迎交流~

1 个赞