从他们的GitHub 仓库来看,这项工作似乎在几个月前悄然启动,由LM Studio团队推动。他们的目标是制定一个“用于定义跨平台、可组合 AI 模型的开放标准”。
可以使用如下所示的 YAML 文件来定义模型:
型号: mistralai/mistral-small-3.2 根据: -密钥: lmstudio-community/mistral-small-3.2-24b-instruct-2506-gguf 来源: -类型: huggingface 用户: lmstudio-community 仓库: Mistral-Small-3.2-24B-Instruct-2506-GGUF 元数据覆盖: 领域:法学硕士 架构: -米斯特拉尔 兼容性类型: - gguf 参数字符串: - 24B 最小内存使用字节数: 14300000000 contextLengths : - 4096 愿景:真实
对于 LLM 服务引擎(例如 LM Studio)来说,这些信息应该足够了解从哪里获取模型权重(这里是 Hugging Face 上的lmstudio-community/Mistral-Small-3.2-24B-Instruct-2506-GGUF ,但它为其他提供商留下了空间)以及各种其他配置选项和有关模型功能的重要元数据。
我非常喜欢这个概念。实际上,我一直在考虑为我的 LLM 工具添加类似的功能——我的想法是使用 Markdown 和 YAML 的前置内容块——但现在已经有了早期标准,我可能会在这项工作的基础上进行构建。
我找不到任何证据表明 LM Studio 以外的任何人正在使用它,所以目前它实际上是一个单一供应商的标准。其模型目录中的所有模型都是使用 model.yaml 定义的。
标签:标准、 yaml 、 ai 、 generative-ai 、 llms 、 llm 、 lm-studio
原文: https://simonwillison.net/2025/Jun/21/model-yaml/#atom-everything