LLM 参数设置

参数设置

  • 为了最好地发挥 LLM 模型的编程能力,需要调整几个关键参数的设置。

  • 以前都是手动调整,其实可以让 LLM 模型自我推荐参数设置。

  • 询问每个 LLM 对自己参数设置的建议,目前暂取下面的设置:


模型contextLengthtemperaturetopP
gemini1.5 pro40960.20.95
gpt-4o40960.20.95
Grok2 beta40960.20.95
Mistral Large81920.10.9
GPT-4o mini40960.20.95
Llama3.2 90b40960.20.95
豆包40960.11
Qwen2.5 72b40960.20.9
Llama3.1 405b40960.20.9
  • 其中 Mistral Large 显得对上下文窗口的长度很自信,不过从其他模型的回答看,稍大一些的项目才需要这么大的上下文窗口,先用着看看吧。