LLM 参数设置
参数设置
-
为了最好地发挥 LLM 模型的编程能力,需要调整几个关键参数的设置。
-
以前都是手动调整,其实可以让 LLM 模型自我推荐参数设置。
-
询问每个 LLM 对自己参数设置的建议,目前暂取下面的设置:
模型 | contextLength | temperature | topP |
---|---|---|---|
gemini1.5 pro | 4096 | 0.2 | 0.95 |
gpt-4o | 4096 | 0.2 | 0.95 |
Grok2 beta | 4096 | 0.2 | 0.95 |
Mistral Large | 8192 | 0.1 | 0.9 |
GPT-4o mini | 4096 | 0.2 | 0.95 |
Llama3.2 90b | 4096 | 0.2 | 0.95 |
豆包 | 4096 | 0.1 | 1 |
Qwen2.5 72b | 4096 | 0.2 | 0.9 |
Llama3.1 405b | 4096 | 0.2 | 0.9 |
- 其中 Mistral Large 显得对上下文窗口的长度很自信,不过从其他模型的回答看,稍大一些的项目才需要这么大的上下文窗口,先用着看看吧。