LLM 参数设置
参数设置
- 
为了最好地发挥 LLM 模型的编程能力,需要调整几个关键参数的设置。
 - 
以前都是手动调整,其实可以让 LLM 模型自我推荐参数设置。
 - 
询问每个 LLM 对自己参数设置的建议,目前暂取下面的设置:
 
| 模型 | contextLength | temperature | topP | 
|---|---|---|---|
| gemini1.5 pro | 4096 | 0.2 | 0.95 | 
| gpt-4o | 4096 | 0.2 | 0.95 | 
| Grok2 beta | 4096 | 0.2 | 0.95 | 
| Mistral Large | 8192 | 0.1 | 0.9 | 
| GPT-4o mini | 4096 | 0.2 | 0.95 | 
| Llama3.2 90b | 4096 | 0.2 | 0.95 | 
| 豆包 | 4096 | 0.1 | 1 | 
| Qwen2.5 72b | 4096 | 0.2 | 0.9 | 
| Llama3.1 405b | 4096 | 0.2 | 0.9 | 
- 其中 Mistral Large 显得对上下文窗口的长度很自信,不过从其他模型的回答看,稍大一些的项目才需要这么大的上下文窗口,先用着看看吧。