
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
chatGLM3推理报错处理IndexError: piece id is out of range.

启动百川大模型错误解决:AttributeError: 'BaichuanTokenizer' object has no attribute 'sp_model'

AI大模型启动参数整理,max_new_tokens,max_length,max_time,repetition_penalty
启动百川大模型错误解决:ModuleNotFoundError: No module named 'bitsandbytes'

启动百川大模型错误解决:AttributeError: 'BaichuanTokenizer' object has no attribute 'sp_model'

chatGLM3推理报错处理IndexError: piece id is out of range.

因为baichuan2大模型的max_length最大是4096,如果你的max_new_tokens设置了4000,那么无论你传了多少历史对话记录,他都不能超过96个Token长度,这也就导致没有了上下文效果。跟踪过源码以后发现,用户输入的Token最大长度(max_input_tokens ),等于max_length - max_new_tokens,也就是说max_new_tokens越小
因为baichuan2大模型的max_length最大是4096,如果你的max_new_tokens设置了4000,那么无论你传了多少历史对话记录,他都不能超过96个Token长度,这也就导致没有了上下文效果。跟踪过源码以后发现,用户输入的Token最大长度(max_input_tokens ),等于max_length - max_new_tokens,也就是说max_new_tokens越小
AI大模型启动参数整理,max_new_tokens,max_length,max_time,repetition_penalty
请根据您的实际安装和配置情况,相应地调整上述命令中的日志文件路径。如果您不确定日志文件的位置,可以查看 Nginx 的配置文件或使用。:如果您为特定的站点配置了独立的日志文件,您需要根据实际的配置文件路径来查找和查看这些日志。:为了防止日志文件变得过大,您可能需要定期进行日志切割和压缩。:如果日志文件不在默认位置,您可能需要检查 Nginx 的配置文件(通常是。:如果您更改了日志的配置,需要重启
