docker安装ollama
为了能快速了解并处理您的问题,请提供以下基础信息:面板、插件版本:系统版本:
问题描述:我springboot调用ollama模型,ollama模型在linux面板的docker中拉取的镜像,启动完事,http:ip:11434 访问 显示ollma正在运行,我使用springboot配置ollma模型 base-uri http:ip:11434 调用时候就报错,我自己项目对接ollma,调用大模型时候 是http:ip:11434//api/chat 报404
相关截图(日志、错误):
页:
[1]