spring Ai框架整合Ollama,调用本地大模型

spring Ai框架整合Ollama,调用本地大模型

码农世界 2024-06-10 后端 84 次浏览 0个评论

Ollama使用


Ollama是一个用于在本地计算机上运行大模型的软件

软件运行后监听11434端口,自己写的程序要调大模型就用这个端口

ollama命令

ollama list:显示模型列表

ollama show:显示模型的信息

ollama pull:拉取模型

ollama push:推送模型

ollama cp:拷贝一个模型

ollama rm:删除一个模型

ollama run:运行一个模型

ollama全是命令行下操作,所以结合web客户端界面使用【安装可选】

主流的web工具

1 Openwebui

2 LobeChat,功能强大,可调用Ollama的模型,也可调用openai,google的等,在设置界面中配置url和key即可

spring Ai框架调用


1 pom.xml,注意添加的依赖和配置了仓库



	4.0.0
	
		org.springframework.boot
		spring-boot-starter-parent
		3.2.5
		 
	
	com.example
	spring-ai-ollama
	0.0.1-SNAPSHOT
	spring-ai-ollama
	spring-ai-ollama
	
		17
		0.8.1
	
	
		
			org.springframework.boot
			spring-boot-starter-web
		
		
			io.springboot.ai
			spring-ai-ollama-spring-boot-starter
			1.0.0
		
		
			org.springframework.boot
			spring-boot-devtools
			runtime
			true
		
		
			org.projectlombok
			lombok
			true
		
		
			org.springframework.boot
			spring-boot-starter-test
			test
		
	
	
		
			
				org.springframework.ai
				spring-ai-bom
				${spring-ai.version}
				pom
				import
			
		
	
	
		
			
				org.springframework.boot
				spring-boot-maven-plugin
				
					
						
							org.projectlombok
							lombok
						
					
				
			
		
	
	
		
			spring-milestones
			Spring Milestones
			https://repo.spring.io/milestone
			
				false
			
		
	

2 yml配置,写自己的 Ollama 地址,模型用哪个,先用Ollama去下载

spring:
  application:
    name: spring-ai-ollama
  ai:
    ollama:
      base-url: http://120.55.99.218:11434
      chat:
        options:
          model: gemma:7b

3 测试

import org.springframework.ai.chat.ChatResponse;
import org.springframework.ai.chat.messages.AssistantMessage;
import org.springframework.ai.chat.prompt.Prompt;
import org.springframework.ai.chat.prompt.PromptTemplate;
import org.springframework.ai.ollama.OllamaChatClient;
import org.springframework.ai.ollama.api.OllamaOptions;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.*;
@RestController
public class AiController {
    @Autowired
    private OllamaChatClient ollamaChatClient;
    @GetMapping(value = "/chat_1")
    public String chat_1(@RequestParam(value = "message") String message) {
        String call = ollamaChatClient.call(message);
        System.out.println("模型回答 = " + call);
        return call;
    }
    @GetMapping(value = "/chat_2")
    public Object chat_2(@RequestParam(value = "message") String message) {
        Prompt prompt = new Prompt(
                message,
                OllamaOptions.create()
                        //代码中配置,会覆盖application.yml中的配置
                        .withModel("gemma:7b") //使用什么大模型
                        .withTemperature(0.9F) //温度高,更发散,准确性降低,温度低,更保守,准确性高
        );
        ChatResponse call = ollamaChatClient.call(prompt);
        AssistantMessage output = call.getResult().getOutput();
        System.out.println("模型回答 = " + output.getContent());
        return output;
    }
    @GetMapping("/chat_3/{size}")
    public String chatYear(@PathVariable("size") Integer size) {
        String message = "随便写一句话,{size} 字以内";
        PromptTemplate promptTemplate = new PromptTemplate(message);
        promptTemplate.add("size", size);
        System.out.println(promptTemplate.render());
        return ollamaChatClient.call(promptTemplate.render());
    }
}

转载请注明来自码农世界,本文标题:《spring Ai框架整合Ollama,调用本地大模型》

百度分享代码,如果开启HTTPS请参考李洋个人博客
每一天,每一秒,你所做的决定都会改变你的人生!

发表评论

快捷回复:

评论列表 (暂无评论,84人围观)参与讨论

还没有评论,来说两句吧...

Top