如何为Spring AI MCP Server提供OAuth2认证
Spring AI 提供了对模型上下文协议(简称 MCP)的支持,该协议允许人工智能模型以结构化的方式与外部工具和资源进行交互并访问它们。
借助 Spring AI,开发人员只需几行代码就可以创建自己的 MCP 服务器,并向人工智能模型公开功能。
Spring AI 提供了对模型上下文协议(简称 MCP)的支持,该协议允许人工智能模型以结构化的方式与外部工具和资源进行交互并访问它们。
借助 Spring AI,开发人员只需几行代码就可以创建自己的 MCP 服务器,并向人工智能模型公开功能。
本文中的示例和模式基于全面的提示工程指南,该指南涵盖了有效的提示工程的理论、原则和模式。本文展示了如何使用Spring AI流畅的ChatClient API将这些概念转化为可运行的Java代码。
为方便起见,示例的结构遵循原始指南中概述的相同模式和技术。本文中使用的演示源代码可在以下地址获取:
现代 Web 应用正加速与大语言模型(LLMs)深度融合,构建超越传统问答场景的智能解决方案。为突破模型知识边界,增强上下文理解能力,开发者普遍采用多源数据集成策略,将 LLM 与搜索引擎、数据库、文件系统等外部资源互联。然而,异构数据源的协议差异与格式壁垒,往往导致集成复杂度激增,成为制约 AI 应用规模化落地的关键瓶颈。因此,Anthropic公司推出了模型上下文协议(Model Context Protocol, MCP),通过标准化接口为 AI 应用与外部数据源建立统一交互通道。这一协议体系不仅实现了数据获取与操作的规范化,更构建起可扩展的智能体开发框架,使开发者能够基于原生 LLM 能力快速构建复杂工作流。
最近DeepSeek开源了对openai-o1
的第一代开源推理大模型:deepseek-r1,因其极低的成本和与openai-o1
相当的性能引发了国内外的激烈讨论。DD在做独立产品的时候也一直都有用DeepSeek的API来实现一些功能,比如:TransDuck中的字幕翻译、视频翻译,效果也是非常不错的。但是,最近因为收到一些私有化的需求,所以对于API的调用就不可行了,不得不转向本地部署大模型,然后提供API的方式来实现。本文就针对这样的情况,尝试了一下使用 Ollama 在本地运行 DeepSeek-R1 并提供 API 服务,然用再使用Spring Boot + Spring AI 实现对 DeepSeek-R1 的调用,有类似需求或者感兴趣的小伙伴也可以根据下面的内容来实践。
为了构建生成式AI应用,需要完成两个部分:
就在昨晚,Spring AI发了个比较重要的更新。由于最近OpenAI推出了结构化输出的功能,可确保 AI 生成的响应严格遵守预定义的 JSON 模式。此功能显着提高了人工智能生成内容在现实应用中的可靠性和可用性。Spring AI 紧随其后,现在也可以对OpenAI的结构化输出完美支持了。
下图展示了本次扩展的实现结构,如果对于当前实现还不够满意,需要扩展的可以根据此图来着手理解分析进行下一步扩展工作。
过去一年里,ChatGPT 和 Google Bard 这样的东西出现,为大众带来了生成式人工智能,似乎每个人都在梦想和计划如何在他们的项目甚至日常生活中利用人工智能。
如果您是 Spring 开发人员,您可能想知道如何在 Spring 应用程序中实现生成式 AI。如果是这样,那么接下来这个视频一定适合您。