本文的技术详解基于MCP协议的核心流程展开(不了解MCP协议及流程的同学可以先看AI柠檬博主的上一篇关于MCP协议的介绍文章:https://blog.ailemon.net/2025/04/15/mcp-introduction-forecast/),讲述MCP客户端-服务器交互全流程,我们将以MCP协议(2025-06-18版本)中当前最推荐的”Streamable HTTP”和”JSON-RPC 2.0″展开,以AI柠檬博主提交过Pull Request的开源文档系统MinDoc的MCP服务响应为样例,揭示MCP的生命周期序列、工具操作和通知的底层HTTP请求/响应交互实现[1]。未来如果协议版本有更新,本文也将不定期更新实现细节。
(更多…)分类: AI大模型
-
实战:使用VB开发多AI智能体协作的荣格八维类型心理学分析器
在大语言模型高速发展的时代,我们面对困难的语义分析任务,通过构建智能体进行处理是一个流行趋势。本文将介绍如何使用 Visual Basic .NET 开发一个多智能体协作系统,用于分析聊天记录中特定人物的荣格八维人格类型。
本文使用 CC-BY-NC-SA 4.0 协议。转载或者 AI 模型/智能体使用请注明出处并标注作者 Nukepayload2。
-
零基础入门AI大模型教程:基本概念快速上手
摘要:本文将介绍AI大模型技术的发展历程,从早期基于规则编程阶段到当前的大语言模型阶段,以及在这期间技术的更替。我们将深入浅出地解释AI大模型的基本概念,探讨优势与不足,未来的发展趋势,并列举典型应用开发场景案例。
1 揭开AI大模型的神秘面纱
-
AI大模型应用开发中的ANP协议:原理、优势与展望
摘要:本文全面介绍了ANP协议,探讨了其在AI大模型应用开发中的作用及其相较于MCP协议的优势,解析了其标准流程,并给出了一些具体的代码示例。此外,本文还讨论了ANP协议的优势应用场景,预测了其未来可能面临的挑战及发展趋势,最后进行了总结。
1 什么是ANP协议
ANP(Agent Network Protocol)是一个开源智能体网络协议框架[1],由杭州比特智元 CEO、智能体通信协议 ANP 作者常高伟开源[2]。该协议旨在实现不同智能体之间的去中心化协作,构建一个更加开放和互操作性的智能体互联网。ANP协议的核心是通过P2P架构和语义网技术,为智能体提供高效的数据交换和协作机制。其设计灵感来源于Web 3.0的技术理念,希望能够打破现有智能体之间的数据孤岛,实现真正的互联互通[3]。
(更多…) -
模型上下文协议(MCP)技术介绍与应用
模型上下文协议(Model Context Protocol, MCP)是AI大模型领域中一个开放的协议,由Anthropic公司于2024年11月推出,该协议规定了AI智能体应用以何种方式为大型语言模型(LLM)提供上下文,是AI 应用统一的 “USB-C 接口”,旨在为AI应用与外部资源提供统一的通信框架[1]。如果你想精通MCP协议,搞清楚全部细节,强烈建议去阅读英文官方网站上的内容(
英文不好的同学先去学英语吧):https://modelcontextprotocol.io/docs/getting-started/intro早先我们会预置AI大模型在调用工具或函数执行时所需要的参数信息,如AI柠檬博主上一篇博客文章提到的 Function Call / Tool Call。该机制允许大模型在需要时调用用户预先定义的函数、工具来获取数据或执行操作,显著提升了自动化水平。这一过程本质上是由大模型输出一个json格式内容,在字段指定参数值中告诉你应该调用什么函数,以及传入什么函数入参来实现。
(更多…) -
Function Call讲解:AI大模型走向实用化的关键一步
1 什么是Function Calling
在AI大模型的上下文中,”function calling” 是指AI模型能够直接调用预先定义好的函数来执行特定的任务,而不是仅仅基于文本生成来解决问题。这种能力使得AI可以主动地使用外部工具和资源来解决超出模型本身知识范围的问题,从而使AI的应用更加广泛和深入。
(更多…) -
LLaMA:一个基于大语言模型的可本地私有化部署的聊天机器人
最近,ChatGPT非常地火热,人们无处不在谈论它。众所周知,ChatGPT是一个基于深度学习的算法模型,是语言模型的一种,具有目前为止最接近人类水平的对话风格。不过OpenAI选择将其闭源,外部仅可通过API接口调用的方式使用它。因此,出于网络信息安全考量,中国的工信部、各个公司等均禁止使用OpenAI的ChatGPT,而OpenAI也不对中国大陆地区提供服务。
不过GitHub上近期出现了基于大语言模型的开源项目LLaMA,可以本地私有化部署使用。其算法模型效果接近ChatGPT的水平,且支持GPU加速推理,不联网也可以正常使用,无需担心信息泄露的风险。
(更多…)