-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
一文了解Text Embedding模型:从text2vec、openai-text embedding到m3e、bge(上)
点击上方“海边的拾遗者”,选择“星标”公众号 第一时间获取价值内容 01第一部分 衡量文本向量表示效果的榜单:MTEB、C-MTEB1.1 《MTEB: Massive Text Embedding Benchmark(海量文本嵌入基准)》 判断哪些文本嵌入模型效果较好,通常需要一个评估指标来进行比较,《MTEB: Massive Text Embedding Benchmark(海量文本嵌入基准…- 2
- 0
-
RollingAI创始人刘开出席2025年中国绿公司年会,解读AI商业化落地新思维
在刚刚结束的2025年中国绿公司年会"AI重构企业数智化"高级别闭门研讨会上,RollingAI创始合伙人刘开受邀出席并分享了企业AI落地的前沿观点和实践经验。 PART/1AI 落地三大金句:从上往下定场景、从下往上涨文化、从后往前做建设在由广联达科技股份有限公司董事长袁正刚主持的圆桌研讨环节,刘开分享了RollingAI在帮助企业实施AI项目过程中总结的三句金言: &quo…- 3
- 0
-
一文讲透 MCP 与 Function calling,你想看的都在这里
点击上方?公众号?关注我✅你好啊,我是雨飞,见字如面。感谢阅读,期待我们下一次的相遇。 昨天,给大家直播分享了一次 MCP 的基本概念,其中有几个人私聊我问到关于 MCP 和 Function calling 的区别,今天和大家分享下这方面的知识,内容非常多,建议收藏后仔细阅读。市面上有很多分析 MCP 和 Function calling 的文章,但是说的并不对,如果只能用一句话来总结这两者的区…- 2
- 0
-
混合专家 (MoE) 架构:现代大模型的“秘密武器”
前言:随着人工智能飞速发展,我们惊叹于大型语言模型(LLMs)卓越的理解、生成和推理能力,但这背后是模型规模的急剧膨胀,以及随之而来的训练成本和推理效率挑战。如何突破这些瓶颈,构建更大、更强、更经济高效的模型?混合专家(Mixture of Experts, MoE)架构正是回答这一问题的关键技术之一,堪称现代大模型的“秘密武器”。1、MoE 是什么?稀疏激活的力量混合专家模型(Mixture o…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
一文了解:大模型 Agent 开发框架有哪些?它们的区别是什么?
Agent、NLP、知识图谱、信息抽取等相关的学习,分享一些教程心得与大家一起学习共勉。" data-id="Mzg3NDEyMzY0MA==" data-is_biz_ban="0" data-service_type="1" data-verify_status="0">——大模型时代,如何选择适合…- 3
- 0
-
大模型应用系列:两万字解读MCP
【引】AI Agent的实际效能高度依赖于其可集成的工具生态。当Agent无法接入关键数据源或功能接口时,其应用价值将大幅受限。这一核心挑战直接决定了Agent能否在真实场景中发挥作用。 MCP通过建立统一的工具连接规范,为Agent开发提供了标准化接入框架。该协议不仅简化了Agent与多样化系统的集成过程,还显著扩展了Agent的任务处理能力,使开发者能够更高效地构建具备复杂功能的智能体,实现从…- 3
- 0
-
一篇文章说清楚什么是生成式AI、决策式AI、判别式AI
生成式 AI、决策式 AI 和判别式 AI 是人工智能领域的三类核心技术。 一、核心定义与目标1. 生成式 AI(Generative AI)定义:通过学习数据分布规律,生成全新内容(如图像、文本、音频、代码等)的 AI 系统。核心目标:模仿或创造符合人类认知的输出,实现 “从无到有” 的内容生成。核心能力:建模数据的潜在分布,输出具有多样性和创造性的结果。 2. 判别式 AI(Discrimin…- 3
- 0
-
字节Trae 大更新,5分钟看懂AI生成的“神秘代码块”
这是我的第224篇Ai笔记,本篇2075字、累计笔记424165引言. 春节前,字节悄咪咪地发布了一个全新的AI编程助手——Trae,目标就是要做“工程级别的编程 AI”。 它跟咱们平时用的 Copilot 那些插件不一样,Trae 可是下了狠功夫,它能深入代码上下文,把业务结构搞得明明白白,还能搞定协作开发任务。 我一开始也是抱着试试看的心态,结果还真是惊喜,几个月下来它不断更新,体验也越来越丝…- 3
- 0
-
字节新出的MCP应用DeepSearch,有点意思。
这是苍何的第 355 篇原创! 大家好,我是苍何。 悄悄告诉你个事,昨天我去杭州参加字节火山方舟举办的开发者见面会了,你别说,还真有点刘姥姥进大观园的感觉? 现场真实体验完这次新发布的产品和模型,激动的忍不住想给大家做一波分享。特别是新出的 MCP 应用 DeepSearch,很有意思。 我的小脑袋瓜子总结下来,一共有四大亮点: 1、发布豆包深度思考模型 Doubao-1.5-thinking-p…- 2
- 0
-
用百度网盘MCP在Cursor中构建私人网盘助手,太香了叭(附搭建教程)
这是苍何的第 359 篇原创! 大家好,我是苍何。 参加完百度 AI 开发者大会,我兴奋的像一只小鸡,跳来跳去。 倒不是因为近距离见了李彦宏(当然这也很兴奋?),而是被这次发布的很多 AI 产品所吸引。 特别是看到百度千帆平台已经全面支持 MCP 并可自定义发布 MCP Server,我更兴奋了。 于是我马不停蹄的用他内置的百度网盘 MCP,在千帆平台,快速搭建了私人网盘助手。他长这个样子。 我可…- 2
- 0
-
实测免费DeepResearch!轻量版深夜上线,基于o4-mini,速度更快/重视脉络梳理
克雷西 发自 凹非寺量子位 | 公众号 QbitAI 终于,免费用户也能用上OpenAI的DeepResearch了,量子位也进行了新鲜实测! OpenAI深夜官宣,基于o4-mini某个版本的轻量版DeepResearch正式上线。 按照官方说法,轻量版的回答会更短,但智能水平将几乎无异于满血版本。 与此同时,轻量版的上线也意味着付费用户可以有更多的使用次数。 具体来说,付费用户的满血版用量不变…- 2
- 0
-
Dify → 问题分类|条件分支
问题分类 通过定义分类描述,问题分类器能够根据用户输入,使用 LLM 推理与之相匹配的分类并输出分类结果,向下游节点提供更加精确的信息。 场景常见的使用情景包括: 客服对话意图分类 产品评价分类 邮件批量分类 在一个典型的产品客服问答场景中,问题分类器可作为知识库检索的前置步骤,对用户输入问题意图进行分类处理,分类后导向下游不同的知识库查询相关的内容,以精确回复用户的问题。 示例工作流模板下图为产…- 3
- 0
-
接入SpringAI实现流式对话
前面有讲到Python对接DeepSeek实现对话,但基于现状,从事后端开发,侧重于Java,此次演示以SpringAI技术实现。步骤一:引入依赖一定要引入SpringAI的管理依赖,可以方便的使用其他模型及Client! <dependencyManagement> <dependencies> <!-- Spring AI的管理…- 4
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
MCP超市:百度上线AI开放计划
解决了安装难、不安全、开发慢的问题后, MCP Server 数量暴增后, 马上就会迎来 GPTs 同款的至暗时刻。 一个 MCP Server 里有多个功能,这就意味着 Server 们的重叠程度会很高,光是ai搜索我都快看到十种了。 加上需要 API Key,按次收费让测试变得有成本,搭一个合适自己的 MCP Agent需要的时间更久。 GPTs 当时的解法是根据有效对话次数排名,败笔就是有很…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
从Function Call到MCP:大模型如何调用外部工具
在当前的大模型应用中,一个重要能力就是“调用外部工具”——也被称为Function Calling。在实现上,OpenAI 提出的 Function Schema 标准已成为事实上的主流。为了进一步提升接口管理与接入效率,MCP(Model Context Protocol,模型上下文协议)应运而生。01大模型为什么需要调用外部工具?大语言模型虽然拥有强大的生成和理解能力,但它本质上是一个「预训练…- 2
- 0
-
增量代码自动Review工具:洞窝在AI上的探索和实践
一、背景介绍 在传统的软件测试体系中,QA人员主要采用接口测试、ui/功能测试、兼容/易用性测试、性能测试等黑/灰盒测试技术手段来保障软件项目质量,涉及代码层面的质量检查包括单元测试、代码Review环节主要由开发人员负责,QA涉及较少或者基本不参与,因此,针对质量至少存在以下局限性: 1、QA重心在于关注功能实现,对内在的代码质量可能存在盲区 一些隐形bug,对常见的…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!