-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
OpenAI 白送 200 美元的深度研究功能?实测后发现这个「阉割版」不如不用
今天凌晨,OpenAI 宣布推出由 o4-mini 驱动的轻量版深度研究功能。先划重点,Plus、Team、Enterprise 和 Edu 用户都将可以使用这项功能。每月查询次数分别为:Pro 用户 250 次、Plus 用户 25 次、免费用户 5 次。官方表示,这一版本在智能程度上接近完整版深度研究,虽然回复更为简洁,但依然注重内容深度,同时降低了服务成本。Enterprise 和 Edu …- 3
- 0
-
为什么一定要做Agent智能体?
在进行Agent能力落地、推广的过程中,我经常被问到一个问题:为什么一定要做Agent智能体?提出这个问题的人也挺多的,其实逻辑也并不复杂:同样的业务场景,使用Agent无非就是构建了一个基于大模型按多步骤执行的流程,如果通过传统的开发方法,如硬编码(Hard Code)或者低代码的配置化平台(如一些SOP配置平台、流程编排平台等),其实也同样能实现类似Agent的流程功能。说的具体一点,Agen…- 1
- 0
-
哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新
【编者按】你是否正在投入大量资源开发基于MCP的Agent,却从未质疑过一个基本假设:MCP真的比传统函数调用更有优势吗? 2025年4月的这项开创性研究直接挑战了这一广泛接受的观点,其执行摘要明确指出:"使用MCPs并不显示出比函数调用有明显改进"。令人震惊的是,研究发现Qwen Web Search函数调用的准确率达到55.52%,实际上超过了包括Exa Sear…- 2
- 0
-
医疗大模型案例分析(一):Google Med-PaLM
Google Med-PaLM是谷歌研发的医疗领域大语言模型,基于PaLM 2架构优化,专为医学知识问答和临床决策支持设计。其核心优势在于:1)专业性强,通过海量医学文献、电子病历及权威指南训练,回答准确率接近医生水平;2)多模态能力,可解析文本、影像和结构化数据;3)安全合规,采用严格的事实核查和伦理过滤机制;4)支持60+种语言,助力全球医疗普惠。目前已在全球超过50家医疗机构进行试点或正式应…- 3
- 0
-
vLLM+Qwen-32B+Open Web UI构建本地私有大模型
目录vLLM简介ModelScope简介Docker环境配置运行vLLM容器Open Web UI部署Tokens与上下文1. vLLM简介vLLM(Vectorized Large Language Model Serving System)是由加州大学伯克利分校团队开发的高性能、易扩展的大语言模型(LLM)推理引擎,专注于通过创新的内存管理和计算优化技术实现高吞吐、低延迟、低成本的模型服务。v…- 3
- 0
-
AI产品经理思考MCP(3):MCP的未来可能
MCP 的进化之路与未来可能随着 OpenAI 等宣布支持,MCP正迅速从一个开放协议概念,加速成为行业事实上的标准,国内外厂商纷纷布局。但这仅仅是开始。当前的 MCP 实现,大多还停留在相对基础的阶段——提供标准化的接口来调用一些简单工具,比如网页内容提取、文件读写等。那么,MCP 的下一步会走向何方?未来将会在两个方向上进化:3.1 MCP Server 的智能化目前的 MCP 工…- 3
- 0
-
AI产品经理思考MCP协议(2):标准化的必要性
现在我们已经知道了标准化的可行性。但这自然引出了一个更深层的问题:标准化,真的有必要吗?我们是不是在重复造轮子?有效扩大模型的能力边界,让Agent成为可能大语言模型本身是一个大脑,它没有“手”与物理世界或复杂的数字系统直接交互。没有外部工具和标准化的接口,LLM 很大程度上只能停留在“聊天机器人”的层面。要实现更强大的 Agent 功能(即能自主规划并执行任务的 AI),模型需要与外部世界互动。…- 2
- 0
-
AI产品经理思考MCP协议(1):预见MCP——我的“万能库”与标准化之路
MCP(Model Context Protocol)火了。这个 Anthropic 提出,旨在统一大模型(LLM)调用外部数据和工具方式的开放协议,在 OpenAI 官宣支持之后正成为新的行业标准,同样也成为了热点话题。按照官方的解释:模型上下文协议(MCP)是Anthropic推出的一项开放标准,旨在标准化人工智能应用程序(聊天机器人、IDE助手或自定义代理)如何与外部工具、数据源…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
温度参数:调节AI输出的确定性与创造性平衡
大模型的“双面人格” 在日常的模型使用中,你有没有好奇过为什么同样的一个问题,大模型会给出不同的回答。就比如“海边的日出怎么样”,它可能会说“太阳缓缓沉入海平面,天空呈现出橙色和红色的渐变,光线逐渐变暗。”,也有可能说“天空像被打翻的调色盘,金色、绯红和靛紫泼洒在云层和波光粼粼的海面上,最后连害羞的太阳也悄悄躲进了大海温暖的怀抱。”在这现象的背后,隐藏着一个鲜为人知的秘密——采样技术,虽然大模型在…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
从搜索到解决方案:解锁火山 DeepSearch 的“三连跳” MCP 玩法
最近真是捅了 MCP 窝了,上周火山开了一次开发者见面会,发布了挺多东西的,主要有: 正式发布了豆包深度思考模型 Doubao-1.5-thinking-pro 和全新的视觉理解模型 Doubao-1.5-vision-pro,这个咱们上周介绍过了,视觉推理非常强大,感兴趣可以去看我的测试。 还发布了方舟 × RTC 硬件:把端侧自动唤醒与云端大模型语音能力一次打包,让玩具、家居、穿戴等设备一键升…- 1
- 0
-
一文搞懂:RAG、Agent与多模态的行业实践与未来趋势
大模型作为产业变革的核心引擎。通过RAG、Agent与多模态技术正在重塑AI与现实的交互边界。三者协同演进,不仅攻克了数据时效性、专业适配等核心挑战,更推动行业从效率革新迈向业务重构。本文将解析技术演进脉络、实战经验与未来图景,为读者提供前沿趋势的全局视角与产业升级的实践指引。关注腾讯云开发者,一手技术干货提前解锁?大模型技术正加速渗透至产业核心场景,成为驱动数字化转型的智能引擎。全球机器学习大会…- 1
- 0
-
字节扣子空间 VS 智谱AutoGLM,谁家Agent更好用?(附邀请码)
扣子空间是字节跳动推出的AI协同平台,支持复杂任务分解与工具链整合(如飞书、高德地图),擅长任务的智能规划与自动化输出。之前公众号也介绍了类似的自动规划Agent工具AutoGLM沉思,它是智谱AI推出的自主智能体,通过自然语言指令模拟人类操作浏览器,无需API即可完成跨应用任务。扣子空间与AutoGLM,这两大Agent都是师出名门,究竟谁更厉害一些呢?就让我们用生活中的衣食住行,以及工作上的需…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 0
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 0
- 0
-
Function Calling已经过时 ,MCP才是真正的大模型接口标准
前言过去一个月,全球大模型圈最热的关键词,非MCP莫属。模型侧,从Claude到Open AI,从Llama到DeepSeek、通义;应用侧,从Figma到Unreal,从Milvus到高德地图,全球超过 8,000 个主流工具和软件支持MCP,适配 MCP Server已经成为行业标准动作;可以说,模型与工具对接标准的大一统时代已经呼之欲出;而借助MCP,人人都是AI应用开发者的时代也正加速到来…- 0
- 0
-
除了MCP我们还有什么?
在 AI 时代的浪潮下,wildCard 团队在 OpenAPI 基础之上,实现了 agents.json规范,它是一个基于 OpenAPI 标准的开放规范,通过将互联网上的服务提供方(如alibaba.com、谷歌邮箱等)提供的 API 进行进一步的结构化描述,使 AI agents 可以更稳定更准确的调用API Service,是一个专门为 AI agent 设计的与网络服务提供方的交互方案。…- 0
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!