-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 0
- 0
-
通俗易懂的梳理MCP的工作流程(以高德地图MCP为例)
这两天专门研究了一下 MCP(Model Component Protocol),算是把整个流程梳理的差不多了。首先,我们需要了解 MCP 旨在解决什么问题。随着大型语言模型(LLM)能力的增强,它们不仅仅能生成文本,还能通过调用外部工具(APIs、函数等)来完成更复杂的任务,这通常被称为“工具调用” (Tool Use) 或“函数调用” (Function Calling)。然而,不同…- 0
- 0
-
一文说明 Function Calling、MCP、A2A 的区别!
随着 AI 技术的高速发展,各大科技巨头纷纷推出了自己的生态标准来打通大语言模型与外部世界的连接。其中最具代表性的三种机制分别是:OpenAI 推出的 Function CallingAnthropic 提出的 MCP(Model Context Protocol)Google 推出的 A2A(Agent-to-Agent 协议)这三者都在尝试解决一个核心问题:让大模…- 0
- 0
-
MCP很好,但它不是万灵药|一文读懂 MCP
当下AI领域最炙手可热的概念,莫过于MCP&is_pull_news=0" style="-webkit-tap-highlight-color: transparent;">MCP。MCP 指的是Model Context Protocol(模型上下文协议)。令人意外的是,一个协议系统的热度,甚至盖过了OpenAI发布的最新模型,成为行业讨论的焦点。随…- 0
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
旅行规划太难做?5 分钟构建智能Agent,集成地图 MCP Server
MCP 是 Anthropic 公司提出的开源协议,旨在通过标准化交互方式解决AI大模型与外部数据源、工具的集成难题,阿里云百炼上线了业界首个的全生命周期 MCP 服务,大幅降低了 Agent 的开发门槛。本文介绍基于百炼平台"模型即选即用 + MCP 服务"模式,5 分钟即可完成搭建。 MCP 让 AI 应用开发产生“革命性突破”传统 AI 应用的“孤立困境”当 AI 应用仅…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
10万元跑满血版DeepSeek,这家公司掀了一体机市场的桌子|甲子光年
DeepSeek一体机,能满足的不止再是情绪价值了。 作者|王艺 编辑|王博 「甲子光年」今日获悉,行云集成电路推出了全新的一体机产品“褐蚁”,仅需10万元就可以跑满血版DeepSeek R1/V3大模型(下文简称“满血版DS”),并且对话速度达到了20token/s。这意味着一家中型企业仅需一辆家用轿车的成本,即可部署接近实验室级的大模型生产力工具。 “褐蚁”一体机有三款不同的配置,分别是主打极…- 4
- 0
-
谷歌大神首次揭秘Gemini预训练秘密:52页PPT干货,推理成本成最重要因素
谷歌凭借Gemini 2.5 pro已经彻底翻身,经过这段时间各路大神的深度使用和评测,基本上已经锁定大模型top1,除了优秀的写作能力以外,编程能力更是打遍无敌手,最重要的Gemini一直以来基本是免费给所有人用,连API都免费 今天有幸看到了一份来自Google内部的技术分享,主讲人是Vlad Feinberg,谷歌Gemini Flash Pretraining的负责人。这份PPT信息量…- 3
- 0
-
一文说清:什么是算法备案、大模型备案、大模型登记 2.0
Q1算法备案、大模型备案和大模型登记的区别Q2已经进行了算法备案,还需要再进行大模型备案吗?如果产品已经完成算法备案,但属于具备舆论属性或者社会动员能力的生成式人工智能服务(例如to C提供AI服务),则仍然需要做大模型上线备案。如果产品属于通过API接口或其他方式直接调用已备案大模型能力,可根据各地网信办的通知依法进行大模型登记,在省互联网信息办公室同意并发放上线编号后,可直接上线提供服务。Q3…- 3
- 0
-
打起来了!MCP VS A2A,谁才是Agent的未来事实标准?
目录1 MCP2 A2A3 A2A & MCP谷歌在MCP协议快速发展之际推出A2A协议,定位为智能体Agent间的协调协议。本文通过具体的案例介绍了MCP和A2A的细节,通过同一案例在MCP与A2A两种模式下的实现差异,认为A2A模式下的 Agent 能够通过与大模型深度交互,交付更具价值的功能特性,从而更有效地吸引开发者群体。此外,A2A架构赋予每个 Ag…- 2
- 0
-
Google 的 A2A 与 MCP 该如何选择?还是两种都用?
01引言:协作式人工智能的曙光想想你是如何与同事合作完成那些复杂项目的 —— 你们互相分享信息、提出问题,并整合彼此的专业知识。现在,请想象这些 AI Agent 也能做同样的事情,它们不再各自为战,而是通过协同工作来解决问题。这正是 Google 于 2025 年 4 月 9 日发布的 Agent-to-Agent(A2A)协议[1]所追求的目标。该协议将孤军奋战的 AI Agent 转化为团队…- 3
- 0
-
精华好文!用LLM评估LLM,真的靠谱吗?技术上如何实现?
最近,“用LLM当裁判”(LLM as a Judge)这个说法越来越火了。我从事LLM评估工作,对这方面比较关注,不过,这一概念的流行确实有其原因。和人工评估相比,用LLM当裁判来评估LLM,优势明显,人工评估速度慢、成本高,还特别耗费人力。但LLM裁判也有自己的短板,如果盲目使用,只会让你焦头烂额。今天这篇文章,我就把自己目前了解到的关于用LLM裁判评估LLM(系统)的知识全分享给大家,内容包…- 3
- 0
-
大模型是否有必要本地化部署?
一、大模型本地化部署 前段时间,有位朋友询问DeepSeek本地化部署是否有必要。这个问题看似简单,实际上并不好回答。个人认为,如果对数据安全有很强的要求,那么是需要的;再有就是对准确率要求非常高,需要对模型进行微调,在数据不能流出的情况下必须私有化部署。 如果对数据安全要求没有特殊要求,那么还是建议不要私有化部署,而是使用公有云的大模型服务。 …- 4
- 0
-
MCP:AI时代的“万能插座”,大厂竞逐的焦点
在 AI 技术迅猛发展的当下,模型上下文协议(MCP)正成为科技巨头们争相布局的新焦点。这一由 Anthropic 于 2024 年 11 月提出的标准化交互协议,旨在为大模型及客户端提供标准化接口,使其能够高效、安全地调用外部数据源、工具,从而突破大模型的静态能力限制,为 Agent 提供技术底座和生态支持。随着百度、阿里、腾讯、字节跳动等大厂的纷纷入局,MCP 的生态发展正呈现出蓬勃之势,它不…- 5
- 0
-
一站式AI应用开发平台 Firebase Studio
什么是 Firebase Studio?Firebase Studio 是 Google 推出的全新一代 AI 开发平台,集成了 Project IDX、Genkit 和 Gemini 等前沿技术,为开发者提供从产品原型、代码生成到部署上线的全流程支持。它不仅支持自然语言生成应用,还具备强大的 AI 助手、实时协作能力以及无缝的 Firebase 集成,致力于打造一个高效、智能、协作的一站式 AI…- 4
- 0
-
分而治之:全面解析分布式分离 Inference 系统
一、背景大模型,如大语言模型(LLM)和大型多模态模型(LMM),正在改变自然语言处理和多模态任务的格局。然而,这些模型的 Inference 过程面临大计算、大内存、高时延等诸多挑战。为了应对这些问题,分布式分离 Inference 系统应运而生,旨在通过将模型的不同部分分开处理来优化性能。大体来说,大模型 Inference 经历了从单体到分布式,再到分离式的演进,并在继续发展中:单体 Inf…- 4
- 0
-
AI 落地难?MCP 或许就是那把「关键钥匙」!
你是否也觉得,现在的大语言模型(LLM)虽然聪明,但在真正融入我们日常工作流时,总感觉还差那么点意思?它们就像知识渊博的“通才”,却难以触及你私有的数据宝库,也无法轻松搞定那些需要“动手”的具体操作。别急,可能我们正在迎来破局点!今天,我们就来聊聊一个近来热度飙升的开放协议——MCP(Model Context Protocol,模型上下文协议)。这个由 Anthropic 在 202…- 1
- 0
-
企业级大模型推理和部署平台 2025
大模型推理是当前 AI 技术栈的核心,其核心原理基于自回归体系和注意力机制,通过嵌入、解码和采样三步生成文本。然而,随着模型规模的增大,计算资源消耗、显存管理和推理效率成为主要挑战。一. LLM 推理概述整个大模型推理过程,可以简化为三个主要步骤:Embedding(嵌入):首先,输入的文本会被转换为向量表示,即嵌入过程。这一步将文本中的词汇或短语映射为高维向量,以便模型能够处…- 2
- 0
-
qwen3 系列模型发布,深度思考,快速响应
qwen3概览1. 分为密集模型架构 (0.6B/1.7B/4B/8B/14B/32B) 和混合专家架构 (30B-A3B/235B-A22B)2. 混合思维模式:支持开启/关闭推理能力即思考模式和非思考模式,使用户能够根据具体任务控制模型进行思考的程度3. 多语言能力:119 种语言和方言4. 增强 Agent 能力:优化 Qwen3 模型的 Agent 和 代码能力,同时加强对 MCP 的支持…- 3
- 0
-
Qwen3发布: 4B干掉旧代 72B / Windsurf又增加新的免费计划
Qwen3以小博大—Qwen3明显发现自己当“AI界的汪峰”太久了,选了一个最平淡最没人关注的时间点发布了Qwen3。(当然这句话只限今天,只限现在,说不定今天DeepSeek R2就出来了?)这次Qwen3最大的亮点就是:以小博大,Qwen3-4B直接干掉Qwen2.5-72B-Instruct,这牛也不是我吹的,官吹如下:给人的感觉Qwen3是准备要换赛道了。一是Qwen(汪峰)一出新品发布就…- 1
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!