-
LLM中的Token和Embedding到底是啥?
点击蓝字关注我们 01 引言 GPT4 Turbo 的上下文长度为 128K 个Tokens。 Claude 2.1 的上下文长度为 200K 个Tokens。 那么问题就来了。。。 上文中的Tokens到底是什么? 我们来看个简单的示例:输入句子 “It’s over 9000!” 我们可以将其表示为 ["It's", "over", "…- 3
- 0
-
12项Agent智能体开发框架入门与选型丨工具对比分析与选型建议!
本文由九天老师公开课内容整理而成,根据老师的详细讲解中可以看出,当前大模型Agent开发框架生态非常丰富,主要分为以下几类: 一、Agent开发框架分类与技术深度解析1. 低代码框架:敏捷开发的入口 代表工具:Coze(字节跳动)、dify(国内开源)、LangFlow(LangChain生态) 技术特点: 可视化编排:支持拖拽式工作流设计(如Coze的节点式编辑器),内置预置模板(客…- 3
- 0
-
OpenAI姚顺雨:AI 的后半场,将从解决问题转向定义问题
AI 的分数在榜单上节节攀升,却未必真正转化为现实世界的效率提升与广泛效用。 2025 年的焦点,不再是“模型能考几分”,而是“能做多少事”。 这也日渐成为共识。 就在 o3 新模型即将发布之际,OpenAI 研究员、ReAct 框架提出者姚顺雨发表了文章《The Second Half》,从底层范式的角度,深刻反思了现有测评方式的局限。 (原文链接:https://ysymyth.github.…- 1
- 0
-
揭秘大模型的魔法:从零开始你的AI冒险
你好,我是写代码的中年人!你有没有想过,那些能写诗、答题、甚至帮你 debug 代码的 AI 到底是怎么回事? 它们其实是“大型语言模型”(Large Language Models,简称 LLM)的产物。今天,我要带你踏上一场从零开始的 AI 冒险,揭开大模型的神秘面纱,看看它们是怎么从一堆代码和数据变成“聪明大脑”的。 这篇文章不仅会让你get到大模型的硬核原理,还会点燃你自己动手打造一个的热…- 2
- 0
-
为DeepSeek提供“联网搜索”功能的这家公司,把价格打到了Bing的1/3
腾讯科技《AI未来指北》特约作者 晓静编辑 郑可君 在当下所有通用AI对话产品的界面上,"联网搜索"已成为标配功能。 这个看似简单的按钮背后,隐藏着大模型连接现实世界的密钥——没有实时信息获取能力,再强大的AI模型也只能是知识停留在训练截止日的"数字化石"。 鲜为人知的是,目前国内超过60%的AI应用,包括DeepSeek的C端应用,联网搜索能力是通过集成博…- 1
- 0
-
详解 MCP 核心架构
MCP 协议核心架构 MCP 协议遵循互联网常见的 C / S 架构,即客户端(Client)- 服务器(Server)架构。 MCP 协议引入了主机(Host)的概念,组成了基本的主机(Host)- 客户端(Client)- 服务器(Server)架构。 接下来,我们详细解析架构中的每一部分及其功能。 1. 主机MCP 协议里的主机就是大模型应用,类似 Claude 桌面客户端、Cursor 编…- 1
- 0
-
从模型原理到代码实践,深入浅出上手Transformer,叩开大模型世界的大门
序言作为非算法同学,最近被Cursor、DeepSeek搞的有点焦虑,同时也非常好奇这里的原理,所以花了大量业余时间自学了Transformer并做了完整的工程实践。希望自己心得和理解可以帮到大家~如有错漏,欢迎指出~本文都会以用Transformer做中英翻译的具体实例进行阐述。 从宏观逻辑看Transformer让我们先从宏观角度解释一下这个架构。首先 Transformer也是一个…- 3
- 0
-
Reranker模型应用场景、技术实现与性能对比
一、主流Reranker模型分类与特点1. 商业在线模型(如Cohere Rerank、Jina Reranker)核心场景:适用于多语言搜索、快速集成且无需本地部署的场景(如电商搜索、跨语言问答)。技术架构:Cohere基于API调用,支持长上下文和混合检索(向量+关键词);Jina Reranker v2采用交叉编码器架构,推理速度比BGE-Reranker快15倍,支持函数调用和代…- 4
- 0
-
大模型应用开发入门分享
阿里妹导读本文是作者给兄弟团队做的大模型入门分享,介绍了基本大模型模式,分享出来希望帮助更多的同学参与到LLM应用建设。前言大模型作为新兴领域,不断地冒出来新的专有术语和新的概念,让大家觉得很神秘,捉摸不透。但是大部分复杂性的背后都会有一个极其简单便于理解的模型,本次分享最主要就是大模型的基本范式,通过范式将这些神秘感去除。 大模型虽然很厉害,很神秘,但作为使用人员,门槛是非常非常非常低的。 模型…- 3
- 0
-
让大模型可以轻松读取代码仓库:MCP-Repo2LLM
MCP-Repo2LLM下载地址https://github.com/crisschan/mcp-repo2llm概览mcp-repo2llm 是一个 MCP 服务器,专门将代码仓库转化为适合大语言模型(LLM)处理的高效格式。它是一个强大的工具,能够无缝连接传统代码库与现代 AI 语言模型,帮助开发者更好地利用人工智能技术。这款工具是在 RepoToTextForLLMs 的…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
Altman 正在悄悄打造“AI版X”?ChatGPT社交功能曝光
ChatGPT,不满足只做你的 AI 工具,它还想成为你刷信息流的地方。 OpenAI 内测社交信息流功能,“yeet”发布内容,或将改写我们使用 AI 的方式。一边是热度爆棚的图片生成功能,一边是持久记忆的新能力,这次的野心不小。▍发生了什么?据多位知情人士爆料,OpenAI 内部正在测试一项类似 X(原 Twitter)的社交信息流功能,原型已经上线,用户可以像发帖一样在 ChatGPT 里发…- 3
- 0
-
微软AI核心战略解密:让OpenAI冲锋陷阵当炮灰,采用跟随者策略坐收技术红利
微软人工智能首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)近日在电视采访中阐述了"跟随者策略"的经济效益。这位曾共同创立DeepMind(2014年被谷歌收购)、后短暂担任Inflection AI CEO的技术领袖,现为微软制定AI发展路线。图 | 穆斯塔法·苏莱曼(Mustafa Suleyman)(来源:《麻省理工科技评论》) 在CNBC上周五播出的专访中…- 3
- 0
-
Claude 推出高级 Research 功能,并深度集成 Google Workspace
就在刚刚,Claude 的母公司 Anthropic 宣布对其 AI 助手 Claude 进行重要升级,旨在进一步增强其作为高效协作工具的实用性。本次更新引入了两项新功能,Research 和 Google Workspace 深度集成。 不过,Research 功能目前处于早期 Beta 测试阶段,面向美国、日本、巴西地区的 Max、Team 和 Enterprise 付费计划用户开放,用户可在…- 3
- 0
-
智能体工作流与设计模式解析
过去两年中基础模型快速发展,从大语言模型到多模态模型、再到推理模型,大模型的能力不断提升。基于大模型的智能体也在不断发展,智能体可以更好与业务场景结合,发挥出大模型的价值。本文探讨智能体工作流并分析智能体工作流的常见设计模式。 01 为什么需要智能体工作流? 目前大多数人都是直接使用大模型,即大模型根据提示生成最终输出,而且不做任何修改。这好比是要求人从头到尾直接写出一篇完整的文章,难度无疑是非常…- 4
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
GPT-4.1一手实测,实力绝对被低估了
家人们,OpenAI 的这波操作我是真的蚌埠住了。 前有听起来很厉害的 GPT-4.5,今有 GPT-4.1 闪亮登场,以 API 的形式。 OpenAI 今天凌晨开直播,发布了 4.1 系列,包括三款模型,分别是—— GPT-4.1 (旗舰版) GPT-4.1-mini (轻量版,主打性价比) GPT-4.1-nano (微型版,OpenAI 史上最便宜) 还记得定义了大模型时代的 GPT-4 …- 3
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
-
这些你不知道的 OpenAI 4.1 秘密
谁是性价比之王 最有性质比的模型是 GPT4.1 Nano? 从数值计算来看,每单位智力表现而言,GPT4.1 Nano性质比最高,只要 0.02 元。 最夸张的是 GPT-4.5,每分智力是 1.55 美元,是 GPT4.1 的 77 倍。 如果你追求更高智能,更低一点的价格,最优选择是:o3-min。 在 OpenAI 的 API 中 o3-min 是最佳投资,比GPT-4.1 更便宜(价…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
前沿导读 | 大模型智能体驱动的社会仿真
社会模拟(Social Simulation)通过模拟仿真真实世界的系统来模仿人类行为和特性,为社会科学研究提供了理解在现实生活难以实际观察的现象的窗口工具[1]。大语言模型(Large Language Model,以下简称为LLM)的强势兴起为社会模拟注入了新活力,大量相关研究如雨后春笋般出现。LLM究竟能否应用于社会科学研究,有哪些潜在问题,以及有哪些可能解决方案?本文将围绕这三个问题进行探…- 1
- 0
-
Gemini 2.5 Pro 暴击 OpenAI,性能猛兽不翻车,全球顶尖实至名归
大家好,这里是人工智能最前沿。今天谷歌憋出一个大招,这招让 OpenAI 直接懵圈!早上刷新闻,看到网友炸锅:“Gemini 2.5 Pro 上线,我怀疑 OpenAI 得回去重修 AI 课!”这可一点不夸张谷歌 Deep Research(深度研究)最新升级,搭载全球顶尖的 Gemini 2.5 Pro 模型,5分钟甩出46页论文。19.99美元/月的订阅价格,直接把 OpenAI DR 的20…- 2
- 0
-
OpenAI 再放大招!100 万超长上下文的GPT-4.1 横空出世
。?OpenAI 再放大招!100 万超长上下文的GPT-4.1 横空出世今天,OpenAI 宣布推出GPT-4.1 系列模型,标志着人工智能再次迈入一个崭新维度。如果说 GPT-4 是一位聪明的助手,那 GPT-4.1 就是你梦想中的超级合伙人:✅ 代码能力猛增至业内领先 ✅ 指令理解接近人类逻辑思维 ✅ 上下文处理直接拉满百万Token ✅ 小模型Mini/Nano又快又便宜,性能还反超前代?…- 1
- 0
-
5W字长文 Agent多智能体探秘:架构设计、交互模式与应用实践深度剖析
一、引言在人工智能领域,代理是一类借助大语言模型(LLM)来决定应用程序控制流的系统。随着开发的推进,这类系统往往会变得愈发复杂,给管理和扩展带来诸多难题。比如,你可能会遭遇以下状况:工具选择困境:代理可调用的工具繁多,导致在决策下一步使用哪个工具时表现欠佳。上下文管理难题:上下文信息过于繁杂,单个代理难以有效追踪和处理。专业领域需求多样:系统内需要涵盖多个专业领域,像规划师、研究员、数学专家等角…- 3
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!