-
OpenAI:发布 Codex 与收购 Windsurf
OpenAI 发布了 Codex——一个基于终端的 AI 编程 Agent,大多数人没法儿用,即使你已经掌握了 Cursor/Windsurf。收购 Windsurf 据说是一个谣传,但不能说 OpenAI 不想。TA 很想,但是也要面子。OpenAI 是很矛盾的,自己作为一个价值的创造者,但价值却被别人攫走了——多郁闷。AI Coding 是非常重要的,甚至是通向 AGI 最确定的路…- 4
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
布局“记忆”:AI厂商暗战个性化赛道
北京时间2025年4月17日,OpenAI推出了功能强大的推理模型o3和轻量级但高效的o4-mini 。 值得注意的是,此次模型发布与ChatGPT记忆和搜索策略的更新同步进行,旨在利用用户对话历史,实现更个性化和实用的搜索查询 。 这种同步发布并非偶然,它体现了OpenAI致力于通过结合先进的推理能力和个性化的上下文理解来提升整体用户体验的战略意图 。 OpenAI此举的背景是,大型语言模型…- 3
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
一口气讲清楚:LLM、MCP、EMB
在很多介绍AI的文章中,会频繁出现一些名词,比如LLM、MCP、EMB。这些专业术语是什么意思,有什么作用,背后的技术原理又是什么,对普通人来说有点难以理解。 这篇文章,我会尽量用通俗易懂的语言,讲清楚这些名词到底是什么意思,作用是什么,帮助大家更好地理解AI。 一、LLM:大型语言模型 LLM的全称为(Large Language Model),即大型语言模型。它指的是一种基于深度学习技术的人工…- 1
- 0
-
不是 GPT-5,却可能更关键的一步
会聊天的 AI,我们已经见多了。能干实事的 AI,才刚刚开始登场。 昨晚,OpenAI 一口气发布两款新模型:o3 和 o4-mini,没有等 GPT-5,没有开发布会,更没有宣传大模型参数。它们的重点不是“更强”,而是“更能干”。 这次更新的信号很明确:AI,不再只是回答你,而是能理解问题 → 分析路径 → 自选工具 → 自己动手。AI 正在从“陪聊型选手”,转向“动手型搭子”。 GPT-5 没…- 1
- 0
-
AIGC: 性能透视黑科技:一键解析,图文全呈现
性能分析工具代码解析报告 背景 • 上次实现了 通过编写脚本的功能来测试 大模型脚本,基于前脚本的完善,读取Excel的数据来生成分析图表 • 该工具主要实现了性能数据的加载、分析、可视化和报告生成等核心功能 • 核心目标是帮助评估和分析大语言模型在不同测试场景下的性能表现 第1部分:工具架构设计 核心类设计 采用面向对象方式,通过 性能分析脚本 类封装所有功能 实现数据加载、指标计算、可视化…- 3
- 0
-
MCP vs Agent2Agent – 用最直观的图表 + 最简单的概念解释读懂这两个重要的智能体协议
MCP(Model Context Protocol):让 AI 成为你的“超级大脑” MCP 是由 Anthropic 开发的开放标准,全称为“模型上下文协议”(Model Context Protocol)。它的主要目的是将 AI 助手与外部数据源(如内容存储库、业务工具和开发环境)连接起来,帮助 AI 模型生成更高质量、更相关的响应。MCP 通过提供通用、开放的接口标准,取代了以往分散的集成…- 1
- 0
-
OpenAI深夜发布满血o3和o4mini: 两个没想到
OpenAI刚刚宣布推出其最新的o系列模型:o3和o4-mini,与以往模型不同,o3和o4-mini被设计为真正的AI系统,模型甚至能连续调用超过600次工具来完成一项艰巨任务,它们在理解和导航大型代码库(比如OpenAI自己的代码库)方面,超越了人类工程师,极大地提高了开发效率 这次发布会我有两个没想到:一是没想到o系列模型变成了一个融合的模型,另外一个是引入图像推理“Thinking w…- 2
- 0
-
一个使用MCP最简单的方式
之前写过几篇文章分享过 MCP,最近一直在研究将 MCP 用于Agent开发中。目前支持 MCP 的客户端如 Windsurf、Cursor,都需要做一些稍微复杂的配置,申请一堆API Key,导致好多朋友都卡在了这一步。不过现在已经有一些类似一键部署使用的平台,可以让你快速上手,体验MCP,比如:魔搭社区里面有个“实验场”,点进去后,平台预制了3个MCP,可以直接体验以“高德MCP”为例,用它规…- 4
- 0
-
100行代码讲透MCP原理
阿里妹导读本文通过100行代码看到MCP的核心原理并不复杂,但它的设计巧妙深入理解使我们能够超越简单的SDK使用,创建更强大、更灵活的AI应用集成方案。当我开始研究 Model Context Protocol (MCP)接入的时候,发现一个问题,绝大多数的文档都是以 @mcp.tool 这样注解的方式注入。但如果当前有很多异步的业务流程,接入会非常麻烦,它并没有一个代码实体的存在可以加注解。难道…- 3
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
微软掀桌,干翻Cursor。。。
关注飞总聊IT,了解IT行业的方方面面。 最近微软对Cursor出手了,直接禁了Cursor用一些插件,让Cursor的用户非常难受。 这事情说起来,要从微软这些年做的事情说起。 微软从一个对开源无比讨厌,让开源社区无比痛恨的公司,到对开源社区有巨大影响力的公司,也就几年时间。 这些年里,微软开源了Visual Studio Code,收购了GitHub,为Visual Studiocode提供了…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
混合专家系统(MoE)图解指南
相关文章 大模型量化技术(Quantization)可视化指南 一文了解思维链(Chain-of-Thought, CoT) 大模型时代,智能体崛起:从技术解构到工程落地的全栈指南 ——《大模型技术30讲》 什么是大模型的幻觉?用户如何应对呢? 万字长文深入浅出文本嵌入(Text-Embedding)技术 解密大语言模型中的 Tokens 原文:https://newsletter.maarten…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
豆包,让有独立显卡的电脑都能部署本地大模型,语料库就是电脑里的文件
课件老师今天出差了一天,室友说自己睡得挺晚,在床上躺着玩一会儿手机,不一会儿,就鼾声如雷。今天真的很累,但依然坚持准备写完公众号再休息,但打开电脑,开始寻找写作素材,内容写好了,让DS生成封面提示词。打开豆包,发现它今天又更新了一个功能。本地文件问答系统给出了一行红色的小字:推荐系统配置:8GB及以上显存的 RTX GPU,i5处理器,16G内存。当前的系统配置过低,无法使用该功能很遗憾,课件老师…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
-
Claude3.7:六大价值场景与实践原则
在这次 AI 应用研讨会中,深入探讨了 Claude 大模型的应用场景和实用原则。 image 六大高价值应用场景 image 1. 超长文本处理与信息提取 具体场景: 会议转录稿处理:一位参与者提到,他将长达数万字的线下课程转录稿输入 Claude,让 AI 提取关键内容并生成教程。 将 AI 工作流的五种模型和示例从文档中提取,重新组织成完整教程。 对客户会议的录音转录进行分析,提取关键痛点和…- 1
- 0
-
OpenAI姚顺雨:欢迎来到AI下半场!
作者:Shunyu yao (OpenAI)原文:https://ysymyth.github.io/The-Second-Half>> 加入青稞AI技术交流群,与青年AI研究员/开发者交流最新AI技术 摘要:我们正处于人工智能的中场。 数十年来,人工智能主要致力于开发新的训练方法和模型。这一策略成效显著:从国际象棋和围棋击败世界冠军,到在 SAT 和律师资格考试中超越大多…- 1
- 0
-
为了让大魔听懂 MCP是什么,我写了MCP的前世今生
?MCP的本质是为了让模型“看得见世界,动得了手脚”。之前假期我们用MCP做了聚会规划,我觉得体验还蛮不错的,我去和大魔、相柳聊对MCP的看法;洋洋洒洒的说了一堆之后,大魔问我:什么是MCP?有什么用,说点小白能听懂的。 后边也有几个小伙伴问我类似的问题,并且有的上手用了之后也会很困惑,这个MCP到底有点啥用,这些功能看起来不用MCP也能搞定呀。 因此写了这篇文章,希望跟大家聊聊MCP是怎么发展出…- 1
- 0
-
o3来了,非常出色!
速览 1. 代理性能强大o3可以自动串联使用多种工具(如网络搜索、代码解释器、提醒功能),能独立完成复杂任务,设置后可在短时间内返回全面答案。 2. 速度惊人测试表明o3的响应速度优于Anthropic的3.7 Sonnet和Google的Gemini 2.5 Pro等竞争模型,提供流畅的用户体验。 3. 推理能力出色能轻松解决专家级数独等复杂问题,显示出卓越的逻辑推理能力。 4. 突破ChatG…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
LLM中的Token和Embedding到底是啥?
点击蓝字关注我们 01 引言 GPT4 Turbo 的上下文长度为 128K 个Tokens。 Claude 2.1 的上下文长度为 200K 个Tokens。 那么问题就来了。。。 上文中的Tokens到底是什么? 我们来看个简单的示例:输入句子 “It’s over 9000!” 我们可以将其表示为 ["It's", "over", "…- 3
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!