-
Qwen3发布: 4B干掉旧代 72B / Windsurf又增加新的免费计划
Qwen3以小博大—Qwen3明显发现自己当“AI界的汪峰”太久了,选了一个最平淡最没人关注的时间点发布了Qwen3。(当然这句话只限今天,只限现在,说不定今天DeepSeek R2就出来了?)这次Qwen3最大的亮点就是:以小博大,Qwen3-4B直接干掉Qwen2.5-72B-Instruct,这牛也不是我吹的,官吹如下:给人的感觉Qwen3是准备要换赛道了。一是Qwen(汪峰)一出新品发布就…- 1
- 0
-
AI Agent在如何改变企业研发
关于AI Agent在企业研发中的应用,先讲一个真实的案例研究。根据研发部门的规模,大概可以判断这是一家美国综合性的工业与科技集团,市值在千亿美元以上。研究对1, 018 位科学家进行了随机试验,对照不同的分组使用AI给工作数量和质量带来的变化。他们自己训练了一个研发用的大模型,就是一个图神经网络系统,用来生成具有指定特性的化合物的配方。有点像文生图一样,科学家想要一个什么样的化学结构,就输入指令…- 3
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
给 AI 小白的说明书:什么是 Manus?AI Agent为什么重要?
忒修斯的船板读完需要 6分钟速读仅需 2 分钟/ 给 AI 小白的说明书:什么是 Manus?AI Agent为什么重要? / 前排叠甲,目前我也没有Manus邀请码,以下是根据实际体验者的口述以及现有的资料总结,自己做了一些更方便理解的阐释。 如果有不妥当之处,欢迎指正。 1 Q:Manus AI 是什么? A:3 月 6 日 Monica.im 团队发布的一款通用型 AI Agent …- 3
- 0
-
MCP爆火背后:AI Agent的生产力时代来了吗?
产业互联网第一媒体。产业家 或许未来不会出现绝对的"统一协议",但由 MCP 引发的这场标准革命,已经为 AI 生产力爆发打开了闸门。作者|斗斗编辑|皮爷出品|产业家 2024 年 7 月,美国加州旧金山的一家办公室内,Anthropic 工程师 David Soria Parra 沮丧的看着显示屏。 当他思考如何让更多员工深入整合现有模型时,却发现因为 Claude Desk…- 2
- 0
-
AI助力!明文密码泄漏无处遁形【大模型应用实践系列二】
作者前言 随着大模型技术的崛起,为行业提供了突破安全防护新高度的可能性。在我们的探索之旅中,大模型技术已被引入到安全领域的多个垂直应用中,我们将其沉淀成一系列关于大模型应用实践的文章。作为本系列的第二篇,本文聚焦于密钥硬编码的问题,分析了传统检测策略的缺陷,并详细介绍了大模型在该场景下的优势、检测实施方案和效果。我们将继续推出更多关于大模型在研发安全、网络安全、威胁情报等领域的应用探索与总结,敬…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
大模型应用实践(一):AI助力Code Review安全漏洞发现
大模型技术的涌现,为行业不断突破安全防护的能力上限提供了新的契机。我们在将大模型技术引入安全垂类领域方面也做了很多尝试,并沉淀形成大模型应用实践系列文章。作为该系列的开篇,本文重点介绍在代码安全领域安全左移的落地实践经验。后续还将推出更多关于大模型在研发安全、网络安全、威胁情报等方面应用的探索和总结,欢迎持续关注本公众号。 隐藏在代码中的安全漏洞如同一条通往业务核心数据资产的隐秘通道,极易被黑客盯…- 1
- 0
-
安全沙箱构筑智能体防护壁垒:解码OpenAI百万悬赏背后的安全困局
——OpenAI高调拥抱竞对的MCP后,突然祭出"漏洞悬赏计划",向全球抛出百万赏金。更耐人寻味的是,AI大神Andrej Karpathy的"make it stop"推文引发全网疯传……这场看似分裂的博弈,是否正在揭开人工智能最危险的潘多拉魔盒?一、智能体时代的全新安全命题 在大模型时代,智能体及其应用形态正在发生光速进化。 从Anthro…- 2
- 0
-
金融大模型推理能力瓶颈如何突破?通义点金提出 DianJin-R1 框架,点石成金!
点击蓝字 关注我们 在金融领域,大模型的 “聪明程度” 直接关乎风险控制、合规审查等核心场景的落地效果。 但面对复杂的财务报表计算、监管规则匹配,甚至客服对话中的合规性检测,传统大模型常常 “卡壳”—— 要么算错数,要么漏掉关键规则,更有人工智能团队为了提升准确性,不得不依赖多轮对话的 “代理接力”,导致效率大打折扣。 有没有一种方法,能让大模型既 “算得准” 又 “想得全”,还能 “一步到位” …- 1
- 0
-
从MCP到超级Agent:这场AI生产力革命将淘汰谁?
大模型竞争格局生变,Agent生态进入高速扩张期。作者 | 程茜编辑 | 漠影大模型竞争格局生变:底层技术优势不再是决胜关键,围绕MCP协议与超级Agent生态的构建能力正成为释放应用价值的核心竞技场。就在上周五的Create 2025百度AI开发者大会上,百度智能云千帆大模型平台亮出了自己的最新打法:集成百度自研、第三方等上百个业界知名模型,提供全面的模型定制、精调工具链,上线企业级Agen…- 1
- 0
-
MCP实战之Agent自主决策-让 AI玩转贪吃蛇
MCP使得 AI 发展的更迅猛,让 AI 不仅能说,还长出手来,可以自己做事。 Manus到如今已小有名气,被自媒体誉为"下一个国产之光"。随后OpenManus 光速进场,阿里QwQ(这个表情真可爱 XD )也积极与 Manus 和 OpenManus 合作,强强联合。同时当前 AI 编码工具 Cursor,Cline 也都有自己的 MCP Server Marketplac…- 1
- 0
-
百度全面接入MCP生态,成为继阿里、腾讯、字节后又一国内科技巨头
当前,模型上下文协议(Model Context Protocol, MCP)已成为AI领域的关键词,这一由Anthropic公司推出的协议正以惊人的速度在全球范围内获得认可与采纳。从国际科技巨头到国内领军企业,从OpenAI的GPT系列到Claude再到Meta的Llama,AI顶流们纷纷宣布支持MCP。前不久刚刚热议的字节“扣子”接入MCP以来,国内厂商纷纷争相接入。本次在湖北举行的“Crea…- 1
- 0
-
深入解读MCP协议最新版本的4大升级【上】:传输机制与安全授权
点击上方蓝字关注我们MCP协议的最新修订版本(2025-03-26)已经在路上,尽管SDK尚未发布,但规范内容已经基本定型,前期的各种解读也在网络上陆续出现。我们将结合官方文档、Github上的PR与社区讨论等,为大家深入解读该版本中的四个较大的升级。 Streamable HTTP传输模式 OAuth2.1的授权框架 JSON-RPC批处理 增强工具注解 我们将分成两篇进行介绍。01Stream…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
一文了解:为什么大模型 Agent框架(A2A)采用 JSON-RPC 2.0?
Agent、NLP、知识图谱、信息抽取等相关的学习,分享一些教程心得与大家一起学习共勉。" data-id="Mzg3NDEyMzY0MA==" data-is_biz_ban="0" data-service_type="1" data-verify_status="0">——揭秘 AI 通信的“通用…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 0
- 0
-
拨开MCP的迷雾,聊聊LLM工具调用的本质(一):Function Calling
题图:《黄山晨雾》缘起 如果我们把大语言模型比喻为一位拥有海量知识储备的超级学者,它上知天文下知地理无所不知,它能告诉你制作佛跳墙的详细步骤,甚至能精确到香料比例和火候控制。但这位“学究”却无法亲自拧开燃气灶,也无法伸手取出砂锅为你完成这碗佛跳墙的烹饪。这就是大语言模型(LLM)一开始出现时给人的深刻印象:只能进行问答,却无法和真实世界进行任何的连接。 在2023年之前,大模型的工具调用还处于&q…- 1
- 0
-
推荐支持MCP的六大AI框架
点击蓝字关注我们 01 引言 AI智能体工具包为开发者提供了多样化的API接口,旨在为AI解决方案配备执行任务所需的工具,并确保输出结果的准确性以满足用户需求。然而,将这些工具集成至AI应用程序并进行有效管理往往面临诸多混乱。本文将通过模型上下文协议(MCP),向大家介绍为大型语言模型和智能体提供上下文的行业标准实践。 闲话少说,我们直接开始吧! 02LLM上下文规范默认情况下,如果不为LLM(大…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!