-
谷歌随OpenAI强势入局,劈柴4天闪电部署Gemini+MCP!
新智元报道 编辑:NJ【新智元导读】3月31日,谷歌CEO劈柴哥抛出一句「To MCP or not to MCP」,引发热议。4天后,Gemini更新API文档,正式宣布接入MCP。至此,OpenAI、谷歌、Anthropic等AI巨头全部投入「Agent协议」MCP的怀抱。3月31日,谷歌CEO Sundar Pichai(劈柴哥)发出灵魂一问:To MCP or not to MCP…- 3
- 0
-
AutoGLM 发布之后,如今国产大模型终于长出了手。
本文将深入讨论:大模型深度挖掘资料的产品方案,以及作为用户,怎样用好大模型的深度挖掘能力,满足日常工作使用需求。全文阅读预计 12 分钟。主要内容:1、介绍 AI 深度研究产品的主要瓶颈 2、大模型具备执行工具能力(MCP)意味着什么 3、怎样用好大模型深度研究的能力在过去的两年里,ChatBot 是最常见的形态,在写作、常规问答,资料总结等越来越多的方面实实在在帮助到我们。 但大模型在专业领域比…- 3
- 0
-
Llama4:最多2万亿参数,原生FP8的教师模型,不支持FP8的智算中心再次被暴击!!!
3个基本结论:1.llama 4 跟deepseek一样,采用原生FP8训练,不支持FP8的算力中心再次被暴击,更加坚信了我们认为下一代算力中心是FP4的技术判断《下一代智算中心,一定要选FP8、FP6、FP4的AI芯》,还是那个结论:不支持FP8的算力中心已经淘汰,转入残值处理阶段!《智算中心不会过剩,但会过时!!!》 2.llama4 最高2万亿参数的教师模型再次领先全球,教师模型竞争加速sc…- 3
- 0
-
咱QwQ 32B就够了?Llama4还要2000B?!
首先结论:参数越大,模型能力越强,这个结论持续有用,scaling law 并没有失效,堆参数依然可以提高模型能力。 在AI领域,模型参数的“军备竞赛”似乎永无止境,你追我赶,马上会有,R2、GPT-5、Qwen3 、文心-5卷起来,重点卷多模态,多模态计算量更大,低精度混训更加重要... 关于选择什么模型和多少参数,现在越来越有意思,我们认为moe适合聊天类场景,微调还是…- 3
- 0
-
阿里巴巴MNN在端侧大模型高效部署上的技术创新与实践
导读 在人工智能飞速发展的时代,端侧大模型因其在隐私保护、个性化服务和成本控制等方面的优势,受到了越来越多的关注。随着端侧设备(如手机、PC、平板等)的算力、内存和磁盘空间不断提升,将大模型部署到移动端已从理想逐渐变为现实。AI 手机、AI PC,甚至 AI 汽车等创新产品正逐步进入大众视野,成为技术发展的新趋势。 作为专注于端侧 AI 推理的引擎,MNN 近期在大模型的端侧部署领域进行了深入的探…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
VSCode发布Agent+MCP,Cursor劲敌又回来了?
近日,微软旗下的 Visual Studio Code(简称VS Code)发布了3月更新(1.99版本),正式将 Agent Mode 功能引入稳定版,这一消息引起了开发者社区的广泛关注。 重磅功能:Agent Mode 正式登陆 Agent Mode 是什么?简单来说,它是 VS Code 内置的智能助手模式,能让 AI 自动执行各种编程任务。之前,这项功能只在预览版中提供,现在已正式进入稳定…- 5
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
Llama 4 发布:我看到了 DeepSeek 的影子
Llama 4 发布了。 https://huggingface.co/meta-llama Llama 4 的三款模型 但这次,它没有高调宣称参数量“遥遥领先“,而是通过三款模型来重新布局: • Scout:109B 参数,17B 激活,16 专家 MoE,可部署在单张 H100 上,10M token 长上下文,适用于文档分析、多轮对话、代码等任务 • Maverick:400B 参数…- 2
- 0
-
深入解析Agentic AI架构:如何打造自主决策的智能体?
在人工智能的浪潮中,Agentic AI架构正悄然崛起,成为推动智能体(AI Agents)实现自主决策和复杂任务执行的核心技术框架。与传统的AI模型不同,Agentic AI架构更像是一个“智能大脑”,能够模仿人类的认知能力,自主感知环境、制定计划、执行决策,并在动态变化的环境中不断学习和进化。 今天,我们将深入探讨Agentic AI架构的核心组件、工作原理以及它在各行业中的广泛应用。无论你…- 1
- 0
-
大语言模型是如何推理的?
不管是写点日常文案,还是解决复杂问题,大模型都展现出了让人惊叹的实力。 但话说回来,当我们说到“推理”这个词时,它真的像人一样,会自己“思考”、有逻辑地推导出答案吗? 什么是推理Reasoning? 要讨论推理,我们首先要定义它的含义,并达成共识。推理的基本过程可以概括为:你接收到某些信息,经过思考后得出结论。 举个例子: “标普 500 指数在三个月内下跌了 15%。” 当你听到这条信息时,…- 3
- 0
-
一文读懂英伟达世界模型平台 Cosmos
在当今人工智能飞速发展的时代,新的技术和平台如雨后春笋般不断涌现。英伟达作为科技领域的巨头,于 2025 年1月份的CES上重磅推出了 Cosmos 世界基础模型平台,一经亮相便吸引了全球的目光,在人工智能领域掀起了新的波澜。 || Cosmos 平台的诞生背景 随着人工智能从理论研究逐步走向实际应用,物理 AI 系统,如机器人和自动驾驶汽车等,面临着巨大的发展挑战。训练这些物理 AI 系统需要…- 2
- 0
-
一起聊聊Nvidia Hopper新特性之WGMMA
本文翻译自外网资料,译者:企鹅? 原文链接见文末 上次为大家带来了Hopper上的新特性之TMA,这次我们来一起看看Hopper上的新矩阵乘法操作WGMMA。 引子 如果一个 CUDA 教程没有关于通用矩阵乘法(GEMM)的章节,那么就是不完整的。可以说,GEMM 是现代 GPU 上最重要的例程,它在神经网络、大型语言模型和许多图形应用程序中构成了大部分计算。尽管 GEMM 无处不在,但它以难以有…- 1
- 0
-
又刷屏了,昆仑万维奇袭音乐大模型
文 | 阑夕出道即巅峰,又一款纯正中国血统的大模型,跑出了SOTA(当前最佳水平)的分数。昆仑万维发布的音乐大模型Mureka O1,在音乐生成品质的评测上,全面超越作为行业领头羊的Suno——相当于ChatGPT在文本大模型的优势地位——成了又一个空降而来的「新王」。当然,和普通大模型通常通过做题的准确率来对比能力差异不同,音乐内容的好坏缺少完全客观的评判标准,所以昆仑万维也做到了力所能及的公平…- 2
- 0
-
揭秘AI内部机制:AI理解的重大突破
Anthropic本周连发两篇相互关联的大模型内部机制研究报告【文献1、文献2】:构建了AI“显微镜”,并用它追踪了大模型思维,这是继去年揭秘大模型黑盒之后的重大进展。【文献1】构建了替代模型(replacement model)作为AI“显微镜”通过这个替代模型,亦步亦趋的捕获针对每一个提示语的归因图(attribution graph) 归因图用于描述模型在特定输入提示下生成目标词元输出时所经…- 3
- 0
-
64张图,看懂AI Agent的核心技术与未来
嘿,大家好!这里是一个专注于前沿AI和智能体的频道~ 原文:A Visual Guide to LLM Agents 作者:Maarten Grootendorst 翻译:猕猴桃 & Claude Sonnet 3.7 LLM Agents指南 LLM Agents正变得越来越普及,似乎正在取代我们熟悉的对话式LLM。但是Agents本身其实并不容易,它往往需要多个组件协同工作。 img在…- 1
- 0
-
比 R1 快 8 倍、价格仅 3%,智谱新推理模型来袭,能让免费智能体自己赚钱!张鹏:Agent 也有 Scaling Law
作者 | 华卫、褚杏娟 3 月获了两笔上亿巨额融资的智谱, 现在来“交作业”了。 刚刚,智谱推出最新的 AutoGLM 沉思模型,不仅具备深度研究能力(Deep Research),还能实现实际操作(Operator)。并且,这个会“边想边干”的智能体还能自己接单赚到钱。 据介绍,14 天前,智谱针对 AutoGLM 沉思小范围开展了一项秘密测试。其注册了一个专注于做生活知识科普的小红书账号…- 3
- 0
-
Cherry Studio+MCP Server验证-本地文件系统+访问本地数据库配置
Hello,大家好,我是人月聊IT。今天接着记录下对Cherry Studio工具来配置MCP Server的简单验证。对于Cherry Studio我在前面专门写过文章说明。简单理解它其实是一个可以适配底层多种大模型的外壳。在腾讯ima没有出来前,如果你不想本地部署类似DeepSeek,那么通过CherryStudio提供的知识库管理功能来搭建个人AI智能知识库是一个不错的选择。而现在可以看到C…- 3
- 0
-
昆仑万维发布全球首款音乐推理大模型Mureka O1,中国AI音乐革命领跑全球
3月26日,昆仑万维正式发布Mureka O1模型与Mureka V6模型。Mureka O1作为全球首款音乐推理大模型,性能超越Suno、模型登顶SOTA,中国科技创新再次在AI音乐领域领跑全球。 2024年4月,昆仑万维发布了第一代音乐生成模型:Mureka V1(SkyMusic),获得了非常好的市场反响。在过去接近一年的时间里,我们的技术团队、产品团队持续对Mureka进行升级迭代。截至目…- 3
- 0
-
字节 AI 再创业:独立组织、全链条的饱和出击
当中国最大互联网公司遇到一局上限足够高的新游戏,它可能试试就放过吗? 文丨王与桐 程曼祺 编辑丨程曼祺 黄俊杰 面对 AI,字节依然是那个字节:一旦看到有潜力的方向,就加倍、饱和、全面出击。 一个最新例子是:智能体应用 Manus 出圈前后,字节已有至少 5 个团队在开发不同智能体产品,其中有些是对内工具。Manus 是 3 月 6 日刚由创业公司 Monica 开始内测的智能体应用。 在中国所有…- 3
- 0
-
一文讲透:大模型应用开发中的多轮对话实战案例
大家好,我是苦咖啡。多轮对话技术是人工智能领域的重要研究方向,很多公司都有这样的场景,其目标是构建能够理解上下文、识别意图并生成连贯响应的智能系统。今天我来通过一个真实案例并给出核心代码给你讲透,请一定看完。 一、实际落地场景中的问题 多轮对话在业务场景落地的过程中有一系列问题:业务场景的复杂性 多轮对话系统需处理用户连续提问、话题切换、信息省略等复杂交互,例如用户从“订机票”突然转向“支付方式”…- 2
- 0
-
实测智谱AutoGLM沉思:有惊喜但不多,更谈不上替人上班!
Hi,你好,我是1岁AI自媒体博主安歌,分享‘用AI赋能自媒体’实战技巧。 今日主题:智谱AutoGLM沉思实测前段时间,号称首个AI通用Agent的Manus,因一码难求爆上热搜。 而官网展示的诸多案例,让人觉得AI取代人,只在朝夕之间。(参考这篇:比DeepSeek更颠覆?全球首个通用智能体Manus:高级AI牛马来了!) 这两天,智谱也推出了Agent产品 —— AutoGLM沉思。 核心亮…- 2
- 0
-
OpenAI 预告 GPT-5 发布时间!奥特曼:将远超预期,曾表示将免费开放
美东时间周五,OpenAI CEO Sam Altman 在 X 上宣布了新模型发布计划的调整:· o3 和 o4-mini 将在几周内发布,在多个方面大幅改进了预览版本的 o3· GPT-5 将在几个月内发布 Altman 解释了这次调整的原因,是要把 GPT-5 做得比最初预期的还要好得多,同时在整合上遇到了比想象中要大的困难。网友的反应不一,有人猜测这个可能是 GPT 最靠近 AGI 的版…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!