精选 Edition

智 讯

每日 AI 行业洞察

2026年03月02日 · 星期日

封面故事

5小时前发布 重大突破

Chrome浏览器支持MCP协议:AI代理的Web时代正式开启

Google Chrome 2026-03-02 181分热度

2026年3月2日,Google宣布Chrome浏览器开始支持MCP(Model Context Protocol)协议的早期预览版本。这一消息迅速在开发者社区引发热议,在Hacker News上获得超过180个赞,成为当天最受关注的AI相关新闻。

什么是MCP协议?

MCP(Model Context Protocol)是由Anthropic提出的开放标准,旨在让AI模型能够安全地访问外部工具和数据源。此前,MCP主要用于桌面端应用,需要用户安装专门的客户端。Chrome的原生支持意味着这一障碍被彻底打破。

通过WebMCP,开发者可以直接在浏览器中构建AI代理应用,无需任何额外软件。AI代理将能够与网页交互、操作DOM、读取和修改内容,甚至可以跨多个标签页协同工作。这开启了"AI优先"的Web应用新时代。

技术细节

WebMCP采用早期的预览模式发布,开发者需要在Chrome Flags中启用相关功能。目前支持的API包括:页面内容读取、DOM操作、表单填写、导航控制等。Google表示,未来还将支持更多高级功能,如文件系统访问、摄像头和麦克风控制等。

行业影响

这一举措可能彻底改变Web AI应用的形态。此前,AI代理主要运行在云端或专用客户端中;现在,浏览器本身成为了AI代理的一等公民。对于企业用户来说,这意味着可以构建更强大的自动化工作流;对于普通用户来说,AI助手将能够更直接地帮助他们完成复杂的网页任务。

分析人士认为,Chrome支持MCP是Google在AI代理竞赛中的重要一步。它与OpenAI的Operator、Anthropic的Computer Use形成了直接竞争,但采用了更开放的策略。

热辣点评
浏览器原生支持MCP是一个里程碑事件。这意味着AI代理不再需要"黑客式"地操作浏览器,而是有了官方支持的标准接口。对于开发者来说,这是一次范式转换——从"如何让AI操作网页"变成了"如何设计AI优先的Web体验"。Web 4.0时代可能比预期来得更早。
阅读官方公告

行业要闻

01

Timber:Ollama风格的经典机器学习框架,比Python快336倍

2小时前开源

一个名为Timber的新项目刚刚发布,它将Ollama的易用性带到经典机器学习领域。开发者声称,在处理传统ML任务时,Timber比纯Python实现快336倍。该项目使用Rust编写核心计算引擎,同时保持了Python友好的API接口。

对于仍然依赖scikit-learn、XGBoost等传统ML工具的开发者来说,这是一个值得关注的新选择。Timber支持常见的分类、回归、聚类任务,并且可以轻松部署到生产环境。

经典机器学习并没有被深度学习取代,反而在很多场景下更实用。Timber的出现证明这个领域仍有创新空间。
02

当AI写代码时,会话历史应该成为Git提交的一部分吗?

3小时前开发工具

Memento项目提出了一个引人深思的问题:当AI代理帮助编写代码时,完整的对话历史是否应该被保存在Git仓库中?这个问题的答案可能改变我们对代码审查和知识传承的理解。

传统的代码提交只记录最终结果,但AI辅助编程的价值很大程度上在于过程——为什么选择这个方案?尝试过哪些替代方案?这些信息对于未来的维护者极其宝贵。

这是一个看似小众但影响深远的问题。代码仓库可能从"结果记录"变成"知识库"。
03

94个LLM基准测试:开源模型与闭源的差距缩小到5分

基准测试趋势

来自whatllm.org的最新报告对94个主流LLM进行了全面基准测试。结果显示,开源模型与闭源模型的差距已从2025年初的12分缩小到现在的5分。在智能体任务上,开源模型甚至已经领先。

报告采用的质量指数综合了AIME 2025、LiveCodeBench、GPQA Diamond等多个基准测试。Gemini 3 Pro和GPT-5.2以73分并列榜首,而开源的GLM-4.7达到了68分。更令人瞩目的是,DeepSeek V3.2以$0.30/M的价格提供了接近顶级模型的性能。

开源正在加速追赶。如果这个趋势持续,2026年可能是开源模型全面超越闭源的关键一年。
04

easy-torch-tpu:简化PyTorch在Google TPU上的训练体验

硬件工具

一位研究者发布了easy-torch-tpu框架,旨在降低PyTorch在Google TPU上的使用门槛。相比于官方的torchprime,这个框架更注重简洁性、灵活性和学术规模的易用性。

框架支持1-100亿参数模型,32-64芯片规模,集成了Weights & Biases实验追踪和Hugging Face数据集流式加载。对于想要尝试TPU但被复杂性劝退的研究者,这是一个很好的起点。

TPU一直被认为是"难用的硬件"。这个框架降低了门槛,对于学术研究是个好消息。

数据来源

Hacker News Y Combinator 技术社区,只选取48小时内的AI相关热门
Reddit r/MachineLearning 300万+订阅,机器学习前沿讨论
Reddit r/artificial 人工智能行业资讯与观点
时效性保证 所有内容均来自过去24-48小时内