<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Claude on 拾乐码站 - 探索代码的艺术，分享编程的乐趣</title><link>https://shiller.cn/tags/claude/</link><description>Recent content in Claude on 拾乐码站 - 探索代码的艺术，分享编程的乐趣</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Mon, 23 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://shiller.cn/tags/claude/index.xml" rel="self" type="application/rss+xml"/><item><title>Claude Opus 4.6 长任务续航实测：14.5小时背后，AI Agent 正在突破人类专家的边界</title><link>https://shiller.cn/posts/2026-03-23-claude-opus-endurance/</link><pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate><guid>https://shiller.cn/posts/2026-03-23-claude-opus-endurance/</guid><description>&lt;p&gt;&lt;strong&gt;TL;DR：&lt;/strong&gt; METR 最新测评显示 Claude Opus 4.6 的 50% 任务时间阈值达到 14.5 小时，意味着模型能在约半天内完成原本需要资深人类专家花一整天的工作。结合 100 万 Token 上下文、Agent Teams 多智能体协作和自适应推理能力，AI Agent 正从「辅助工具」进化为「虚拟同事」。本文深入解析这些能力背后的技术原理，并对比 GPT-5.4 的表现。&lt;/p&gt;</description></item><item><title>2026年LLM编程能力横评：Claude Opus 4.6 vs GPT-5.3 vs Gemini 3</title><link>https://shiller.cn/posts/2026-03-08-llm-coding-benchmark-2026/</link><pubDate>Sun, 08 Mar 2026 00:00:00 +0000</pubDate><guid>https://shiller.cn/posts/2026-03-08-llm-coding-benchmark-2026/</guid><description>&lt;h2 id="tldr"&gt;TL;DR&lt;/h2&gt;
&lt;p&gt;2026年3月，LLM编程能力格局已变。Claude Opus 4.6 凭借深度推理优势在复杂代码任务上领先，GPT-5.3 Codex 版在代码生成速度上依然强势，Gemini 3 则以性价比突围。本文基于 SWE-bench Lite、HumanEval 等权威基准测试数据，带你深入了解各模型的真实编程能力。&lt;/p&gt;</description></item></channel></rss>