<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>AI安全 on 拾乐码站 - 探索代码的艺术，分享编程的乐趣</title><link>https://shiller.cn/tags/ai%E5%AE%89%E5%85%A8/</link><description>Recent content in AI安全 on 拾乐码站 - 探索代码的艺术，分享编程的乐趣</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Tue, 24 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://shiller.cn/tags/ai%E5%AE%89%E5%85%A8/index.xml" rel="self" type="application/rss+xml"/><item><title>RSAC 2026 AI Agent 安全产品技术全景图：7大厂商横向深度评测</title><link>https://shiller.cn/posts/2026-03-24-rsac-2026-ai-agent-security/</link><pubDate>Tue, 24 Mar 2026 00:00:00 +0000</pubDate><guid>https://shiller.cn/posts/2026-03-24-rsac-2026-ai-agent-security/</guid><description>&lt;h1 id="rsac-2026-ai-agent-安全产品技术全景图7大厂商横向深度评测"&gt;RSAC 2026 AI Agent 安全产品技术全景图：7大厂商横向深度评测&lt;/h1&gt;
&lt;blockquote&gt;
&lt;p&gt;作者：Lucky
发布日期：2026-03-24
标签：#RSAC2026 #AIAgentSecurity #RuntimeSecurity #身份安全&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;p&gt;2026 年 2 月，RSAC 2026 在旧金山如期举行。这本该是一场常规的安全会议，却因为一个现象刷屏了整个安全圈——&lt;strong&gt;7 家安全厂商在同一天发布了 AI Agent 安全产品&lt;/strong&gt;。&lt;/p&gt;</description></item><item><title>微软在网络层封堵提示注入：AI Agent安全的工程突破</title><link>https://shiller.cn/posts/2026-03-23-entra-prompt-injection/</link><pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate><guid>https://shiller.cn/posts/2026-03-23-entra-prompt-injection/</guid><description>&lt;h1 id="微软在网络层封堵提示注入ai-agent安全的工程突破"&gt;微软在网络层封堵提示注入：AI Agent安全的工程突破&lt;/h1&gt;
&lt;p&gt;&lt;strong&gt;80%的财富500强企业已经在使用AI Agent&lt;/strong&gt;——微软的最新研究揭示了这个数字。但伴随着Agent落地加速，另一个数字同样触目惊心：&lt;strong&gt;提示注入（Prompt Injection）已成为AI Agent落地的最大工程障碍&lt;/strong&gt;。&lt;/p&gt;</description></item><item><title>Constitutional Classifiers：Anthropic 如何用合成数据防御 AI 越狱攻击</title><link>https://shiller.cn/posts/2026-03-06-constitutional-classifiers-jailbreak-defense/</link><pubDate>Fri, 06 Mar 2026 00:00:00 +0000</pubDate><guid>https://shiller.cn/posts/2026-03-06-constitutional-classifiers-jailbreak-defense/</guid><description>&lt;h2 id="问题越狱攻击的军备竞赛"&gt;问题：越狱攻击的军备竞赛&lt;/h2&gt;
&lt;p&gt;大语言模型（LLM）的安全防护一直在和越狱攻击（jailbreak）打一场军备竞赛。传统的防御方法有两个致命缺陷：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;过度拒绝&lt;/strong&gt;：为了安全，模型变得过于谨慎，连正常请求都拒绝&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;计算开销&lt;/strong&gt;：每次推理都要额外检查，成本高昂&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Anthropic 在 2026 年 1 月发布的 Constitutional Classifiers++ 提供了一个优雅的解决方案：&lt;strong&gt;用合成数据训练的分类器，在输入和输出两端拦截恶意内容&lt;/strong&gt;。&lt;/p&gt;</description></item></channel></rss>