要闻列表Anthropic 在美国中期选举前为 Claude AI 推出选举安全保障措施
Decrypt2026-04-24 17:58:18

Anthropic 在美国中期选举前为 Claude AI 推出选举安全保障措施

ORIGINALAnthropic Rolls Out Election Safeguards for Claude AI Ahead of US Midterms
AI 影响分析Grok 分析中...
📄完整原文· 由 trafilatura 自动抓取Gemini 翻譯3116 字
简讯 - Anthropic 最新的 Claude 模型在政治中立性测试中达到 95-96%,在选举政策合规性方面达到 99.8-100%。 - 该公司将部署选举信息横幅,引导用户在 2026 年中期选举期间访问可信的无党派投票资源。 - 在各国政府密切关注 AI 对选举公正性和虚假信息潜在影响的背景下,这些措施应运而生。 Claude 聊天机器人背后的 AI 公司 Anthropic 周五宣布了一系列新的选举公正性措施,旨在防止其 AI 在 2026 年美国中期选举及今年全球其他重大选举前夕被武器化,用于传播虚假信息或操纵选民。 这家总部位于旧金山的科技公司详细介绍了一种多管齐下的方法,包括自动化检测系统、针对影响力行动的压力测试,以及与一家无党派选民资源组织的合作——这些措施反映了 AI 开发商在选举期间监管其工具使用方式所面临的日益增长的压力。 Anthropic 的使用政策禁止 Claude 被用于开展欺骗性政治竞选、生成旨在左右政治舆论的虚假数字内容、实施选民欺诈、干扰投票基础设施,或传播有关投票流程的误导性信息。 为了执行这些规则,该公司表示已对其最新模型进行了一系列测试。通过使用 600 个提示词(300 个有害请求搭配 300 个合法请求),Anthropic 衡量了 Claude 在遵守适当请求和拒绝问题请求方面的可靠性。Claude Opus 4.7 和 Claude Sonnet 4.6 的适当响应率分别为 100% 和 99.8%。 该公司还针对更复杂的操纵策略对模型进行了测试。通过使用旨在模拟恶意行为者可能采用的循序渐进方法的多次对话,Sonnet 4.6 和 Opus 4.7 在应对影响力行动场景测试时,分别有 90% 和 94% 的时间做出了适当响应。 Anthropic 还测试了其模型是否能够自主执行影响力行动——即在没有人类提示的情况下端到端地规划和执行多步骤竞选活动。该公司表示,在安全防护措施到位的情况下,其最新模型拒绝了几乎所有此类任务。 关于政治中立性问题,该公司在每次模型发布前都会进行评估,以衡量 Claude 在处理表达不同政治光谱观点的提示词时的一致性和公正性。Opus 4.7 和 Sonnet 4.6 的得分分别为 95% 和 96%。 对于寻求投票信息的用户,Claude 将显示一个选举横幅,引导他们访问 TurboVote,这是来自 Democracy Works 的一个无党派资源,提供有关选民登记、投票地点、选举日期和选票详情的可靠实时信息。类似的横幅计划用于今年晚些时候的巴西选举。 Anthropic 表示,计划随着选举周期的推进,继续监控其系统并完善防御措施。Decrypt 就上述调查结果联系了 Anthropic 寻求置评,但未立即收到回复。
数据状态✓ 已抓取全文阅读原文(Decrypt)
🔍历史类似事件· 关键词 + 标的比对6 则
💡 目前用关键词 + 标的比对(MVP)· 之后会升级为 embedding 语义搜寻
原始信息
ID:dc42019cf1
来源:Decrypt
发布:2026-04-24 17:58:18
分类:一般 · 导出分类 neutral
标的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言
Anthropic 在美国中期选举前为 Claude AI 推出选举安全保障措施 | Feel.Trading