要聞列表Anthropic 在美國期中選舉前為 Claude AI 推出選舉安全防護措施
Decrypt2026-04-24 17:58:18

Anthropic 在美國期中選舉前為 Claude AI 推出選舉安全防護措施

ORIGINALAnthropic Rolls Out Election Safeguards for Claude AI Ahead of US Midterms
AI 影響分析Grok 分析中...
📄完整原文· 由 trafilatura 自動擷取Gemini 翻譯3116 字
簡要說明 - Anthropic 最新的 Claude 模型在政治中立性測試中達到 95-96%,在選舉政策合規性方面達到 99.8-100%。 - 該公司將在 2026 年期中選舉期間部署選舉資訊橫幅,引導使用者前往值得信賴的無黨派投票資源。 - 這些措施出台之際,各國政府正密切審視 AI 對選舉公正性和錯誤資訊的潛在影響。 開發 Claude 聊天機器人的 AI 公司 Anthropic 週五宣布了一系列新的選舉公正性措施,旨在防止其 AI 在 2026 年美國期中選舉及今年全球其他重大選舉前,被武器化以散布錯誤資訊或操縱選民。 這家總部位於舊金山的企業詳細說明了一項多管齊下的策略,包括自動化檢測系統、針對影響力操作的壓力測試,以及與無黨派選民資源組織的合作——這些措施反映出 AI 開發商在選舉期間監管其工具使用方式所面臨的日益增長的壓力。 Anthropic 的使用政策禁止 Claude 被用於執行欺騙性的政治宣傳、生成旨在左右政治輿論的虛假數位內容、進行選民詐欺、干擾投票基礎設施,或散布關於投票流程的誤導性資訊。 為了執行這些規則,該公司表示已讓其最新模型進行了一系列測試。透過使用 600 個提示詞(300 個有害請求搭配 300 個合法請求),Anthropic 測量了 Claude 在遵守適當請求並拒絕問題請求方面的可靠性。Claude Opus 4.7 和 Claude Sonnet 4.6 分別有 100% 和 99.8% 的時間做出了適當的回應。 該公司還針對更複雜的操縱策略測試了其模型。透過使用旨在模擬惡意行為者可能採用的逐步方法的多次對話,Sonnet 4.6 和 Opus 4.7 在針對影響力操作情境進行測試時,分別有 90% 和 94% 的時間做出了適當回應。 Anthropic 還測試了其模型是否能自主執行影響力操作——即在沒有人類提示的情況下,從頭到尾規劃並執行多步驟的宣傳活動。該公司表示,在設有防護措施的情況下,其最新模型拒絕了幾乎所有此類任務。 關於政治中立性問題,該公司在每次模型發布前都會進行評估,以衡量 Claude 在處理表達不同政治光譜觀點的提示詞時,其一致性和公正性的表現。Opus 4.7 和 Sonnet 4.6 分別獲得了 95% 和 96% 的分數。 對於尋求投票資訊的使用者,Claude 將顯示一個選舉橫幅,引導他們前往 TurboVote,這是來自 Democracy Works 的無黨派資源,提供關於選民登記、投票地點、選舉日期和選票細節的可靠即時資訊。類似的橫幅也計畫用於今年稍晚的巴西選舉。 Anthropic 表示,隨著選舉週期的推進,計畫持續監控其系統並完善防禦措施。Decrypt 已聯繫 Anthropic 請求對上述調查結果發表評論,但未立即收到回覆。
資料狀態✓ 已擷取全文閱讀原文(Decrypt)
🔍歷史類似事件· 關鍵字 + 標的比對6 則
💡 目前用關鍵字 + 標的比對(MVP)· 之後會升級為 embedding 語意搜尋
原始資訊
ID:dc42019cf1
來源:Decrypt
發佈:2026-04-24 17:58:18
分類:一般 · 導出分類 neutral
標的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言
Anthropic 在美國期中選舉前為 Claude AI 推出選舉安全防護措施 | Feel.Trading