Anthropic 拒除 Claude 軍事安全鎖、考績掛鉤 AI 熟練度引爆焦慮、「星際迷航」提示詞反超專家 AI 業界爆出指標性衝突:Anthropic 因拒絕移除 Claude 的軍事安全護欄,正式被五角大廈列為「供應鏈風險」,宣告了商用 AI 與軍武應用的蜜月期終結。在民間,數位行銷業正試圖將 AI 使用率量化為績效指標,卻意外造成勞動力市場的新型恐慌。而最諷刺的是,科學研究證實:人類過去鑽研的「專家提示詞」多屬徒勞,AI 竟在扮演「星際艦長」時才展現出最強的邏輯力。 🎬 點我看 TikTok AI 新聞 📺 點我看 YouTube AI 新聞 🔹 AI 軍事應用爭端升溫:Anthropic 的「紅線」 美國國防部長 Pete Hegseth 於昨日(27 日)正式對 Anthropic 發出通牒,要求其合約必須包含「任何合法用途」條款,意即需移除 Claude 模型在自動化武器與大規模監控上的安全鎖(Guardrails)。Anthropic 執行長 Dario Amodei 以「不能違背良知」為由正式拒絕,隨即遭國防部列為「供應鏈風險名單」,並限期六個月內從軍事系統中撤除。 🔍 知識補充 • 供應鏈風險 (Supply Chain Risk): 這是美國國防部最嚴厲的行政手段之一,一旦被標註,所有軍事承包商(如 Palantir、Lockheed Martin)都必須停止與該公司的商業往來。 • 自主武器紅線 (Autonomous Weapon Redlines): Anthropic 堅持 Claude 不得用於「無人介入」的致命性決策,這與五角大廈追求的「極速反應」產生核心價值衝突。 💬 生活化說法 這就像是軍隊想買一台高性能跑車去衝鋒陷陣,但車廠(Anthropic)堅持車上必須裝「自動剎車系統」且不准拆掉。軍方覺得這會害死士兵,車廠則覺得拆掉會讓這台車變成無差別殺器。2026 年,我們終於看到 AI 巨頭在國家機器面前,為了「安全」選擇斷掉 2 億美元的合約。 🏭 產業鏈角度 • ...
本站掌握 AI 新聞與產業趨勢,整理全球人工智慧發展與政策動態,輕鬆了解前沿技術。歡迎訂閱部落格,第一時間收到最新更新通知!