今日AI領域呈現三大重要發展趨勢。首先,業界巨頭正積極擴展AI生態系統:輝達計劃推出開源AI智能體平台,為開發者提供更靈活的工具;OpenAI收購Promptfoo以強化AI代理安全性;而獲Nvidia支持的英國AI基建公司Nscale完成20億美元融資,估值達146億美元,顯示市場對AI基礎設施的巨大需求。 其次,Anthropic與美國國防部的法律爭議成為焦點。這家AI公司因拒絕將技術用於大規模監控和全自主武器系統而被列為供應鏈風險企業,現已提起訴訟抗議。值得注意的是,近40名OpenAI和Google員工聯署支持Anthropic,反映業界對AI安全倫理的共同關注。 最後,實用性AI工具持續湧現,Anthropic推出程式碼檢查功能協助管理AI生成代碼,而蘋果智能家居顯示器預計今年秋季推出。這些發展顯示AI正從實驗室走向日常應用,但同時引發對監管框架與倫理邊界的深入思考。
📰 今日重點新聞
輝達計劃推出開源AI智能體平台
輝達正準備在其年度開發者大會前發布一個全新的軟件策略,採用類似OpenClaw的AI智能體技術。這個開源平台將為開發者提供更靈活的AI工具,標誌著輝達在AI軟件生態系統方面的重要佈局。
📍 Wired AI | 🕐 23:11
OpenAI和Google員工急忙為Anthropic在國防部訴訟中辯護
超過30名OpenAI和Google DeepMind的員工聯署聲明,支持AI公司Anthropic對美國國防部的訴訟。事緣國防部將Anthropic標籤為供應鏈風險企業,引發業界人士不滿並公開表態支持。
📍 TechCrunch AI | 🕐 21:15
Anthropic 指與五角大樓爭議或損失數十億元
這間AI初創企業的高層表示,自從特朗普政府將該公司列為供應鏈風險後,多間公司已暫停合作談判。管理層警告,這場風波可能對公司收入造成重大打擊,損失或達數十億元。
📍 Wired AI | 🕐 20:49
OpenAI及Google員工向法庭提交支持書,力撐Anthropic對抗美國政府
Google DeepMind首席科學家Jeff Dean等多名人工智能研究員及工程師,正積極為Anthropic進行法律辯護。這群業界專家聯合向法庭提交法庭之友意見書,支持Anthropic在與美國政府的法律爭議中的立場。
📍 Wired AI | 🕐 20:38
Anthropic推出程式碼檢查工具 應對AI生成程式碼湧現
Anthropic在Claude Code中推出了程式碼檢查功能,這是一個多代理系統,能夠自動分析AI生成的程式碼並標記邏輯錯誤。此工具旨在幫助企業開發人員管理日益增長的AI生成程式碼數量,提升程式碼品質控制。
📍 TechCrunch AI | 🕐 19:41
蘋果智能家居顯示器傳聞指向秋季推出,搭載 iOS 27
傳聞中的「配備螢幕的 HomePod」原定 2025 年推出,後來改為今年春季,現在最新消息指延遲至今年秋季發布。據彭博記者 Mark Gurman 報導,這款智能家居顯示器正等待蘋果完成 Siri 的聊天機械人式 AI 更新,而配備機械臂的進階版本則計劃於 2027 年推出。
📍 The Verge AI | 🕐 18:26
OpenAI 收購 Promptfoo 以保障其 AI 代理安全
OpenAI 收購了 Promptfoo 公司,旨在加強其 AI 代理系統的安全性。這項交易突顯了各大前沿實驗室正積極證明其技術能夠安全地應用於關鍵商業營運中。此舉反映了業界對 AI 安全性日益重視的趨勢。
📍 TechCrunch AI | 🕐 17:49
Anthropic就供應鏈風險認定起訴美國國防部
人工智能公司Anthropic週一對美國國防部提起訴訟,原因是該部門將其列為供應鏈風險企業。Anthropic在訴訟中指控國防部的做法「史無前例且違法」,對這項認定提出強烈抗議。
📍 TechCrunch AI | 🕐 17:25
OpenAI及Google員工支持Anthropic就五角大樓提起訴訟
Anthropic因被美國國防部列為供應鏈風險而提起訴訟,獲得近40名OpenAI和Google員工支持,包括Google首席科學家Jeff Dean在內。這些員工提交了法庭之友意見書,對特朗普政府的決定表示關切,認為此舉對科技行業帶來風險和影響。Anthropic通常被視為美國本土公司,但卻被政府賦予一般只適用於外國公司的風險標籤。
📍 The Verge AI | 🕐 16:45
高通與 Neura Robotics 的合作夥伴關係僅是開始
Neura Robotics 將採用高通在 CES 展會上發布的全新 IQ10 處理器來開發新一代機械人產品。這次合作標誌著兩家公司在機械人技術領域更深入合作的起點,預示著未來將有更多創新應用面世。
📍 TechCrunch AI | 🕐 15:58
Anthropic就供應鏈風險認定起訴國防部
Claude聊天機械人開發商Anthropic指控特朗普政府越權行事,將合約糾紛升級為聯邦層面禁用該公司技術的決定。該公司已就國防部將其列為供應鏈風險企業一事提出法律訴訟。
📍 Wired AI | 🕐 15:29
AI如何將伊朗衝突變成一場表演秀
近期有多個由AI工具快速開發的情報儀表板,實時追蹤美國-以色列對伊朗的軍事行動,結合衛星圖像、船隻追蹤及預測市場等功能,讓普通用家能獲得通常只有情報部門才能接觸的資訊。這些平台雖然提供了透明度,但同時將戰爭變成一種娛樂化的體驗,用戶可以一邊觀看戰事發展一邊下注預測結果。AI在戰時的新角色不僅是協助軍方決策,更成為資訊傳播的媒介,但這種趨勢可能會扭曲資訊流動,將嚴肅的軍事衝突轉化為一場由AI驅動的即時表演。
📍 MIT Technology Review AI | 🕐 15:11
Sandberg、Clegg 加入 Nscale 董事會,這家「挪威星門」初創企業估值達 146 億美元
獲 Nvidia 支持的英國人工智能基建初創公司 Nscale 再次完成 20 億美元的大型融資輪。隨著前 Meta 高層 Sandberg 和 Clegg 加入董事會,該公司估值已升至 146 億美元。這家被稱為「挪威星門」的企業專注於 AI 基礎設施建設。
📍 TechCrunch AI | 🕐 15:09
數碼資產設備安全的可用性要求
iPod設計師Tony Fadell指出,在開發數碼資產安全設備時,必須從一開始就將安全性作為首要考量,而非事後修補漏洞。然而,設備的易用性同樣重要,因為複雜的操作容易導致用戶犯錯或採用不安全的變通方法,從而削弱設備保護效果。據估計,約20%的比特幣(價值約3,550億美元)因私密金鑰遺失而無法取用,顯示在數碼資產日益普及的情況下,平衡安全性與可用性的設計變得至關重要。
📍 MIT Technology Review AI | 🕐 14:00
The Download:模糊的AI監控法例,以及白宮嚴厲打擊違抗的實驗室
美國國防部與AI公司Anthropic的爭議引發了一個關鍵問題:法律是否允許美國政府使用AI對國民進行大規模監控,目前法例仍未跟上AI技術的發展步伐。白宮因應這場爭議收緊了AI規管指引,要求公司必須允許其AI模型的「任何合法用途」。同時,OpenAI與Anthropic之間的競爭日趨激烈,甚至有OpenAI的機械人部門主管因擔心監控和「致命自主性」問題而辭職。
📍 MIT Technology Review AI | 🕐 13:57
Feeld曾是「另類人士」交友應用程式,如今被部分用戶稱為「普通人地獄」
這款原本專門服務非主流性癖好用戶的交友應用程式,近期吸引了大量喜好傳統關係的用戶加入。隨著「普通用戶」湧入,部分原有用戶對此感到不滿,認為應用程式失去了原有的獨特定位。
📍 Wired AI | 🕐 13:00
Anthropic 起訴美國國防部
AI 公司 Anthropic 已向美國政府提起訴訟,抗議被列為供應鏈風險企業的決定。該公司指控特朗普政府因其拒絕將 AI 技術用於大規模國內監控和全自主武器系統而進行非法報復。Anthropic 認為政府此舉違反憲法,是對其堅持 AI 安全立場的懲罰性行為。
📍 The Verge AI | 🕐 12:37
X 稱用戶可阻止 Grok 編輯相片
X 平台推出新功能,聲稱可讓用戶阻止 Grok 聊天機械人修改上載的圖片。不過,此功能實際上只能防止其他用戶在回覆中標記 @Grok 來編輯相片,並不能完全阻止 Grok 處理用戶的圖片內容。這項新設定的保護範圍比預期有限,用戶需要留意相關限制。
📍 The Verge AI | 🕐 11:24
人工智能會否淘汰創投資本家?
創投資本家正押注人工智能將顛覆全球幾乎每個行業。然而,當人工智能可能對他們自身的行業造成衝擊時,這些投資者是否已做好準備應對這種變化?這提出了一個有趣的問題:推動AI革命的創投界,能否適應AI對其自身商業模式帶來的潛在威脅。
📍 Wired AI | 🕐 09:00
💼 想將 AI 導入你的企業?
AI Brother 專注為香港中小企提供一站式 AI 解決方案