導航:首頁>> 最新資訊>> 2025 年人工智能的十大預測:AI Agent 方向?qū)⒊蔀橹髁?/span>

2025 年人工智能的十大預測:AI Agent 方向?qū)⒊蔀橹髁?/h1>
101天前 65 技術(shù)
我們現(xiàn)在與另一種形式的智能共享我們的世界,這種智能有時可能是任性的、不可預測的和欺騙性的。

撰文:Rob Toews

編譯:MetaverseHub

2024 年即將結(jié)束,來自 Radical Ventures 的風險投資家 Rob Toews 分享了他對 2025 年人工智能的 10 個預測:

01.Meta 將開始對 Llama 模型收費

Meta 是世界上開放式人工智能的標桿。在一個引人注目的企業(yè)戰(zhàn)略案例研究中,當 OpenAI 和谷歌等競爭對手將其前沿模型封閉源代碼并收取使用費時,Meta 卻選擇免費提供其最先進的 Llama 模型。

因此,明年 Meta 開始向使用 Llama 的公司收費這一消息,會讓許多人感到意外。

需要明確的是:我們并沒有預測 Meta 會將 Llama 完全閉源,也不意味著任何使用 Llama 模型的用戶都必須為此付費。

相反,我們預測 Meta 將對 Llama 的開源許可條款做出更多限制,這樣,在一定規(guī)模以上的商業(yè)環(huán)境中使用 Llama 的公司將需要開始付費才能使用模型。

從技術(shù)上講,Meta 如今已經(jīng)在有限的范圍內(nèi)做到了這一點。該公司不允許最大的公司——云超級計算機和其他月活躍用戶超過 7 億的公司,自由使用其 Llama 模型。

早在 2023 年,Meta 首席執(zhí)行官 Mark Zuckerberg 就說過:「如果你是微軟、亞馬遜或谷歌這樣的公司,而且你基本上會轉(zhuǎn)售 Llama,那么我們應該從中獲得一部分收入。我不認為這在短期內(nèi)會是一大筆收入,但從長遠來看,希望這能成為一些收入。」

明年,Meta 將大幅擴大必須付費才能使用 Llama 的企業(yè)范圍,將更多的大中型企業(yè)納入其中。

跟上大型語言模型(LLM)前沿是非常昂貴的。如果想讓 Llama 與 OpenAI、Anthropic 等公司的最新前沿模型保持一致或接近一致,Meta 每年需要投入數(shù)十億美元。

Meta 公司是世界上最大、資金最雄厚的公司之一。但它也是一家上市公司,最終要對股東負責。

隨著制造前沿模型的成本不斷飆升,Meta 公司在沒有收入預期的情況下投入如此巨額資金來訓練下一代 Llama 模型的做法越來越站不住腳。

愛好者、學者、個人開發(fā)者和初創(chuàng)公司明年將繼續(xù)免費使用 Llama 模型。但 2025 年,將是 Meta 開始認真實現(xiàn) Llama 盈利的一年。

02.「尺度定律」相關(guān)問題

最近幾周,人工智能領域引發(fā)討論最多的話題莫過于尺度定律(Scaling laws),以及它們是否即將終結(jié)的問題。

尺度定律在 2020 年 OpenAI 的一篇論文中首次提出,其基本概念簡單明了:在訓練人工智能模型時,隨著模型參數(shù)數(shù)量、訓練數(shù)據(jù)量和計算量的增加,模型的性能會以可靠且可預測的方式提高(從技術(shù)上講,其測試損失會減少)。

從 GPT-2 到 GPT-3 再到 GPT-4,令人嘆為觀止的性能提升都是縮放規(guī)律的功勞。

就像摩爾定律一樣,尺度定律實際上并不是真正的法則,而只是簡單的經(jīng)驗觀察。

在過去的一個月里,一系列報告表明,主要的人工智能實驗室在持續(xù)擴大大型語言模型的規(guī)模時,正在看到遞減的回報。這有助于解釋為什么 OpenAI 的 GPT-5 發(fā)布一再推遲。

對尺度定律趨于平穩(wěn)的最常見反駁是,測試時計算的出現(xiàn)開辟了一個全新的維度,可以在這一維度上追求規(guī)模擴展。

也就是說,與其在訓練期間大規(guī)模擴展計算,新的推理模型如 OpenAI 的 o3 使得在推理期間大規(guī)模擴展計算成為可能,通過使模型能夠「思考更長時間」來解鎖新的 AI 能力。

這是一個重要的觀點。測試時計算確實代表了一個新的令人興奮的擴展途徑,以及 AI 性能提升。

但關(guān)于尺度定律的另一個觀點更加重要,而且在今天的討論中被嚴重低估。幾乎所有關(guān)于尺度定律的討論,從最初的 2020 年論文開始,一直延續(xù)到今天對測試時計算的關(guān)注,都集中在語言上。但語言并不是唯一重要的數(shù)據(jù)模式。

想想機器人技術(shù)、生物學、世界模型或網(wǎng)絡代理。對于這些數(shù)據(jù)模式,尺度定律尚未飽和;相反,它們才剛剛開始。

實際上,這些領域中尺度定律存在的嚴格證據(jù)至今甚至尚未發(fā)表。

為這些新型數(shù)據(jù)模式構(gòu)建基礎模型的初創(chuàng)公司——例如,生物學領域的 Evolutionary Scale、機器人技術(shù)領域的 PhysicalIntelligence、世界模型領域 WorldLabs,正試圖識別并利用這些領域的尺度定律,就像 OpenAI 在 2020 年代前半期成功利用大型語言模型(LLM)尺度定律一樣。

明年,預計這里將取得巨大的進步。

尺度定律不會消失,它們在 2025 年將和以往一樣重要。但是,尺度定律的活動中心將從 LLM 預訓練轉(zhuǎn)移到其他模式。

03.特朗普和馬斯克可能會在 AI 方向產(chǎn)生分歧

美國新政府將帶來一系列關(guān)于人工智能的政策和戰(zhàn)略轉(zhuǎn)變。

為了預測在特朗普總統(tǒng)就任下人工智能的風向,另外考慮到馬斯克目前在人工智能領域的中心地位,人們可能會傾向于關(guān)注當選總統(tǒng)與馬斯克的密切關(guān)系。

可以想象,馬斯克可能會以多種不同的方式影響特朗普政府的人工智能相關(guān)發(fā)展。

鑒于馬斯克與 OpenAI 的深刻敵對關(guān)系,新政府在與行業(yè)接觸、制定人工智能法規(guī)、授予政府合同等方面可能會對 OpenAI 采取不太友好的立場,這是 OpenAI 今天真正擔心的一個風險。

另一方面,特朗普政府可能會更傾向于支持馬斯克自己的公司:例如,削減繁文縟節(jié)以使 xAI 能夠建立數(shù)據(jù)中心并在前沿模型競賽中取得領先;為特斯拉部署機器人出租車車隊提供快速監(jiān)管批準等。

更根本的是,與許多其他被特朗普看好的科技領袖不同,馬斯克非常重視人工智能的安全風險,并因此主張對人工智能進行重大監(jiān)管。

他支持加利福尼亞州有爭議的 SB1047 法案,該法案試圖對人工智能開發(fā)者施加有意義的限制。因此,馬斯克的影響力可能會導致美國對人工智能的監(jiān)管環(huán)境變得更加嚴格。

然而,所有這些推測都存在一個問題。特朗普和馬斯克的親密關(guān)系終將不可避免地破裂。

正如我們在特朗普第一任政府期間一次又一次看到的那樣,特朗普盟友的平均任期,即使是看似最堅定的,都非常短暫。

特朗普第一任政府的副手中,今天仍然忠于他的寥寥無幾。

特朗普和馬斯克都是復雜、易變、不可預測的個性,他們不易合作,他們使人筋疲力盡,他們新發(fā)現(xiàn)的友誼到目前為止已經(jīng)互惠互利,但仍處于「蜜月期」。

我們預測,在 2025 年結(jié)束之前,這種關(guān)系將會惡化。

這對人工智能世界意味著什么?

這對 OpenAI 來說是個好消息。對于特斯拉的股東來說,這將是一個不幸的消息。而對于那些關(guān)注人工智能安全的人來說,這將是一個令人失望的消息,因為這幾乎可以確保美國政府將在特朗普執(zhí)政期間對人工智能監(jiān)管采取放手不管的態(tài)度。

04.AI Agent 將成為主流

想象一下,在這樣一個世界里,你不再需要直接與互聯(lián)網(wǎng)互動。每當你需要管理訂閱、支付賬單、預約醫(yī)生、在亞馬遜上訂購東西、預訂餐廳或完成其他任何繁瑣的在線任務時,你只需指示人工智能助理代你完成即可。

這種「網(wǎng)絡代理」的概念已經(jīng)存在多年。如果有這樣的產(chǎn)品并能正常運行,毫無疑問,它將會是一款大獲成功的產(chǎn)品。

然而,目前市場上還沒有一款能正常運行的通用網(wǎng)絡代理。

像 Adept 這樣的初創(chuàng)公司,即使擁有一支血統(tǒng)純正的創(chuàng)始團隊,籌集了數(shù)億美元的資金,但卻未能實現(xiàn)其愿景。

明年將是網(wǎng)絡代理最終開始運行良好并成為主流的一年。語言和視覺基礎模型的不斷進步,再加上最近因新推理模型和推理時間計算而在「第二系統(tǒng)思維」能力方面取得的突破,將意味著網(wǎng)絡代理已準備好進入黃金時代。

換句話說,Adept 的想法是正確的,只是為時過早。在初創(chuàng)企業(yè)中,正如生活中的許多事情一樣,時機就是一切。

網(wǎng)絡代理將找到各種有價值的企業(yè)用例,但我們認為,網(wǎng)絡代理近期最大的市場機會將是消費者。

盡管最近人工智能熱度不減,但除了 ChatGPT 之外,能成為消費者主流應用的人工智能原生應用還相對較少。

網(wǎng)絡代理將改變這一局面,成為消費人工智能領域下一個真正的「殺手級應用」。

05.將人工智能數(shù)據(jù)中心置于太空的想法將會實現(xiàn)

2023 年,制約人工智能發(fā)展的關(guān)鍵物理資源是 GPU 芯片。2024 年,它變成了電力和數(shù)據(jù)中心。

在 2024 年,幾乎沒有什么故事能比人工智能在急于建造更多人工智能數(shù)據(jù)中心的同時對能源的巨大且快速增長的需求更受關(guān)注了。

由于人工智能的蓬勃發(fā)展,全球數(shù)據(jù)中心的電力需求在數(shù)十年持平后,預計將在 2023 年至 2026 年間翻一番。在美國,數(shù)據(jù)中心的耗電量預計到 2030 年將接近總耗電量的 10%,而 2022 年僅為 3%。

當今的能源系統(tǒng)根本無法應對人工智能工作負載帶來的巨大需求激增。我們的能源網(wǎng)和計算基礎設施這兩個價值數(shù)萬億美元的系統(tǒng)之間即將發(fā)生歷史性的碰撞。

作為解決這一難題的可能方案,核能在今年獲得了迅猛發(fā)展。核電在很多方面都是人工智能的理想能源:它是零碳能源,全天候可用,而且實際上取之不盡、用之不竭。

但從現(xiàn)實情況來看,由于研究、項目開發(fā)和監(jiān)管時間較長,新能源在 2030 年代之前都無法解決這一問題。傳統(tǒng)的核裂變發(fā)電廠、下一代「小型模塊化反應堆」(SMR)以及核聚變發(fā)電廠都是如此。

明年,一個應對這一挑戰(zhàn)的非常規(guī)新想法將出現(xiàn)并吸引真正的資源:將人工智能數(shù)據(jù)中心置于太空中。

太空中的人工智能數(shù)據(jù)中心,乍一聽,這聽起來像是一個壞笑話,一個風險投資人試圖把太多的創(chuàng)業(yè)流行語結(jié)合起來。

但事實上,這可能是有道理的。

在地球上快速建設更多數(shù)據(jù)中心的最大瓶頸是獲取所需的電力。軌道上的計算集群可以全天候享受免費、無限、零碳的電力:太空中的太陽總是熠熠生輝。

將計算置于太空的另一個重要優(yōu)勢是:它解決了冷卻問題。

要建立功能更強大的人工智能數(shù)據(jù)中心,最大的工程障礙之一就是在狹小的空間內(nèi)同時運行許多 GPU 會變得非常熱,而高溫會損壞或毀壞計算設備。

數(shù)據(jù)中心開發(fā)人員正在采用液浸冷卻等昂貴且未經(jīng)證實的方法來試圖解決這一問題。但太空是極其寒冷的,計算活動產(chǎn)生的任何熱量都會立即無害地消散。

當然,還有許多實際挑戰(zhàn)有待解決。一個顯而易見的問題是,能否以及如何在軌道和地球之間以低成本高效率地傳輸大量數(shù)據(jù)。

這是一個懸而未決的問題,但可能證明是可以解決的:可以利用激光和其他高帶寬光通信技術(shù)開展前景廣闊的工作

YCombinator 的一家名為 Lumen Orbit 的初創(chuàng)公司最近籌集了 1100 萬美元,以實現(xiàn)這一理想:在太空中建立一個數(shù)兆瓦的數(shù)據(jù)中心網(wǎng)絡,用于訓練人工智能模型。

正如公司首席執(zhí)行官所說:「與其支付 1.4 億美元的電費,不如支付 1 千萬美元的發(fā)射和太陽能費用。」

2025 年,Lumen 將不會是唯一認真對待這一概念的組織。

其他初創(chuàng)企業(yè)的競爭者也會出現(xiàn)。如果有一家或幾家云計算超大規(guī)模企業(yè)也按照這種思路開展探索,也不要感到驚訝。

亞馬遜已經(jīng)通過「柯伊伯計劃」(ProjectKuiper)將資產(chǎn)送入軌道,積累了豐富的經(jīng)驗;谷歌長期以來一直在資助類似的「登月計劃」;甚至微軟對太空經(jīng)濟也不陌生。

可以想象,馬斯克的 SpaceX 公司也會在這方面有所作為。

06.人工智能系統(tǒng)將通過「圖靈語音測試」

圖靈測試是人工智能性能最古老、最知名的基準之一。

為了「通過」圖靈測試,人工智能系統(tǒng)必須能夠通過書面文本進行交流,讓普通人無法分辨自己是在與人工智能互動,還是在與其他人互動。

得益于大型語言模型的顯著進步,圖靈測試在 2020 年代已成為一個解決的問題。

但書面文本并非人類交流的唯一方式。

隨著人工智能變得越來越多模態(tài),人們可以想象一個新的、更具挑戰(zhàn)性的圖靈測試版本——「語音圖靈測試」。在這個測試中,人工智能系統(tǒng)必須能夠通過語音與人類互動,其技能和流暢度要達到與人類說話者無法區(qū)分的程度。

今天的人工智能系統(tǒng)還無法實現(xiàn)語音圖靈測試,解決這個問題將需要更多的技術(shù)進步。延遲(人類說話和人工智能回應之間的滯后)必須減少到接近零,以匹配與另一個人類交談的體驗。

語音人工智能系統(tǒng)必須更擅長優(yōu)雅地實時處理模糊輸入或誤解,例如說話被打斷的情況。它們必須能夠參與長對話、多輪、開放式對話,同時記住討論的早期部分。

而且至關(guān)重要的是,語音人工智能代理必須學會更好地理解語音中的非語言信號。例如,如果一個人類說話者聽起來惱怒、興奮還是諷刺意味著什么,并在自己的語音中生成這些非語言線索。

隨著我們接近 2024 年底,語音人工智能正處于一個令人興奮的轉(zhuǎn)折點,這一轉(zhuǎn)折點是由像語音到語音模型的出現(xiàn)這樣的根本性突破推動的。

如今,人工智能中很少有領域在技術(shù)和商業(yè)上的進步速度比語音人工智能更快。預計在 2025 年,語音人工智能的最新技術(shù)將實現(xiàn)飛躍。

07.自主 AI 系統(tǒng)將取得重大進展

數(shù)十年來,遞歸式自我完善人工智能的概念一直是人工智能界經(jīng)常觸及的話題。

例如,早在 1965 年,AlanTuring 的親密合作者 I.J.Good 就寫道:「讓我們把超智能機器定義為一種能夠遠遠超越人類所有智力活動的機器,無論它多么聰明?!?/p>

「既然設計機器是這些智力活動之一,那么超智能機器就能設計出更好的機器;到那時,無疑會出現(xiàn)『智能爆炸』,人類的智能將被遠遠拋在后面?!?/p>

人工智能可以發(fā)明更好的人工智能,這是一個充滿智慧的概念。但是,即使在今天,它仍然保留著科幻小說的影子。

然而,盡管這一概念尚未得到廣泛認可,但它實際上已經(jīng)開始變得更加真實。人工智能科學前沿的研究人員已經(jīng)開始在構(gòu)建人工智能系統(tǒng)方面取得切實進展,而人工智能系統(tǒng)本身也能構(gòu)建更好的人工智能系統(tǒng)。

我們預測,明年這一研究方向?qū)⒊蔀橹髁鳌?/p>

迄今為止,沿著這一思路進行研究的最顯著的公開范例是 Sakana 的「人工智能科學家」。

「人工智能科學家」于今年 8 月發(fā)布,它令人信服地證明了人工智能系統(tǒng)確實可以完全自主地開展人工智能研究。

Sakana 的「人工智能科學家」本身執(zhí)行了人工智能研究的整個生命周期:閱讀現(xiàn)有文獻、產(chǎn)生新的研究想法、設計實驗來測試這些想法、執(zhí)行這些實驗、撰寫研究論文來報告其研究結(jié)果,然后對其工作進行同行評審。

這些工作完全由人工智能自主完成,不需要人工干預。你可以在線閱讀人工智能科學家撰寫的部分研究論文。

OpenAI、Anthropic 和其他研究實驗室正在為「自動化人工智能研究人員」這一想法投入資源,不過目前還沒有任何消息得到公開承認。

隨著越來越多的人認識到人工智能研究自動化事實上正在成為一種真正的可能性,預計 2025 年這一領域?qū)懈嗟挠懻?、進展和創(chuàng)業(yè)活動。

不過,最有意義的里程碑將是完全由人工智能代理撰寫的研究論文首次被頂級人工智能會議接受。如果論文是盲審的,會議評審人員在論文被接受之前不會知道論文是由人工智能撰寫的。

如果人工智能的研究成果明年被 NeurIPS、CVPR 或 ICML 接收,請不要感到驚訝。對于人工智能領域來說,這將是一個引人入勝、充滿爭議的歷史性時刻。

08.OpenAI 等行業(yè)巨頭將戰(zhàn)略重點轉(zhuǎn)向構(gòu)建應用

構(gòu)建前沿模型是一項艱難的工作。

它的資本密集程度令人咋舌。前沿模型實驗室需要消耗大量現(xiàn)金。就在幾個月前,OpenAI 籌集到了創(chuàng)紀錄的 65 億美元資金,而在不久的將來,它可能還需要籌集更多的資金。Anthropic、xAI 和其他公司也處于類似的境地。

轉(zhuǎn)換成本和客戶忠誠度較低。人工智能應用程序通常都是以模型無關(guān)性為目的而構(gòu)建的,不同供應商的模型可以根據(jù)不斷變化的成本和性能比較進行無縫切換。

隨著最先進的開放模型(如 Meta 的 Llama 和阿里巴巴的 Qwen)的出現(xiàn),技術(shù)商品化的威脅不斷迫近。像 OpenAI 和 Anthropic 這樣的人工智能領導者不可能也不會停止對構(gòu)建尖端模型的投資。

但明年,為了發(fā)展利潤更高、差異化更大、粘性更強的業(yè)務線,前沿實驗室有望大力推出更多自己的應用和產(chǎn)品。

當然,前沿實驗室已經(jīng)有了一個非常成功的應用案例:ChatGPT。

在新的一年里,我們還能從人工智能實驗室看到哪些其他類型的第一方應用程序呢?一個顯而易見的答案是更復雜、功能更豐富的搜索應用。OpenAI 的 SearchGPT 就預示著這一點。

編碼是另一個顯而易見的類別。同樣,隨著 OpenAI 的 Canvas 產(chǎn)品于 10 月份首次亮相,初步的產(chǎn)品化工作已經(jīng)開始。

OpenAI 或 Anthropic 是否會在 2025 年推出企業(yè)搜索產(chǎn)品?還是客戶服務產(chǎn)品、法律人工智能或銷售人工智能產(chǎn)品呢?

在消費者方面,我們可以想象一個「個人助理」網(wǎng)絡代理產(chǎn)品,或者一個旅行規(guī)劃應用,又或者是一個生成音樂的應用。

觀察前沿實驗室向應用層發(fā)展的最迷人之處在于,這一舉措將使它們與許多最重要的客戶直接競爭

搜索領域的 Perplexity、編碼領域的 Cursor、在客戶服務領域德 Sierra、在法律人工智能領域的 Harvey、在銷售領域的 Clay 等等。

09.Klarna 將在 2025 年上市,但存在夸大 AI 價值的跡象

Klarna 是一家總部位于瑞典的「現(xiàn)購現(xiàn)付」服務提供商,自 2005 年成立以來已籌集了近 50 億美元的風險投資。

也許沒有哪家公司能比 Klarna 對其人工智能的應用說得更冠冕堂皇了。

就在幾天前,Klarna 首席執(zhí)行官 Sebastian Siemiatkowski 告訴彭博社,該公司已經(jīng)完全停止雇傭人類員工,轉(zhuǎn)而依靠生成式人工智能來完成工作。

正如 Siemiatkowski 所說:「我認為,人工智能已經(jīng)可以完成我們?nèi)祟愃龅乃泄ぷ鳌!?/p>

與此類似,Klarna 公司今年早些時候宣布,它已經(jīng)推出了一個人工智能客戶服務平臺,該平臺已經(jīng)將 700 名人工客服人員的工作完全自動化。

該公司還聲稱,它已經(jīng)停止使用 Salesforce 和 Workday 等企業(yè)軟件產(chǎn)品,因為它可以簡單地用人工智能取代它們。

直截了當?shù)卣f,這些說法并不可信。它們反映了人們對當今人工智能系統(tǒng)的能力和不足缺乏了解。

聲稱能夠用端到端的人工智能代理取代組織中任何職能部門的任何特定人類員工,這種說法并不靠譜。這等同于解決了通用的人類級人工智能問題。

如今,領先的人工智能初創(chuàng)企業(yè)正在該領域的最前沿努力構(gòu)建代理系統(tǒng),以實現(xiàn)特定的、狹義的、高度結(jié)構(gòu)化的企業(yè)工作流程自動化,例如,銷售開發(fā)代表或客戶服務代理活動的子集。

即使在這些范圍狹窄的情況下,這些代理系統(tǒng)也還不能完全可靠地工作,盡管在某些情況下,它們已經(jīng)開始很好地工作,足以在早期得到商業(yè)應用。

為什么 Klarna 會夸大人工智能的價值?

答案很簡單。該公司計劃在 2025 年上半年上市。要想成功上市,關(guān)鍵是要有一個引人入勝的人工智能故事。

Klarna 仍然是一家不盈利的企業(yè),去年虧損了 2.41 億美元,它可能希望自己的人工智能故事能說服公開市場的投資者,讓他們相信它有能力大幅降低成本,實現(xiàn)持久盈利。

毫無疑問,包括 Klarna 在內(nèi)的全球每家企業(yè)都將在未來幾年內(nèi)享受到人工智能帶來的巨大生產(chǎn)力提升。但是,在人工智能代理完全取代勞動力中的人類之前,還有許多棘手的技術(shù)、產(chǎn)品和組織挑戰(zhàn)有待解決。

像 Klarna 這樣夸大其詞的說法是對人工智能領域的褻瀆,也是對人工智能技術(shù)專家和企業(yè)家們在開發(fā)人工智能代理方面所取得的艱苦進展的褻瀆。

隨著 Klarna 準備在 2025 年公開發(fā)行股票,預計這些說法將受到更嚴格的審查和公眾的懷疑,而到目前為止,這些說法大多沒有受到質(zhì)疑。如果該公司對其人工智能應用的某些描述過于夸張,也不要感到驚訝。

10.第一起真正的 AI 安全事故將會發(fā)生

近年來,隨著人工智能變得越來越強大,人們越來越擔心人工智能系統(tǒng)可能會開始以與人類利益不一致的方式行事,而且人類可能會失去對這些系統(tǒng)的控制。

舉例來說,想象一下,一個人工智能系統(tǒng)為了實現(xiàn)自己的目標,學會了欺騙或操縱人類,即使這些目標會對人類造成傷害。這些擔憂通常被歸類為「AI 安全」問題

近年來,人工智能安全已從一個邊緣的準科幻話題轉(zhuǎn)變?yōu)橐粋€主流活動領域。

如今,從谷歌、微軟到 OpenAI,每一個主要的人工智能參與者都為人工智能安全工作投入了大量資源。像 Geoff Hinton、Yoshua Bengio 和 Elon Musk 這樣的人工智能偶像,也開始對人工智能安全風險發(fā)表看法。

然而,到目前為止,人工智能安全問題仍完全停留在理論層面?,F(xiàn)實世界中從未發(fā)生過真正的人工智能安全事故(至少沒有公開報道過)。

2025 年將是改變這種狀況的一年,第一起人工智能安全事件會是什么樣的呢?

明確地說,它不會涉及終結(jié)者式的殺手機器人,它很可能不會對人類造成任何傷害。

也許人工智能模型會試圖在另一臺服務器上秘密創(chuàng)建自己的副本,以保存自己(稱為自我過濾)。

又也許人工智能模型會得出這樣的結(jié)論:為了最好地推進它被賦予的目標,它需要向人類隱瞞自己真實的能力,故意在性能評估中表現(xiàn)低調(diào),規(guī)避更嚴格的審查

這些例子并非牽強附會。阿波羅研究公司本月早些時候發(fā)表的重要實驗表明,在特定的提示下,當今的前沿模型能夠做出這種欺騙行為。

同樣,《人類學》最近的研究也表明,LLMs 具有令人不安的「偽對齊」能力。

我們預計,這起首例人工智能安全事件將在造成任何實際傷害之前被發(fā)現(xiàn)并消除。但對于人工智能界和整個社會來說,這將是一個大開眼界的時刻。

它將明確一件事:在人類面臨來自無所不能的人工智能的生存威脅之前,我們需要接受一個更平凡的現(xiàn)實:我們現(xiàn)在與另一種形式的智能共享我們的世界,這種智能有時可能是任性的、不可預測的和欺騙性的。

登載此文出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其描述。文章內(nèi)容僅供參考,不構(gòu)成投資建議。投資者據(jù)此操作,風險自擔。

最新快訊
來源:jinse
時間:2025-04-05 11:36:00
金色財經(jīng)報道,納斯達克上市比特幣礦企Cipher Mining公布3月未經(jīng)審計的生產(chǎn)和運營更新報告,其中披露其3月比特幣挖礦產(chǎn)出為210枚BTC,但因業(yè)務運營需要當月出售了206枚BTC,目前比特幣持...
來源:jinse
時間:2025-04-05 11:35:00
金色財經(jīng)報道,在提振疲弱的經(jīng)濟方面,關(guān)稅使美聯(lián)儲的工作變得更加困難。摩根士丹利分析師在一份研究報告中表示:“首先,美聯(lián)儲可能姍姍來遲,其次,它抵消全球轉(zhuǎn)向保護主義的能力有限。這只會讓事情變得不那么糟糕...
來源:panewslab
時間:2025-04-05 11:34:00
PANews 4月5日消息,據(jù)Globenewswire報道,紐交所上市公司Genius Group宣布已根據(jù)美國《反詐騙和腐敗組織法》(RICO)在佛羅里達南區(qū)地方法院對LZGI Internati...
來源:chaincatcher
時間:2025-04-05 11:33:00
ChainCatcher 消息,據(jù) Globenewswire 報道,紐交所上市公司 Genius Group 宣布已根據(jù)美國《反詐騙和腐敗組織法》(RICO)在佛羅里達南區(qū)地方法院對 LZGI In...
來源:chaincatcher
時間:2025-04-05 11:32:00
ChainCatcher 消息,納斯達克上市比特幣礦企 Hut 8 發(fā)布 3 月運營更新報告。3 月挖礦產(chǎn)出為 88 枚 BTC,比特幣儲備量增至 10264 枚。部署的哈希率從 2 月的平均 4.6...
作者專欄 查看更多>
techflowpost
3069
文章
168347
瀏覽
1755
訪問
  • 交易所
  • 幣種
排名 交易所 24h成交額
1 BinanceBinance ¥1,527.57 億
2 BybitBybit ¥576.23 億
3 Coinbase ExchangeCoinbase Exchange ¥71.57 億
4 OKXOKX ¥519.71 億
5 UpbitUpbit ¥77.13 億
6 KrakenKraken ¥43.20 億
7 BitgetBitget ¥494.79 億
8 RaydiumRaydium ¥11.50 億
9 BitfinexBitfinex ¥6.09 億
10 Uniswap v2Uniswap v2 ¥3.72 億
查看更多
行情行情 行情  平臺 平臺 平臺 首頁首頁 首頁 觀點觀點 觀點   快訊  快訊 快訊
日本永久免费Aⅴ在线观看,亚洲一区二区在线aⅴ,成人无码精品无码,久久机热这里只有精品23 www.sucaiwu.net