AI 風險如核試驗,麻省理工教授呼吁:量化失控,立即行動

AI風險如核試驗,麻省理工教授呼吁:量化失控,立即行動

隨著人工智能(AI)技術(shù)的飛速發(fā)展,我們正面臨著一個前所未有的挑戰(zhàn)和機遇。近日,麻省理工學院的物理學教授及AI研究者泰格馬克發(fā)出警告,高度發(fā)達的AI有九成可能帶來生存威脅。他呼吁,我們需要借鑒康普頓常數(shù)的概念,認真計算“人工超級智能”失控的幾率,而非僅憑感覺行事。

AI的風險,就如同當年的核武器一樣,有可能引發(fā)無法預知的后果。在1945年,“三位一體”核試驗的推進,正是因為美國在獲知原子彈引發(fā)大氣層燃燒的可能性幾乎為零后,才有了這一歷史性的決定。然而,泰格馬克與三名麻省理工學生合作發(fā)表的論文指出,如果我們不能準確計算出AI失控的概率,那么這種看似微小的可能性,也有可能演變成毀滅性的災難。

康普頓常數(shù)的概念,是強AI失控的概率。在1959年的采訪中,康普頓提到,他是在確認失控核聚變的幾率“不足三百萬分之一”后才批準了核試驗。這個數(shù)字,對于我們評估AI的風險同樣具有指導意義。泰格馬克強調(diào),打造超級智能的公司必須計算這個幾率,而不能僅憑“我們有信心”來應對。我們必須拿出具體數(shù)據(jù),來量化風險,以便做出明智的決策。

如果多家公司聯(lián)合計算康普頓常數(shù)并形成共識,那么這將有助于推動全球范圍內(nèi)AI安全機制的建立。這種共識的形成,將使各公司站在同一陣線,共同面對AI的風險,而非相互競爭。這樣的合作將使我們在AI的風險評估和安全管理上取得實質(zhì)性的進步。

泰格馬克是麻省理工學院的物理學教授及AI研究者,他的觀點和行動,代表了學術(shù)界對AI風險的深度關(guān)注和嚴肅態(tài)度。他參與創(chuàng)辦的非營利組織“未來生命研究所”,在2023年發(fā)布公開信,呼吁暫停開發(fā)更強大的AI系統(tǒng)。這封信獲得了超過3.3萬人的簽名,其中包括早期支持者埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克。他們的行動,無疑為AI的風險管理敲響了警鐘。

這封信警告稱,各大實驗室正陷入“失控競賽”,開發(fā)越來越強大的AI系統(tǒng),而這些系統(tǒng)“人類無法理解、預測或可靠控制”。這正是我們需要關(guān)注和應對的問題。我們不能僅僅因為技術(shù)進步而忽視了潛在的風險。在追求科技發(fā)展的同時,我們必須時刻保持警惕,做好風險管理,以確保我們的行動是在一個安全、可控的環(huán)境中進行的。

面對AI的風險,我們需要采取行動。這種行動不僅來自于學術(shù)界和業(yè)界的呼吁和警告,更來自于我們每一個人的責任和義務(wù)。我們需要從自身做起,了解AI的風險,參與AI的安全管理,為我們的未來做出明智的選擇。

總的來說,AI的風險如同核試驗一樣,需要我們以嚴謹?shù)膽B(tài)度、科學的視角、負責任的行為來應對。我們需要量化風險,明確責任,以便在面對未知的未來時,能夠做出明智的決策,確保我們的行動是在一個安全、可控的環(huán)境中進行的。讓我們立即行動起來,共同應對AI的風險,為我們的未來創(chuàng)造一個更美好的世界。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2025-05-13
AI 風險如核試驗,麻省理工教授呼吁:量化失控,立即行動
AI風險如核試驗,麻省理工教授呼吁:量化失控,立即行動 隨著人工智能(AI)技術(shù)的飛速發(fā)展,我們正面臨著一個前所未有的挑戰(zhàn)和機遇。近日...

長按掃碼 閱讀全文