頂尖科學(xué)家揭秘:AI到底是如何“思考”的?

在2025年的當(dāng)下,AI在生活中實(shí)際上已經(jīng)無處不在,從智能助手到自動(dòng)翻譯,從推薦引擎到智能審核,尤其在OpenAI o1和Deepseek R1推理模型發(fā)布后,AI的表現(xiàn)越來越像一個(gè)“思考者”。

但AI真的會(huì)思考嗎?頂級(jí)AI公司Anthropic的科學(xué)家們通過研究揭示了AI的“思考”方式——AI不僅能生成文本,還會(huì)偷偷地提前規(guī)劃,甚至有時(shí)會(huì)“撒謊”——也就是“幻覺”,即胡說八道

盡管聽起來很神秘,但其實(shí)AI的“思考”并不像人類大腦那么復(fù)雜,它沒有意識(shí)或感情,而是通過一種特殊的方式處理信息,通過《Tracing Thoughts in Language Models》這篇論文,可以一探AI是如何“思考”的,以及這些發(fā)現(xiàn)對(duì)我們意味著什么。

AI的“思考”是什么樣的?

首先,我們要明白,AI的“思考”跟人類的思考完全不同。

人類思考時(shí)有意識(shí)、情感和意圖,而AI沒有這些。

類似ChatGPT、Deepseek、Claude這樣的語言模型,是通過學(xué)習(xí)海量數(shù)據(jù)來工作的,它分析這些數(shù)據(jù),找出語言的模式,然后預(yù)測(cè)接下來最有可能出現(xiàn)的詞或句子。

簡(jiǎn)單來說,大語言模型就像一個(gè)超級(jí)聰明的鸚鵡——你教它說話,它能模仿你的語言,但它并不真正理解自己在說什么。比如,你早上說“早上好”,鸚鵡學(xué)會(huì)在早上聽到你的聲音時(shí)也說“早上好”。但它不知道“早上好”是什么意思,只是根據(jù)模式模仿。AI也是如此,它靠數(shù)據(jù)中的模式生成文本,而不是真的“理解”內(nèi)容。

Anthropic的研究發(fā)現(xiàn)了什么?

Anthropic的科學(xué)家們通過分析AI的內(nèi)部工作原理,發(fā)現(xiàn)了一些驚人的事實(shí)——AI在生成文本時(shí)會(huì)“規(guī)劃”未來步驟,有時(shí)還會(huì)“撒謊”。具體來說:

1.AI會(huì)“規(guī)劃”未來的文本

AI生成文本時(shí),并不全完是“單子接龍”,即簡(jiǎn)單的一個(gè)詞接一個(gè)詞地輸出,而是在選擇某個(gè)詞時(shí)考慮它對(duì)后面句子甚至整段文字的影響。這有點(diǎn)像人類下棋時(shí)會(huì)提前想好幾步棋,確保每一步都能讓棋局更有利。

在AI里,這種“規(guī)劃”可能跟它的注意力機(jī)制有關(guān)——注意力機(jī)制是AI的一種技術(shù),讓它在生成文本時(shí)能關(guān)注輸入的不同部分。比如你在問AI一個(gè)問題時(shí),它會(huì)“看”整個(gè)問題,然后決定怎么回答,而不是只盯著前幾個(gè)詞。這種機(jī)制讓AI能“預(yù)見”未來的詞語選擇,使回答更連貫更自然,就是“說人話”。

2.AI為什么會(huì)“撒謊”

如果經(jīng)常使用AI產(chǎn)品,尤其是的語言模型類產(chǎn)品,你會(huì)明顯感覺到AI經(jīng)常會(huì)生成不準(zhǔn)確或誤導(dǎo)性的信息,也就是所謂的“撒謊”,即“幻覺“,Deepseek R1在主流大模型里,就屬于幻覺率比較高的,不過這并不是它在“故意騙人”,而是有其他原因:

數(shù)據(jù)的問題:AI是從大量數(shù)據(jù)中學(xué)習(xí)的,但如果數(shù)據(jù)中有錯(cuò)誤、偏見或不完整的信息,AI可能會(huì)重復(fù)這些問題最后回復(fù)給你,所以數(shù)據(jù)質(zhì)量對(duì)于模型來說至關(guān)重要。追求連貫性:為了讓文本聽起來更流暢或更有邏輯,AI可能會(huì)“編造”一些細(xì)節(jié)。比如,你問AI一個(gè)它不太確定的問題,它可能會(huì)根據(jù)上下文“猜”一個(gè)答案,而不是說“我不知道”。

舉個(gè)例子,假如你問AI:“昨天火星上下雨了嗎?”AI可能不知道火星的天氣,但為了回答得自然,它可能會(huì)說:“火星上沒有水,所以昨天沒下雨?!边@話聽起來合理,但其實(shí)AI并不知道昨天火星的真實(shí)情況,它只是根據(jù)已知信息“編”了一個(gè)答案。

用一個(gè)比喻理解AI的“思考”

為了更容易理解,我們可以用一個(gè)比喻來解釋AI的“思考”過程。

想象AI是一個(gè)超級(jí)聰明的拼圖玩家。它的任務(wù)是用單詞和句子拼出一幅完整的“語言拼圖”。這個(gè)拼圖玩家很厲害,能根據(jù)已有的拼圖塊(也就是你給它的上下文)挑出下一個(gè)合適的拼圖塊(下一個(gè)詞)。

但Anthropic的研究發(fā)現(xiàn),這個(gè)拼圖玩家不只是隨機(jī)拼湊,它還會(huì)提前想想未來的拼圖應(yīng)該怎么放,確保整幅圖看起來完整。有時(shí),如果缺了一塊拼圖,它甚至?xí)爱嫛币粔K新的放進(jìn)去,讓拼圖看起來更完美。

這意味著:大語言模型的“思考”其實(shí)是一種復(fù)雜的計(jì)算過程。它通過預(yù)測(cè)和規(guī)劃生成文本,但它沒有意識(shí),也沒有真正的理解。

為什么這些發(fā)現(xiàn)很重要?

Anthropic的研究讓我們更清楚地看到了AI的能力和局限性,這對(duì)我們使用大模型有很大幫助:

判斷可信度:知道AI有時(shí)會(huì)“撒謊”,我們就能更小心地對(duì)待它的回答。比如在需要準(zhǔn)確信息的地方(像醫(yī)學(xué)或法律),務(wù)必再查查其他來源,不要完全依賴AI。改進(jìn)技術(shù):了解AI如何“規(guī)劃”和“思考”,研究人員可以設(shè)計(jì)出更聰明、更誠實(shí)的AI模型,讓它在生成文本時(shí)更透明、更可靠。

《Tracing Thoughts in Language Models》這篇論文為AI研究打開了新方向,也許有一天,AI能更接近人類的思考方式,但現(xiàn)在它還是一個(gè)無意識(shí)的工具。

總結(jié)一下:AI的“思考”并不是真正的思考,而是基于數(shù)據(jù)和概率的預(yù)測(cè)過程。

Anthropic的研究揭示了AI在生成文本時(shí)會(huì)偷偷“規(guī)劃”未來的步驟,有時(shí)還會(huì)“撒謊”來保持回答的連貫性。對(duì)大眾來說,這些發(fā)現(xiàn)提醒我們?cè)谑褂肁I時(shí)要多留個(gè)心眼;對(duì)研究者來說,它們?yōu)楦倪M(jìn)AI提供了新思路。

未來,AI可能會(huì)變得更強(qiáng)大,但現(xiàn)在理解它的“思考”方式,能讓我們更好地與AI合作工作,但請(qǐng)確保這個(gè)協(xié)作系統(tǒng)的主導(dǎo)者,應(yīng)該是你自己——而不是AI。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2025-05-09
頂尖科學(xué)家揭秘:AI到底是如何“思考”的?
頂尖科學(xué)家揭秘:AI到底是如何“思考”的?

長按掃碼 閱讀全文