北京時(shí)間5月18日下午消息(蔣均牧)微軟支持的OpenAI首席執(zhí)行官山姆·阿爾特曼(Sam Altman)呼吁美國監(jiān)管高級(jí)大型語言模型的部署,警告沒有堅(jiān)實(shí)的政策框架的生成式人工智能的危險(xiǎn)。
在與美國參議院討論生成式AI治理的聽證會(huì)上,阿爾特曼認(rèn)為,隨著對(duì)社會(huì)威脅的擔(dān)憂日益加劇,監(jiān)管對(duì)于減輕日益強(qiáng)大的模型帶來的風(fēng)險(xiǎn)至關(guān)重要。
在他的證詞中討論的威脅,集中在與OpenAI如何訓(xùn)練其模型相關(guān)的錯(cuò)誤信息的傳播和違反數(shù)據(jù)隱私法。
參議員理查德·布盧門撒爾(Richard Blumenthal)在聽證會(huì)上表示,未經(jīng)充分訓(xùn)練的人工智能的前景“非??膳?rdquo;,并認(rèn)為新技術(shù)必須“擔(dān)負(fù)責(zé)任”。
他指出,OpenAI的ChatGPT具有模仿和模擬真實(shí)人類互動(dòng)的能力,他以一段由經(jīng)過語音訓(xùn)練的模型生成的語音開始了他的證詞。
阿爾特曼建議稱,成立一個(gè)政府機(jī)構(gòu)來監(jiān)管人工智能的訓(xùn)練和部署將有助于開發(fā),并解釋了對(duì)于開發(fā)者“許可和測(cè)試要求相結(jié)合”的必要性。
他還提議吊銷開發(fā)超出某些“閾值”或“能力”的人工智能工具的開發(fā)者的許可,例如能自我復(fù)制或產(chǎn)生有害內(nèi)容的模型。
阿爾特曼主張圍繞機(jī)器學(xué)習(xí)工具如何從互聯(lián)網(wǎng)手機(jī)數(shù)據(jù)以生成響應(yīng)來制定管理規(guī)則。
“用戶應(yīng)該能選擇不讓我們這樣的公司或其他社交媒體公司使用他們的數(shù)據(jù)。”他補(bǔ)充道。
- 如何利用人工智能為企業(yè)提供更智能的決策?
- 人工智能與人類智能有何不同
- 合成數(shù)據(jù):可擴(kuò)展、安全且無偏見的人工智能開發(fā)的關(guān)鍵
- 人工智能、基礎(chǔ)模型和數(shù)字平臺(tái)如何重塑醫(yī)療保健
- 從云端遷回本地托管時(shí)需要考慮的事項(xiàng)
- 20個(gè)值得關(guān)注的量子計(jì)算實(shí)際應(yīng)用
- 現(xiàn)代基礎(chǔ)設(shè)施的8個(gè)必備數(shù)據(jù)中心組件
- 工業(yè)4.0工業(yè)交換機(jī)的五大特點(diǎn)
- 云安全挑戰(zhàn):從API管理開始到結(jié)束
- 將物聯(lián)網(wǎng)與傳統(tǒng)設(shè)備集成:為現(xiàn)有機(jī)器進(jìn)行智能操作改造
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。