當AI如ChatGPT在2022年末突然嶄露頭角時,不僅展現了AI的驚人進步,還描繪出了一個充滿可能性的未來,重新定義著我們的工作、學習和娛樂方式。盡管AI的潛力對許多人來說顯而易見,但其中隱藏了一些棘手的倫理和風險問題。
應對這些風險就像解開一幅巨大的拼圖,這幅拼圖定義著我們的時代。因此,許多AI領域的專家正積極倡導制定一些基本規(guī)則,以確保AI的使用受到約束。畢竟,AI的應用不僅僅是口號,它已經變得至關重要。
我們正在深入研究專家們的見解,解開圍繞他們的道德困境,并研究如何影響人工智能和其他技術的未來。
倫理與偏見
人工智能系統需要使用數據進行訓練。但數據集往往是由有偏見或不準確的人制作的。因此,人工智能系統會使偏見長期存在。在招聘實踐和刑事司法中尤其如此,管理這些偏見可能很困難。
IEEE高級會員Kayne McGladrey表示:“我們可以手動或自動審計軟件代碼中的隱私缺陷。同樣,我們可以審計軟件代碼的安全缺陷。但是,我們目前無法審計軟件代碼是否存在道德缺陷或偏見,即將出臺的大部分法規(guī)將對人工智能模型的結果進行歧視性篩選?!?/p>
改變工作方式
隨著生成人工智能的興起,公司正在重新構想如何完成工作。雖然很少有人認為需要創(chuàng)造力和判斷力的工作可以完全自動化,但人工智能可以提供幫助。例如,當作家陷入困境時,生成型人工智能可以提供對話想法。它不能充當你的律師,但一個好的律師可以利用生成人工智能來撰寫動議的初稿,或進行研究。
IEEE會員Todd Richmond說:“我們需要共同弄清楚什么是“人類的努力”,我們愿意把什么交給算法,比如制作音樂、電影、行醫(yī)等?!?/p>
在全球技術領袖的調查(https://transmitter.ieee.org/impact-of-technology-2024/)中,其中50%的受訪者表示,將AI整合到現有工作流程中存在困難,是他們對于在2024年使用生成式AI的前三大擔憂之一。
準確性和過度依賴性
生成型人工智能可以”自信”地闡述事實,但問題是這些事實并不總是準確的。對于所有形式的人工智能,很難弄清楚該軟件究竟是如何得出結論的。
在調查中,59%的受訪者表示,“過度依賴人工智能和其潛在的不準確性”是他們組織中人工智能使用的首要問題。
部分問題在于訓練數據本身可能不準確。
IEEE終身會士Paul Nikolich說:“驗證訓練數據很困難,因為來源不可用,且訓練數據量巨大。”
人工智能可能越來越多地被用于關鍵任務、拯救生命的應用。
“在我們使用人工智能系統之前,我們必須相信這些人工智能系統將安全且按預期運行,”IEEE會士Houbing Song說。
在2024年及以后,預計將大力確保人工智能結果更加準確,用于訓練人工智能模型的數據是干凈的。
了解更多:IEEE計算機雜志(https://www.computer.org/csdl/magazine/co/2023/11/10286256/1Rin0jmNnDW)的一篇新文章認為,人工智能的發(fā)展必須以保護隱私、公民權利和公民自由的方式進行,同時也要促進公平、問責、透明和平等的原則。
- 破浪AI時代:中國聯通與華為的“智聯共生”新征程
- 中國廣電宋起柱:呼吁加強算力基礎設施共建共享合作
- 成功入選!通鼎旗下三項技術產品入選江蘇省“三首兩新”擬認定技術產品名單
- 英國寬帶市場進入深度整合期 老牌運營商BT如何破局?
- T-Mobile攜手Starlink在全美范圍推出T-Satellite衛(wèi)星服務
- T-Mobile攜手Starlink在全美范圍推出T-Satellite衛(wèi)星服務
- 加碼AI戰(zhàn)略布局 谷歌母公司全年資本支出上調至850億美元
- 美國發(fā)布AI國家戰(zhàn)略:以三大支柱打造AI霸權
- Q2中國智能手機出貨量同比下降2.4%,華為連續(xù)兩個季度保持領先
- Dell'Oro報告:6G到來之前 全球RAN市場將達1600億美元
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。