人工智能偏見(jiàn)是一個(gè)嚴(yán)重的問(wèn)題,可能對(duì)個(gè)人產(chǎn)生各種后果。
隨著人工智能的發(fā)展,圍繞數(shù)據(jù)科學(xué)解決方案的問(wèn)題和道德困境開(kāi)始浮出水面。因?yàn)槿祟愐呀?jīng)將自己排除在決策過(guò)程之外,他們希望確保這些算法做出的判斷既不帶有偏見(jiàn),也不帶有歧視性。人工智能必須在任何時(shí)候都受到監(jiān)督。我們不能說(shuō)這種可能的偏見(jiàn)是由人工智能引起的,因?yàn)槠涫且粋€(gè)基于預(yù)測(cè)分析的數(shù)字系統(tǒng),可以處理大量數(shù)據(jù)。這個(gè)問(wèn)題在更早的時(shí)候就開(kāi)始了,即“輸入”到系統(tǒng)中的無(wú)監(jiān)督數(shù)據(jù)。縱觀歷史,人類一直存有偏見(jiàn)和歧視。我們的行動(dòng)似乎不會(huì)很快改變。在系統(tǒng)和算法中發(fā)現(xiàn)了偏見(jiàn),與人類不同,這些系統(tǒng)和算法似乎對(duì)這個(gè)問(wèn)題免疫。什么是人工智能偏見(jiàn)?當(dāng)獲取數(shù)據(jù)的方式導(dǎo)致樣本不能正確代表利益群體時(shí),AI偏差就會(huì)在數(shù)據(jù)相關(guān)領(lǐng)域發(fā)生。這表明來(lái)自特定種族、信仰、膚色和性別的人,在數(shù)據(jù)樣本中沒(méi)有得到充分代表。這可能會(huì)導(dǎo)致系統(tǒng)做出鑒別性的結(jié)論。還引發(fā)了關(guān)于什么是數(shù)據(jù)科學(xué)咨詢以及其的重要性的問(wèn)題。AI中的偏見(jiàn)并不意味著創(chuàng)建的AI系統(tǒng)會(huì)故意偏向于特定的人群。人工智能的目標(biāo)是使個(gè)人能夠通過(guò)示例而不是指令來(lái)表達(dá)他們的愿望。所以,如果AI有偏差,那只能是因?yàn)閿?shù)據(jù)有偏差!人工智能決策是一個(gè)在現(xiàn)實(shí)世界中運(yùn)行的理想化過(guò)程,其無(wú)法掩蓋人類的缺陷。結(jié)合引導(dǎo)學(xué)習(xí)也是有利的。為什么會(huì)發(fā)生?人工智能偏見(jiàn)問(wèn)題的出現(xiàn)是由于數(shù)據(jù)可能包含基于先入為主的人類選擇,這有利于得出良好的算法結(jié)論。在現(xiàn)實(shí)生活中,有幾個(gè)關(guān)于人工智能偏見(jiàn)的例子。種族人士和著名的變裝皇后被谷歌的仇恨言論檢測(cè)系統(tǒng)歧視。10年來(lái),亞馬遜的人力資源算法主要是提供男性員工數(shù)據(jù),這導(dǎo)致女性候選人更有可能被評(píng)為符合亞馬遜的工作資格。麻省理工學(xué)院(MIT)的數(shù)據(jù)科學(xué)家表示,人臉識(shí)別算法在分析少數(shù)族裔(尤其是少數(shù)族裔女性)的面孔時(shí),出錯(cuò)率更高。這可能是因?yàn)樵撍惴ㄔ谟?xùn)練過(guò)程中主要提供了白人男性的面孔。由于亞馬遜的算法是根據(jù)其在美國(guó)的1.12億Prime用戶,以及數(shù)千萬(wàn)經(jīng)常光顧該網(wǎng)站,并經(jīng)常使用其其他商品的額外個(gè)人的數(shù)據(jù)進(jìn)行訓(xùn)練的,因此該公司可以預(yù)測(cè)消費(fèi)者的購(gòu)買(mǎi)行為。谷歌的廣告業(yè)務(wù)是基于預(yù)測(cè)算法的,該算法由其每天進(jìn)行的數(shù)十億次互聯(lián)網(wǎng)搜索以及市場(chǎng)上25億部Android智能手機(jī)的數(shù)據(jù)提供。這些互聯(lián)網(wǎng)巨頭建立了龐大的數(shù)據(jù)壟斷企業(yè),在人工智能領(lǐng)域擁有近乎不可逾越的優(yōu)勢(shì)。合成數(shù)據(jù)如何幫助解決人工智能偏見(jiàn)?在一個(gè)理想的社會(huì)中,沒(méi)有人會(huì)受到偏見(jiàn),每個(gè)人都將擁有平等的機(jī)會(huì),無(wú)論膚色、性別、宗教或性取向。然而,其存在于現(xiàn)實(shí)世界中,那些在某些地區(qū)與大多數(shù)人不同的人更難找到工作和獲得教育,這使他們?cè)谠S多統(tǒng)計(jì)數(shù)據(jù)中被低估。根據(jù)人工智能系統(tǒng)的目標(biāo),這可能會(huì)導(dǎo)致錯(cuò)誤的推斷,即這類人技能較低,不太容易被納入這些數(shù)據(jù)集,以及不太適合獲得良好的分?jǐn)?shù)。另一方面,人工智能數(shù)據(jù)可能是朝著公正的人工智能方向邁出的一大步。以下是一些需要考慮的概念:查看現(xiàn)實(shí)世界的數(shù)據(jù),看看偏差在哪里。然后,利用真實(shí)世界的數(shù)據(jù)和可觀察到的偏差,合成數(shù)據(jù)。如果想要?jiǎng)?chuàng)建理想的虛擬數(shù)據(jù)生成器,需要包含一個(gè)公平定義,其可試圖將有偏差的數(shù)據(jù)轉(zhuǎn)換為可能被認(rèn)為是公平的數(shù)據(jù)。人工智能生成的數(shù)據(jù)可能會(huì)填補(bǔ)數(shù)據(jù)集中變化不大或不夠大的空白,從而形成一個(gè)公正的數(shù)據(jù)集。即使樣本量很大,也有可能有些人被排除在外,或者與其他人相比,代表性不足。這個(gè)問(wèn)題必須使用合成數(shù)據(jù)來(lái)解決。數(shù)據(jù)挖掘可能比生成公正的數(shù)據(jù)更昂貴。實(shí)際的數(shù)據(jù)收集需要測(cè)量、采訪、大量的樣本,并且無(wú)論如何都需要付出很多努力。人工智能生成的數(shù)據(jù)價(jià)格低廉,而且只需要使用數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)算法即可。
過(guò)去幾年,許多盈利性合成數(shù)據(jù)公司以及Synthea的創(chuàng)始人MitreCorp.的高管都注意到,人們對(duì)他們的服務(wù)的興趣激增。然而,隨著算法被更廣泛地用于做出改變生活的決定,人們發(fā)現(xiàn)它們會(huì)加劇種族主義、性別歧視和其他高影響領(lǐng)域的有害偏見(jiàn),包括面部識(shí)別、犯罪預(yù)測(cè)和醫(yī)療保健決策。研究人員表示,使用算法生成的數(shù)據(jù)訓(xùn)練算法,會(huì)增加人工智能系統(tǒng)在許多情況下延續(xù)有害偏見(jiàn)的可能性。- 智能數(shù)據(jù)云如何重塑企業(yè)個(gè)性化
- 建筑物內(nèi)移動(dòng)覆蓋的電信基礎(chǔ)設(shè)施及其挑戰(zhàn)
- 如何利用人工智能和數(shù)據(jù)分析實(shí)現(xiàn)可持續(xù)綠色技術(shù)
- 了解網(wǎng)絡(luò)適配器:提高計(jì)算機(jī)網(wǎng)絡(luò)效率
- 如何為布線環(huán)境選擇合適的網(wǎng)絡(luò)電纜標(biāo)簽
- 無(wú)線前傳的核心:CPRI無(wú)線模塊全面介紹
- 量子計(jì)算如何改善供應(yīng)鏈
- 大疆創(chuàng)新即將發(fā)布新品;CTI收購(gòu)英國(guó)Candeo Vision 拓展歐洲視聽(tīng)集成市場(chǎng)——2025年06月06日
- 采用機(jī)器學(xué)習(xí)的3大挑戰(zhàn)及應(yīng)對(duì)策略
- 構(gòu)建工業(yè)物聯(lián)網(wǎng)能源監(jiān)控應(yīng)用的最佳實(shí)踐
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。