標題:Meta大刀闊斧:90%產品風險評估交由AI,人工審核成歷史?
社交媒體巨頭Meta正計劃將其產品潛在風險評估的任務從人工審核轉向更多依賴人工智能(AI),這一舉措引發(fā)了廣泛關注。據美國國家公共廣播電臺(NPR)報道,Meta的目標是讓高達90%的風險評估工作由AI完成,甚至包括涉及青少年風險和“誠信”領域的評估。然而,與NPR交流的現(xiàn)任和前任Meta員工警告稱,AI可能會忽視一些人工團隊能夠識別的嚴重風險。
在過去的幾年里,Meta旗下的Instagram和WhatsApp等平臺已經形成了自己的審核機制,在產品更新和新功能推出之前,都會經過人工審核。然而,Meta最近兩個月大幅增加了對AI的使用,產品團隊需要填寫一份關于其產品的調查問卷,并提交給AI系統(tǒng)進行審核。該系統(tǒng)通常會提供“即時決策”,指出其識別出的風險領域。產品團隊隨后需要解決AI提出的要求,才能發(fā)布產品。
盡管有人認為減少審核力度意味著“你正在創(chuàng)造更高的風險”,但Meta在聲明中回應稱,公司仍會利用“人類專業(yè)知識”來評估“新穎且復雜的問題”,而將“低風險決策”交給AI處理。然而,Meta最近公布的誠信報告顯示,政策調整后被刪除的內容數(shù)量有所下降,但霸凌和騷擾行為、以及暴力和血腥內容卻略有上升。這一現(xiàn)象引發(fā)了人們對AI審核效果的質疑。
首先,我們需要明確的是,AI在風險評估方面具有一定的優(yōu)勢。它能夠快速處理大量數(shù)據,進行模式識別和預測分析,這對于一些簡單、常見的問題識別具有很高的準確性。然而,AI的局限性也十分明顯。它缺乏人類的情感、判斷力和語境理解能力,因此在處理復雜、模糊或涉及主觀判斷的問題時,可能會出現(xiàn)偏差。此外,AI也無法處理一些涉及人類行為和社會現(xiàn)象的問題,這些問題往往需要人類的洞察力和專業(yè)知識。
其次,我們需要考慮的是AI審核的效果是否能夠完全替代人工審核。雖然人工審核在某些方面具有優(yōu)勢,如對細節(jié)的關注、對文化背景的理解等,但人工審核也存在一些問題,如疲勞、主觀性、情感干擾等。而AI審核可以提供一種更加客觀、準確和高效的風險評估方式,特別是在處理復雜和模糊問題時。因此,將AI審核與人工審核相結合,可以更好地平衡風險和用戶體驗,提供更加全面和準確的風險評估。
最后,我們需要考慮的是如何確保AI審核的公正性和透明度。在將風險評估任務交給AI處理時,必須確保算法的公正性和透明度,避免潛在的偏見和歧視問題。同時,也需要建立有效的反饋機制,及時發(fā)現(xiàn)和糾正AI審核中的問題,提高其準確性和可靠性。
總之,Meta大刀闊斧地將90%的產品風險評估交由AI處理,這一舉措引發(fā)了廣泛關注。雖然AI在風險評估方面具有一定的優(yōu)勢,但也存在局限性。因此,將AI審核與人工審核相結合,并確保其公正性和透明度,是未來社交媒體平臺風險評估的重要方向。同時,我們也需要關注政策調整后被刪除的內容數(shù)量下降但霸凌和騷擾行為、暴力和血腥內容卻略有上升的現(xiàn)象,這需要我們進一步研究和探討。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )