10月25日消息,由聲網(wǎng)和RTE開發(fā)者社區(qū)聯(lián)合主辦的RTE2023第九屆實時互聯(lián)網(wǎng)大會于昨日開幕。大會上,眾多RTE領域技術專家、產(chǎn)品精英、創(chuàng)業(yè)者、開發(fā)者一起對AIGC、出海、數(shù)字化轉型等時下熱門話題進行了探討。
聲網(wǎng)創(chuàng)始人兼CEO趙斌在大會開場演講中宣布,“聲網(wǎng)在RTE行業(yè)首次實現(xiàn)廣播級4K超高清實時互動體驗。”他指出, “4K不僅僅只有分辨率一個緯度,光亮強度的動態(tài)范圍、色彩的真實度、飽和度,以及色彩漸變的細膩程度,都是真正超高清體驗里不可或缺的一環(huán)?!睆V播級超高清可以帶來更加逼真的視覺效果,高對比度和豐富的色彩表現(xiàn)可以使影像更加生動,細節(jié)更加清晰,并以此提升觀影體驗。
趙斌認為,虛擬人+AIGC所創(chuàng)造的情感和情緒價值或將在未來解決社交供需不平衡的現(xiàn)狀,并引領交互對象發(fā)生變化。另一層面,隨著AIGC能力的進一步加強,越來越多的應用型開發(fā)將被AIGC替代,API+AI的形式將大幅提高應用開發(fā)效率。
大模型在快速發(fā)展,但交互界面仍局限于文字聊天互動方式。趙斌提到,通過過去一年的投入和打磨,聲網(wǎng)推出行業(yè)首創(chuàng)AIGC-RTC能力模塊,可支持與任何大模型平臺結合,實現(xiàn)更低延時、更自然、更沉浸的實時語音對話,為企業(yè)協(xié)作、社交 、直播、游戲等多種場景提供新玩法、新機會。
在AI等核心技術驅動下,實時互動QoE體驗的變化對于用戶留存和使用行為的影響日益增強。聲網(wǎng)合伙人兼客戶成功副總裁孫雨潤介紹,“根據(jù)聲網(wǎng)某東南亞頭部泛娛樂客戶數(shù)據(jù)顯示,當視頻從標清升級高清,停留超過30秒觀眾數(shù)提升19%,觀眾人均觀看時長提升30%,同時觀眾打賞率大幅提升。某國內(nèi)知名社交出海App,從CDN 升級聲網(wǎng)極速直播,送禮率增長 12.3%。”
AI如何賦能RTE未來
AIGC被認為是當前的技術革命,它與RTE的深度結合,又將帶來什么改變呢?Founders Space創(chuàng)始人兼CEO史蒂夫·霍夫曼在分享中指出:“人工智能將對許多領域產(chǎn)生影響,在AI賦能的RTE未來,我們將看到每個人都會擁有更加個性化的體驗,更加動態(tài)的程序將隨著圖形、音頻、視頻的實時變化而變化,AI將為我們帶來前所未有的連接方式。在更深層次上,AI還將為人類增加更多的生產(chǎn)力水平,帶來動態(tài)的虛擬世界等等,讓我們感受到更多的沉浸體驗?!?/p>
史蒂夫·霍夫曼表示:“在AI和RTE技術的加持下,新的穿戴設備可能會進入市場,比如新的皮膚電子設備、感官增強設備等,它可以讓我們聽到人類聽力范圍之外的頻率。此外,腦機接口也將讀取我們的腦電波,從而幫助我們實現(xiàn)冥想或對其他設備的控制?!痹诠I(yè)RTE場景應用下,人們可以聚在一起,實時通過虛擬或真實工廠觀看流水線運作、產(chǎn)品生產(chǎn)等。在AI陪伴場景中,人工智能伴侶這一概念將成為人們社交生活、娛樂、事業(yè)的一部分。
綜上,未來可能會有各種類型的伴侶應用以及新的實時接口方式出現(xiàn),甚至會出現(xiàn)一套為RTE開發(fā)的全新硬件,這些都將極大改變RTE領域的發(fā)展前景。
AI時代 實時互動何去何從
AI時代已經(jīng)來臨,實時互動該何去何從?聲網(wǎng)首席科學家、CTO鐘聲從技術角度進行了深度分享。
鐘聲指出,回溯過去五年,最典型的事件就是大模型的突破,從2017年的Transformer,到如今的ChatGPT-4,人工智能的發(fā)展,讓信息傳播和消費智能化的趨勢越來越明顯,萬事歸于中心化AGI接管的趨勢和威脅也越來越明顯。大模型在帶來發(fā)展機遇的同時,也帶來了計算需求快速增長、算力受能源供給力限制、大模型數(shù)據(jù)資源不夠、存儲需求增長過快等問題。未來,我們除了要做負責任的AI之外,在端上和邊緣上的分布式實時智能將成為價值公平分配的重要技術手段,也是減緩中心化AGI對人類威脅的有效途徑,這也注定會成為一個新的技術發(fā)展趨勢。
鐘聲認為,AGI將走進實時互動,實現(xiàn)人人可分身,幫助在應用場景中復制名師、網(wǎng)紅,甚至普通人也將通過AI分身豐富體驗、緩解時間稀缺的瓶頸。此外,他預測,具備端邊實時智能的高清實時互動能力將成新趨勢和競爭焦點。
鐘聲介紹到,實時高清需要許多端上實時AI,在Low Level Vision and Audio這一需求層面,聲網(wǎng)的SDK 4.1.x, 4.2.x版本已經(jīng)可以支持1080P/4K視頻的例如超分、虛擬背景、感知編碼、降噪、去回聲等底層計算機視覺處理和高音質的計算機聽覺處理能力。在High Level Vision and Audio層面,聲網(wǎng)已經(jīng)部分實現(xiàn)對物體、聲音、場景的理解和重構能力,包括面捕、動捕、情感計算,物體識別和場景重建等,可以大力改善多種應用場景下的用戶體驗。
AI如何賦能實時互動體驗改善及場景升級?
AI技術的發(fā)展為各行各業(yè)帶來了用戶體驗改善和場景玩法創(chuàng)新。針對這一話題,喜馬拉雅首席科學家盧恒、Soul APP技術副總裁張高政、小紅書音視頻架構負責人陳靖、商湯科技商務總監(jiān) 數(shù)字文娛事業(yè)部副總裁李星冶、聲網(wǎng)首席運營官劉斌進行了圓桌討論。
談到AI技術對業(yè)務發(fā)展的影響時,盧恒表示,作為全國最大的有聲內(nèi)容平臺,喜馬拉雅從文本處理到音頻內(nèi)容生成的過程中都使用了大量的AI技術,目前,AIGC生成的音頻內(nèi)容日均播放量已超過250萬小時。張高政則表示,大模型的理解能力對于UGC平臺及用戶來說都非常有利,它不僅可以快速提升內(nèi)容生產(chǎn)效率,還能降低內(nèi)容生產(chǎn)門檻。
AI大模型的發(fā)展是機遇與挑戰(zhàn)并存的。陳靖指出,對于很多公司而言,說清楚一些AI大模型項目的必要性是一個巨大挑戰(zhàn),很多項目并不像利用AI去做體驗增強那樣,能夠跟用戶留存及轉化的一些指標建立關聯(lián)。李星冶則表示,他所看到的挑戰(zhàn)有兩點。其一,在為許多C端流量產(chǎn)品提供服務時,算力、帶寬、智力相關的彈性儲備是一個很現(xiàn)實的挑戰(zhàn),其二,大模型開發(fā)廠商如何平衡投入以及預期收入之間的關系,也是一個挑戰(zhàn)。各位嘉賓還分享了AI大模型在實時互動領域的一些玩法創(chuàng)新,其中陳靖提到,提高主播觀看率的美顏美體功能可能是過去AI為實時互動領域貢獻最大價值的場景,希望今后會看到更多新的嘗試。
如劉斌所總結的,無論未來是挑戰(zhàn)還是機遇,我們都應該在各自行業(yè)里去努力嘗試。我們也期待,在大模型新的范式發(fā)展下,看到越來越多的場景落地及業(yè)務價值。
- 《黑神話:悟空》PS5國行版將于6月18日正式發(fā)售,建議零售價268元起
- 報告:2029年美國AI搜索廣告支出將達260億美元,占比13.6%
- 重塑內(nèi)生安全體系 實現(xiàn)AI時代安全突圍 ——2025北京網(wǎng)絡安全大會(BCS)開幕
- 門禁憑證技術進化簡史:開啟更加安全和便利的未來
- Google I/O 大會:科技盛宴,引領未來創(chuàng)新潮流
- 馬蜂窩端午出行大數(shù)據(jù):短途周邊游是主流,非遺民俗關注度持續(xù)走高
- 微軟裁員6000人原因揭曉 AI沖擊首當其沖
- 騰訊音樂2025Q1業(yè)績持續(xù)高質量增長:在線音樂服務收入達58億元,同比增長15.9%
- 硅谷巨頭庭審吐真言:未來10年Meta、谷歌搜索、iPhone或成歷史
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。