網(wǎng)上沖浪,,親耳聽到的就是真的嗎,?未必。網(wǎng)絡平臺上,AI聲音隨處可見。“新華視點”記者調(diào)查發(fā)現(xiàn),隨著人工智能技術(shù)和語音大模型應用的發(fā)展,,AI合成聲音App大量出現(xiàn),最快只需十幾秒便可“克隆”出來,。與此同時,,AI聲音濫用現(xiàn)象愈發(fā)突出。(2月13日新華社)
過去,,人們總是篤信自己親眼看到的,、親耳聽到的信息。但這些年,,“有圖有聲有真相”這一判斷標準一再受到?jīng)_擊,,你以為的事實很可能是由AI生成的。隨手打開一個短視頻平臺,,并以“AI聲音克隆”為關(guān)鍵詞檢索發(fā)現(xiàn),,明星翻唱,、新聞播報、吐槽點評等大量視頻涉及AI聲音,,混淆公眾認知,。“假趙本山”用英文演小品,、“假雷軍”辣評熱點話題,、“假張文宏”深夜直播帶貨……越來越多人借著AI模擬名人聲音招搖撞騙,逼真程度堪比真人,、叫人難以招架,。
技術(shù)在狂飆,風險也在加劇,。用張文宏的話說,,這些假的AI合成信息,就像漫天飛過來的“蝗蟲”一樣害人,。今天可以模仿名人逗你一笑,或是借網(wǎng)紅明星之口引流帶貨,,明天就有可能用你的聲音“移花接木”,,為網(wǎng)絡詐騙埋雷。這并非危言聳聽,。據(jù)新聞報道,,有不法分子通過“AI換聲”仿冒一位老人的孫子,詐騙老人2萬元,,類似的詐騙案件在全國已發(fā)生多起,,有的詐騙金額甚至達到上百萬元。此類案件提醒我們,,在泛濫的“一鍵變聲”面前,,每個人都可能成為“受害者”。技術(shù)濫用對普通人造成的安全隱患和威脅,,絕對不容小覷,。
以上種種也表明,對AI聲音進行規(guī)范管理,,必要且緊迫,。近年來,有關(guān)主管部門出臺《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》等規(guī)定,,一定程度上給AI技術(shù)使用畫定了紅線,。然而,落腳到現(xiàn)實操作中,,對于AI聲音應用涉及的造謠侵權(quán),、道德倫理等問題,,如何形成具體細化的規(guī)則,還有待進一步思考,。此外,,短視頻平臺對AI內(nèi)容審核機制滯后,部分侵權(quán)內(nèi)容在投訴后仍反復出現(xiàn),。這需要相關(guān)部門繼續(xù)加大對濫用AI聲音侵權(quán)的打擊力度,、形成更完善的常態(tài)化治理機制,也需要平臺“用魔法打敗魔法”,、不斷升級更新審核檢測技術(shù),,以應對層出不窮的AI仿聲騙局。
上一條:
下一條:
烏海市人民政府辦公室 主辦 烏海市大數(shù)據(jù)中心 維護
地址:內(nèi)蒙古烏海市海勃灣區(qū)濱河區(qū)市行政中心 郵編:016000蒙公網(wǎng)安備:15030202000006蒙ICP備05000809號 政府網(wǎng)站標識碼:1503000001
網(wǎng)站有害信息舉報及維護電話:0473-3998316,,郵箱:[email protected]