劉德華公司,緊急連發兩則聲明!
3月1日晚間,劉德華電影公司@映藝娛樂發布聲明:
近期,部分網絡主體假借劉德華先生粉絲會之名義開設小紅書賬號:HZJLB20080618,并通過網絡平臺組建群聊,邀請歌迷成為會員,甚至仿冒“華仔天地”官方網站,通過其盜版網站“華仔俱樂部”(www.awc618.co)散布關于劉德華先生2024年演唱會相關不實信息,同時向消費者收取演唱會門票的訂金,造成了惡劣影響。為避免誤導廣大消費者,及維護劉德華先生的合法權益,本公司特此嚴正聲明如下:
20分鐘后,該賬號再次發布《關于AI合成聲音侵權事件的嚴正聲明》:
近日,我司發現微信用戶“華仔共享團”(微信號:KOH173)及其關聯視頻號“華仔集結號”通過信息技術手段偽造劉德華先生的聲音,并在未經授權許可的情況下,于微信平臺連續發布其剪輯拼湊視頻,導致公眾發生誤認,從而達到利用劉先生的知名度吸引流量、售賣商品、從中營利的目的。該行為已嚴重侵害劉德華先生的肖像權、姓名權及聲音權益,并涉嫌構成詐騙。
近年來,“AI換臉”詐騙層出不窮。去年11月,國家金融監督管理總局北京監管局發布謹防“AI換臉”等新型欺詐手段的風險提示。
AI如何做到在視頻通話時換臉呢?記者在一家為公安機關提供技術支持的科技公司看到的演示,相似度可以達到80%。
記者在現場看到,一個高配置的電腦,合成一段10秒的換臉視頻只需要一兩分鐘。而技術的發展,上述案件中視頻聊天的實時變臉也不是難事了。
廣東深圳某科技公司產品部經理劉遠洋表示:“照片上傳后,大概有30秒的時間對照片進行特征識別,然后建模,建模后就可以進行實時轉換。不管是你的頭像,還是你在朋友圈的一張小照片,都可以直接上傳。”
AI生成的技術還在不斷更新迭代,比如性別的互換、聲音的變換,都可以同步進行。由于算法是開源的,也就是說一個普通的工程師就可以制作出一個變臉軟件,這就在控制源頭上帶來了極大的困難。
不斷迭代的AI技術,已經把換臉視頻做到“真假難辨”,我們應該如何防范此類新型詐騙呢?
監管部門也提醒市民:
網絡渠道“眼見”不一定為實。“擬聲”“換臉”等合成技術的一大特點即“以假亂真”,不法分子可利用此類技術輕易偽裝成他人,并通過快速篩選目標人群、定制化詐騙腳本,精準實施詐騙。因此,在涉及資金往來時,一個“聲音很熟的電話”、一段“貌似熟人的視頻”都可能是不法分子的詐騙套路;
轉賬匯款務必核驗對方身份。面對自稱“熟人”“領導”等通過社交軟件、電話等以各種理由誘導匯款,務必核驗對方身份。如可在溝通過程中提問僅雙方知曉的問題,也可利用其他通訊方式或見面核實,或向對方的朋友、家人驗明身份和情況。在無法確認對方身份時,應盡量避免轉賬操作;
保護好照片、聲音等個人信息。消費者應提高個人信息保護意識,不隨意下載陌生軟件、注冊陌生平臺或添加陌生好友,對個人社交賬戶的安全狀況保持警惕。盡量避免在互聯網過多暴露個人照片、聲音、視頻等信息,不貪圖方便把身份證、銀行卡照片等直接存放在手機內。如不慎被騙或遇可疑情形,應注意保存證據并立即向當地公安機關報案。
綜合自央視財經、中央廣電總臺中國之聲、@映藝娛樂