“改頭換面”“語音克隆” 警惕AI帶來便利時暴露出風險隱患
記者從國家安全部了解到,隨著人工智能技術的飛速發(fā)展,深度偽造技術逐漸進入我們的生活,在帶來驚喜和便利的同時,也暴露出一系列風險隱患,如不注意防范,甚至可能危害國家安全。
眼見未必為實
耳聽未必為真
深度偽造技術是“深度學習”與“偽造”的結合,利用人工智能的深度學習算法進行自動化的數據處理,實現圖片、音頻及視頻的智能模擬和偽造,包括視頻偽造技術、音頻偽造技術、虛假網絡身份偽造技術等。它的出現使得篡改或生成高度逼真且難以甄別的音視頻內容成為可能,觀察者很難辨明真?zhèn)巍?/p>
視頻偽造技術。將提供的人物面部照片特征“轉換”到其他人物形象上,從而實現“改頭換面”的目的。
音頻偽造技術。利用“語音克隆”技術,以高仿真度模擬目標人物的聲音。
虛假網絡身份偽造技術。在創(chuàng)建虛假個人資料時,通過生成偽造的面孔附加至身份信息中,成為隱藏身份的手段。
智能改變?yōu)閷?/strong>
風險挑戰(zhàn)為真
深度偽造技術憑借其在圖像、音頻和視頻生成方面的卓越能力,迅速成為一種新興技術工具。但它又是一把雙刃劍,操作簡易,應用門檻低,高度欺騙性的視覺和聽覺偽造內容難以被發(fā)現,潛在的破壞性和安全風險日益凸顯。
深度偽造技術可能侵害個人權益。別有用心之人利用深度偽造技術可以輕易盜用他人身份,侵害他人肖像權、隱私權等權利,部分不法分子甚至可能利用深度偽造技術進行詐騙,對財產安全造成現實危害。
深度偽造技術可能引發(fā)社會憂慮和信任危機。深度偽造技術可以隨時隨地制造大量假新聞,影響社會輿論走向,引起民眾恐慌。隨著公眾意識到“深度偽造”的危害,他們可能會迷失在真假信息之中,對事實產生懷疑。
深度偽造技術可能威脅國家安全和公共安全。深度偽造技術不僅會在一般行業(yè)得到應用,也有可能成為間諜情報機關開展“認知戰(zhàn)”的新工具。隨著深度偽造技術的橫空出世,某些境外間諜情報機關可能進一步利用該技術迭代情報技術手段,開展招募策反、污蔑抹黑、混淆視聽等活動。
國家安全機關提示
面對深度偽造技術帶來的機遇和挑戰(zhàn),要統(tǒng)籌發(fā)展和安全,提高安全意識,共同維護國家安全和社會穩(wěn)定。
使用技術要注意。廣大公民應注意保護好個人隱私,特別是核心涉密崗位人員,切勿將國家秘密、商業(yè)秘密或個人隱私等敏感信息輸入相關技術軟件中,不用網絡傳播涉密內容。
信息安全要防范。相關平臺企業(yè)應加強信息安全管理,采取必要的技術措施保護相關信息的安全存儲和傳輸,防止信息泄露、丟失或被非法使用。同時,加強對深度偽造技術發(fā)布內容的甄別,使其遵守法律“紅線”和道德“底線”。
可疑信息要警惕。謹慎對待相關視聽內容,在轉發(fā)網絡信息前先多方驗證信息可靠性,不做謠言傳播者,以官方渠道發(fā)布的信息為準。
維護國家安全是每個公民義不容辭的責任和義務,廣大人民群眾如發(fā)現利用深度偽造技術危害國家安全的問題線索,可通過12339國家安全機關舉報受理電話、網絡舉報平臺(www.12339.gov.cn)、國家安全部微信公眾號舉報受理渠道或者直接向當地國家安全機關進行舉報。
(總臺央視記者 李本揚)
轉載請注明來自浙江中液機械設備有限公司 ,本文標題:《“改頭換面”“語音克隆” 警惕AI帶來便利時暴露出風險隱患》
還沒有評論,來說兩句吧...