• <var id="grxnt"><output id="grxnt"></output></var>
  • <th id="grxnt"><menu id="grxnt"></menu></th>
    <cite id="grxnt"><rt id="grxnt"><video id="grxnt"></video></rt></cite>

      1. <output id="grxnt"></output>
        1. <table id="grxnt"></table>

          1. 歡迎您訪問工業控制系統信息安全產業聯盟網!
            官方微信
            用戶名:
            密碼:
            登錄 注冊
            美國CISA、FBI、NSA聯合發布深度偽造威脅網絡安全報告

            點擊數:46 發布時間:2023-09-20 09:25

            近日,美國國家安全局(NSA)、聯邦調查局(FBI)、網絡安全和基礎設施安全局(CISA)聯合發布了一份網絡安全信息表(CSI),以應對深度偽造所帶來的新威脅。

            近日,美國國家安全局(NSA)、聯邦調查局(FBI)、網絡安全和基礎設施安全局(CISA)聯合發布了一份網絡安全信息表(CSI),以應對深度偽造所帶來的新威脅。

            CSI的標題為“將Deepfake威脅情境化到組織”,旨在幫助組織識別,防御和應對deepfake威脅。它建議組織實施實時驗證功能、被動檢測技術以及針對高級人員及其通信的保護措施等技術,以檢測和緩解深度偽造。

            深度偽造是指使用人工智能 (AI) 和機器學習技術合成創建或操縱的多媒體內容。包括各種形式的人工生成或操縱的媒體,包括淺/廉價的偽造,生成AI和計算機生成的圖像(CGI)。網絡行為者現在可以使用這些技術的便利性和規模對國家安全構成了獨特的挑戰。

            與許多技術一樣,深度偽造既可用于積極目的,也可用于惡意目的。雖然有跡象表明,有惡意行為者大量使用這種合成技術,但能力較差的惡意網絡行為者可獲得的合成媒體技術的可用性和效率不斷提高,表明這些類型的技術可能會增加頻率和復雜性。

            深度偽造可能帶來的不良后果諸多,比如一旦有人通過冒充領導者和財務人員或使用欺詐性通信來訪問網絡和敏感信息,就可用來破壞組織的品牌和財務。此外,深度偽造還有可能通過傳播有關政治、社會、軍事或經濟問題的虛假信息來引起公眾騷亂。

            如今,像GitHub這樣的開源存儲庫已經提供了現成的基于深度學習的算法,使這些技術的應用可供技術技能和設備最少的個人使用。

            深度偽造和生成式人工智能的新興趨勢

            報告中提到,與深度偽造的創造相關的技術發展動態趨勢將繼續降低將該技術用于惡意目的的成本和技術壁壘。到2030年,生成式人工智能市場預計將超過 1000 億美元,以每年超過 35%的平均速度增長。盡管惡意行為者可用的能力將大幅增加,但尋求識別和減輕深度偽造的防御者可用的技術和技巧也將大幅提高。

            為了應對這些不斷變化的威脅,國家安全局、聯邦調查局和中央情報局敦促安全專業人員實施CSI中提到了幾點建議:

            • 選擇并實施檢測深度偽造和展示媒體來源的技術:包括實時驗證能力和程序、反向圖像搜索、視覺/音頻檢查、元數據檢查等;

            • 保護高優先級個人的公共數據:為了保護個人信息不被用于或重新用于虛假信息,人們應該開始考慮使用主動認證技術,如水印或CAI標準。

            組織應優先考慮信息共享,計劃和演練對剝削企圖的響應,并提供人員培訓以最大程度地減少深度偽造的影響。


            來源:安全內參

            成員展示

            • <var id="grxnt"><output id="grxnt"></output></var>
            • <th id="grxnt"><menu id="grxnt"></menu></th>
              <cite id="grxnt"><rt id="grxnt"><video id="grxnt"></video></rt></cite>

                1. <output id="grxnt"></output>
                  1. <table id="grxnt"></table>

                    1. www.516kan.com