根據EndorLabs的數據,開源在AI技術堆棧中發揮著越來越重要的作用,但大多數項目(52%)引用了存在已知漏洞的易受攻擊的依賴項。
EndorLabs在最新的《軟件依賴管理狀態報告》聲稱,在發布僅五個月后,ChatGPT的API就被超過900個npm和PyPI軟件包調用,其中70%是全新的軟件包。
然而,EndorLabs警告說,任何開源項目,都必須重視和管理與易受攻擊的依賴項相關的安全風險。
OstermanResearch首席分析師MichaelSampson表示:“EndorLabs的這份報告證明了風光無限的人工智能技術的安全性并未跟上其發展步伐。”
不幸的是,企業不僅低估了開源依賴項中人工智能API的風險,而且還低估了安全敏感API的風險。
報告稱,超過一半(55%)的應用程序在其代碼庫中調用了安全敏感API,如果包含依賴項,這一比例將上升至95%。
EndorLabs還警告說,ChatGPT等大型語言模型(LLM)技術在對可疑代碼片段的惡意軟件潛力進行評分方面表現不佳。結果發現,OpenAIGPT3.5的準確率僅為3.4%,而VertexAItext-bison的表現也好不到哪里去,為7.9%。
“這兩種模型都會產生大量誤報,這需要手動審查工作,并阻止自動通知相應的程序包存儲庫以觸發程序包刪除。也就是說,模型似乎確實正在改進,”報告指出。
“這些發現說明,目前將大語言模型用于安全敏感用例的難度很大。大語言模型肯定可以幫助人工審核人員,但即使評估準確率可以提高到95%甚至99%,也不足以實現自主決策。”
報告指出,開發人員可能會花費大量時間修復代碼中的漏洞,而這些(依賴項的)漏洞甚至沒有在他們的應用程序中使用。
報告聲稱,71%的典型Java應用程序代碼來自開源組件,但應用程序僅使用了這些軟件包中的12%的代碼。
“未使用的代碼中的漏洞很少可被利用;如果能了解整個應用程序中哪些代碼是可訪問的,企業可以消除或調低高達60%的修復工作的優先級。”報告指出。
來源:安全內參