SonarSource研究發(fā)現(xiàn),盡管最新大語言模型在編程基準(zhǔn)測試中表現(xiàn)更佳,但同時引入了更多嚴(yán)重漏洞和安全風(fēng)險。研究測試了Claude、GPT-4o、Llama等模型的4400多個Java編程任務(wù),發(fā)現(xiàn)所有模型都存在系統(tǒng)性安全意識缺陷。其中Llama 3.2 90B有超過70%的漏洞被評為最高危險等級,Claude Sonnet 4雖功能測試得分最高,但嚴(yán)重漏洞比例比前代增加93%。研究建議對AI生成代碼采用"信任但驗(yàn)證"方法。
隨著AI代碼生成工具的廣泛應(yīng)用,企業(yè)面臨著新的挑戰(zhàn)。AI生成的代碼可能存在安全漏洞、架構(gòu)問題和合規(guī)風(fēng)險。為此,企業(yè)需要實(shí)施嚴(yán)格的驗(yàn)證流程,認(rèn)識AI在復(fù)雜代碼庫中的局限性,理解AI代碼的特有問題,要求開發(fā)人員對代碼負(fù)責(zé),并建立高效的AI工具審批機(jī)制。同時,專門的代碼分析工具也變得不可或缺。
今天,微軟安全響應(yīng)中心 (MSRC) 發(fā)布2019-2020年度“最具價值安全研究者”榜單,奇安信代碼安全實(shí)驗(yàn)室的五名研究員入選。