Downcodes小编带您解读Checkmarx发布的全球研究报告,该报告揭示了AI编程工具在软件开发领域广泛应用的现状及其带来的安全隐患。报告数据显示,尽管部分公司明令禁止使用AI编程工具,但其应用率仍然居高不下,这凸显了企业在管理生成式AI方面面临的挑战。报告还深入探讨了企业在AI工具治理、安全风险评估以及开发者对AI工具的信任度等方面的情况,为企业有效利用AI工具提供了重要参考。
根据云安全公司Checkmarx发布的一项全球研究显示,尽管15%的公司明确禁止使用AI编程工具,但几乎所有的开发团队(99%)仍在使用这些工具。这种现象反映了在实际开发过程中,控制生成式AI使用的难度。
研究发现,仅有29%的公司对生成式AI工具建立了任何形式的治理体系。70%的公司没有制定中央策略,各个部门的采购决策往往是临时性的,缺乏统一的管理。
随着越来越多的开发者使用AI编程工具,安全问题也日益引起关注。80%的受访者担心开发者使用AI可能带来的潜在威胁,其中60%特别担忧AI可能出现的“幻觉”问题。
尽管存在这些担忧,许多人仍对AI的潜力抱有兴趣。47%的受访者愿意让AI在无人监督的情况下进行代码更改,而只有6%的人表示完全不信任AI在软件环境中的安全措施。
Checkmarx的首席产品官Kobi Tzruya指出:“全球CISO的回应揭示了开发者正在使用AI进行应用开发,尽管这些AI工具无法可靠地创建安全代码,这意味着安全团队要应对大量新产生的、可能存在漏洞的代码。”
微软的工作趋势指数报告也显示,许多员工在没有提供AI工具的情况下,会使用自己的AI工具,往往不会公开讨论这一点,这阻碍了生成式AI在业务流程中的系统性实施。
划重点:
1. ? **15%的公司禁止AI编程工具,但99%的开发团队仍在使用**
2. ? **只有29%的公司对生成式AI工具建立了治理体系**
3. ? **47%的受访者愿意让AI进行无人监督的代码更改**
总而言之,该报告强调了企业需要加强对AI编程工具的管理和安全策略,平衡AI带来的便利性和潜在风险。 企业应制定统一的策略,并关注AI可能带来的安全漏洞,才能更好地利用AI技术提升开发效率。 Downcodes小编建议关注Checkmarx的后续报告,了解更多AI安全领域的动态。