北美市场 , China&Chinese Author:张韵丰 Apr 27, 2023 11:45 PM (GMT+8)

4月25日,代码托管平台巨头GitLab发布一项由AI驱动的安全功能——基于大语言模型向用户解释开发过程中的潜在漏洞。据悉,公司计划不断拓展该安全功能,以便实现人工智能自动化解决安全问题的战略目标。

code

该安全功能通过将潜在漏洞的基本信息与代码特定见解相结合,在代码库中寻找修复漏洞的最佳方法。在GitLab全栈DevSecOps平台支持下,人工智能代码和安全测试的结合,兼顾了AI生成内容的安全性与部署的高效性,也提高开发人员工作效率。此外,考虑到用户隐私与合规性问题,Gitlab首席运营官David DeSanto表示:“如果触及到客户代码,该功能只会将其发送到GitLab云架构内的特定模型,而不会泄露给第三方人工智能。同时,我们不会使用任何用户的私人数据来训练模型。“

据介绍,GitLab的AI将使整个开发生命周期的效率提升十倍,同时DeSanto也指出,如果只是将开发人员的生产力提高100倍,后续投入生产时的效率低下也会拉低整体的效率。因此,Gitlab希望整体提升安全团队、运营团队、合规团队的工作效率,新发布的安全功能便是其中不可或缺的一环。

目前,出了服务于开发人员外,“解释代码”的功能也用来协助安全部门检索日常测试目标。从长远来看,GitLab希望构建更加完善的功能帮助团队自动生成单元测试和安全审查,并将这些功能集成到GitLab平台中。

根据最新的DevSecOps报告,65%的开发人员在测试工作中使用或计划使用人工智能和机器学习,36%的团队利用AI/ML工具协助检查代码。GitLab 在25日中的声明中写道,“考虑到目前面临的资源限制,自动化和人工智能已经成为新的战略资源,我们的DevSecOps平台可以帮助团队填补关键空白,同时自动执行策略,应用合规性框架;同时GitLab将支持自动化安全测试,并提供人工智能辅助建议,从而释放资源。”