ChatAI |提升开发生命周期效率,「GitLab」发布“解释该代码“新型安全功能

文 | Ricky   编辑 | 真梓

4月25日,代码托管平台巨头GitLab发布一项由AI驱动的安全功能——基于大语言模型向用户解释开发过程中的潜在漏洞。据悉,公司计划不断拓展该安全功能,以便实现人工智能自动化解决安全问题的战略目标。

该安全功能通过将潜在漏洞的基本信息与代码特定见解相结合,在代码库中寻找修复漏洞的最佳方法。在GitLab全栈DevSecOps平台支持下,人工智能代码和安全测试的结合,兼顾了AI生成内容的安全性与部署的高效性,也提高开发人员工作效率。此外,考虑到用户隐私与合规性问题,Gitlab首席运营官David DeSanto表示:“如果触及到客户代码,该功能只会将其发送到GitLab云架构内的特定模型,而不会泄露给第三方人工智能。同时,我们不会使用任何用户的私人数据来训练模型。“

据介绍,GitLab的AI将使整个开发生命周期的效率提升十倍,同时DeSanto也指出,如果只是将开发人员的生产力提高100倍,后续投入生产时的效率低下也会拉低整体的效率。因此,Gitlab希望整体提升安全团队、运营团队、合规团队的工作效率,新发布的安全功能便是其中不可或缺的一环。

目前,出了服务于开发人员外,“解释代码”的功能也用来协助安全部门检索日常测试目标。从长远来看,GitLab希望构建更加完善的功能帮助团队自动生成单元测试和安全审查,并将这些功能集成到GitLab平台中。

根据最新的DevSecOps报告,65%的开发人员在测试工作中使用或计划使用人工智能和机器学习,36%的团队利用AI/ML工具协助检查代码。GitLab 在25日中的声明中写道,“考虑到目前面临的资源限制,自动化和人工智能已经成为新的战略资源,我们的DevSecOps平台可以帮助团队填补关键空白,同时自动执行策略,应用合规性框架;同时GitLab将支持自动化安全测试,并提供人工智能辅助建议,从而释放资源。”

本文地址:https://www.cknow.cn/archives/21888

以上内容源自互联网,由百科助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任。特此声明!

如发现本站文章存在版权问题,烦请提供版权疑问、侵权链接、联系方式等信息发邮件至candieraddenipc92@gmail.com,我们将及时沟通与处理。