网络安全领域的工作很热门,而且需要合格的员工。根据美国国家标准与技术研究所汇编的数据,2022年全球网络安全工作者短缺340万。仅在美国就有超过663000个网络安全职位空缺。
ChatGPT等生成性人工智能工具的兴起引发了新的问题,即这些工具是否有助于缩小或加剧就业差距。因此,许多专家将其视为一把双刃剑。
一方面,攻击者可以使用生成人工智能“大大降低网络安全中的作恶成本”,IEEE高级会员林道庄说。
(资料图片仅供参考)
另一方面,生成型人工智能可能能够加速软件代码和新工具的开发,以挫败网络攻击。
“这些大型语言模型是一个根本的范式转变,”IEEE会员Yale Fox近日在《数据中心知识》杂志上如此表示。“反击人工智能驱动的恶意攻击的唯一方法是在防御中使用人工智能。数据中心的安全经理需要提高现有网络安全资源的技能,并寻找专门从事人工智能的新人群。”
目前,生成性人工智能对寻求招聘的网络安全高管来说是福是祸的问题基本上是无法回答的。这并没有阻止关于它可能如何改变网络安全专业人员工作的更广泛讨论。
以下是专家们对生成性人工智能可能塑造网络安全工作性质的看法:
1. 软件开发人员可能需要对人工智能生成的代码进行更多的验证和测试,更加强调质量控制技能。IEEE高级会员Amol Gulhane指出,质量控制人员需要获得与评估生成人工智能模型性能相关的知识和技能。
Gulhane说:“他们需要了解与这些模型相关的局限性和偏见,识别潜在的漏洞,并根据预定义的标准和安全要求测试生成的输出。”
2. 生成型人工智能可以减轻网络安全专业人员面临的文书工作和文件负担。尽管网络安全分析师的键盘技能以及他们细节能力在很大程度上得到了提升,但人们对该角色可能需要的大量文件却关注较少。
IEEE高级会员Kayne McGladrey说:“这份文件可以采取多种形式,包括在误报警报上进行标注到写下如何进行新型调查的文档。虽然这些文档具有巨大的组织价值,但它也是分析师执行的最不受欢迎和耗时的任务之一。通过使用人工智能自动化任务,如根据预定义格式汇总文本和生成报告,分析师可以显著节省时间。”
3. 它可以加速新产品的安全缺陷测试,内部安全专家试图以开发人员没有预料到的方式“破解”产品,这一过程被称为red teaming。
“作为组织软件开发生命周期的一部分,red teamers偶尔会被要求评估软件组件的安全性,”McGladrey说,“不幸的是,这带来了日程压力;red teamers需要的时间越长,软件发布到通用状态的时间就越长,因此并非所有组织都遵循这种模式。”
了解更多:道德黑客帮助企业和软件开发人员从不道德的人的角度看待问题。在产品向公众发布之前,这是一项提高产品安全性的重要技能。在Innovation at Work博客上可了解更多道德黑客如何打击网络犯罪的内容,https://innovationatwork.ieee.org/ethical-hacking-is-essential-to-fighting-cyber-crime/。