关于AI网络安全潜力的神话和现实

虽然在安全优势越来越有价值,但在可以减轻对人才的需求之前,AI仍然有效地努力。

由Paul Gillin.

由Paul Gillin.2019年9月4日

世界面临着短缺近300万网络安全专业人员。暴露数百万客户记录的违规事实已成为每周活动。研究公司Gartner期望全球网络安全支出几乎增加速率四倍(12.4%)整体而言,今年的支出(3.2%)。人工智能(AI)可以解决这种难以解决的情况吗?

尚未表示,尼古拉斯·克斯佩斯(Reletar)的管理平台制造商的铅数据科学家表示,帮助企业运作安全数据的管理平台。虽然AI被证明是对人类安全研究人员的强烈盟友,但该技术仍然过于不成熟,依靠复杂的决策,这将减轻对人类安全专业人士的压力需求。

“请注意,今天所谓的ai甚至不符合一个两岁的认知能力,”Kseib说。

他补充说,似乎是AI软件或机器人的智能行为或人类的思维实际上是“一堆在大型数据集上培训的模型,以执行特定的蛮力任务”。

AI的衍生品和潜力

不是那个有什么问题。AI及其两个最常见的应用,机器学习(ML)和深度学习(DL),已经为陷入困境的安全优势提供援助。ML和DL算法可以处理更多信息并提供比其人类对应更多的模式。

虽然AI是与制作机器智能相关的任何活动,但ML是涉及训练算法的AI的子集,以便在没有人为干预的情况下,他们可以学习和动态地修改自己。DL是模仿人脑的运作的mL的子集。它可以使用多个级别的“思想”来处理大量的非结构化或未标记的数据,无监督。

[有关的:Nutanix企业云为AI]

举例来说,ML的强用例发现,发现处方药的某些组合更可能引起糖尿病患者的负相互作用。DL擅长语音和人脸识别等任务。

从巨大的安全数据中获得意义

在安全领域中,ML和DL在切割上削减虚假警报的体积 - 看起来像漏洞的事件,但实际上是良性的 - 瘟疫入侵检测系统。

“在群体保护软件制造商Crowdstrike的首席科学家Sven Krasser说:”这是一个尤其有前途的数据。“我们可以更清楚地看到事件和统计数据解散文件以决定它们是否好坏。”

反恶意软件软件的制造商会看到ML的潜力,以便超越签名检测以找到基于行为的流氓程序。

在您拥有大量复杂数据的地区尤其有前途,可以更清楚地分类......我们可以更清楚地看到事件和统计分析文件来决定它们是否好坏。

Sven Krasser.

“恶意软件制造商将在开始处理我们行业正在开发的技术时,”恶意软件制造商“将有更困难的时期,”Malwarebytes Labs主任Adam Kujawa说。

Malwarebytes正在培训关于已知恶意软件威胁的行为的ML算法,然后让软件弄清楚如何发现新的。在今年前五个月登录的近9400万检测中约有5%归因于ML。

奎川说,这并没有消除对人类的需求,但是“艾丽照顾了很多咕噜声的工作”。

研究人员还可以看到DL的潜力来发现网络钓鱼攻击,这使得收件人通过伪装他们在看似合法的电子邮件或社交媒体消息中来点击恶意链接。

部署级别

AI功能迅速进入商业产品:73%的受访者调查400多个企业安全分析师由Osterman研究和通过ProtectWipl的研究表明,他们已经使用了至少一些AI的安全产品。

然而,目前技术的不成熟已达到其损失。46%的受访者对同一调查表示,规则创建和实施是繁重的,四分之一表示,他们不打算将来实施额外的AI安全解决方案。

约翰·奥尼克感到痛苦。美国银行安全创新的前高级副总裁表示,安全供应商的夸大索赔令客户令客户令人困惑,甚至可能会将它们带到虚假的自满情绪上,这些产品实际上可以做多少。

“大多数AI解决方案正在解决比人类更好的问题,但......我们没有找到解决问题的方法,人类无法解决,”他说。

Achilles脚跟:容易偏见

虽然ml似乎是一个黑盒补救措施,但它有一些潜在的脆弱。ML算法可以不断地基于已知模式来测试新相关性,希望找到新的模式。虽然结果可能似乎是智能化的,但程序只是与用于训练它们的数据一样好。

Sloppy,不完整或不准确的培训数据可以偏见结果,正如美国执法机构广泛使用的风险评估算法所发生的那样被发现偏向非裔美国人被告,尽管种族不是方程的一个因素。

相似地,据报道,去年秋天亚马逊一直在培训其计算机模型,以根据成功雇用的10年历史为兽医职业职位。但是,大多数来自这位10年期的申请来自男性,反映了科技产业的长期性别差距。该项目的数据科学家简单地忽略了他们的数据的这一方面,因此,亚马逊的计算机模型有效地学习筛选妇女,这不是意图的。

在金融市场中,ML的模型表明,以响应异常快速的销售订单,价格导致“闪存”,“或突然和急剧下降的趋势。由于培训模型中的缺点导致算法过度发生短期事件并放大它们的影响,因此发生闪存崩溃。Trantar的KSEIB表示,建立完整和公正的培训数据库很困难。

“如果您根据一系列不透明的评分系统创建威胁模型,则您有风险模糊了一系列自动化行动背后的背景,”他说。Cyber​​iminals将图案引入算法的风险,旨在故意歪斜结果或混淆ML模型,这可能导致“依靠这些模型的系统的不稳定或灾难性行为”,“KSEIB说。

如果您根据一系列不透明的评分系统创建威胁模型,则您可能会掩盖自动操作链背后的上下文的风险。

尼古拉斯凯布

盟友到网络犯罪分子?

这样的场景就是制作网络安全专业人士颤抖的事物。对于所有潜在的AI必须钝攻击,其值可能对肇事者甚至更大。例如,ML可以使用,例如,争夺数字轨道攻击者在违反网络时离开,以使他们的活动更加难以检测。德刀技术,它使用DL来操纵数字图像和声音,使其似乎发生的事件和动作从未发生过,因此迅速进展,即计算机现在可以生产出现实的人的图像谁不存在

研究人员已经证明了如何语音助手可能会受到损害隐藏在语音,音乐甚至沉默中的秘密命令。2月,非营利组织Openai集团表示,它制定了一个内容创作引擎,这些引擎如此有效地模仿人类写作不会发布代码开发人员出于害怕恶意使用。

游戏改变技术 - 但哪个游戏?

“AI是一个游戏更换者,但它确实确实升级了网络接触的复杂性和速度,既有进攻和防守方面的速度和防守方面,”风险投资公司Allegis Cyber​​的董事总经理Robert Ackerman Jr说投资网络安全初创公司。

到目前为止,通过网络犯罪分子没有任何记录的AI用文件使用,但大多数工具和框架都在开源许可证下自由使用。

“这是网络犯罪分子懒惰的大多数安全优势的总体意见,”库哈卡说。“他们追逐低悬挂水果。”

这意味着,现在,好人有边缘。长期前景不太清楚。

Paul Gillian是社交媒体上五本书的贡献作家和作者。在推特上找到他@pgillin。

©2019 Nutanix,Inc。保留所有权利。有关额外的法律信息,请走这里

Baidu