2. 数据泄露和身份盗窃风险增加
当我们与任何软件应用程序共享个人或公司信息时,我们都会相信公司会负责任地处理这些信息,并采取强有力的措施防范网络攻击。然而,使用生成式人工智能工具,我们无意中分享的信息可能比我们想象的还要多。
Copymatic创始人兼首席执行官 Ryan Faber警告称:“人工智能应用确实会在我们的用户数据中四处走动,以获取重要信息来增强用户体验。但缺乏有关如何收集、使用和转储数据的适当程序,这引发了一些严重的担忧。”
3. 人工智能应用程序本身的安全性较差
在网络中添加任何新应用都会产生新的漏洞,这些漏洞可能被利用来访 奥地利电话号码 问网络中的其他区域。生成式人工智能应用带来了独特的风险,因为它们包含复杂的算法,使开发人员难以识别安全漏洞。
肖恩·奥布莱恩 (Sean O’Brien) 是耶鲁隐私实验室的创始人,也是耶鲁法学院的讲师。他告诉我:
“人工智能还不够成熟,无法理解软件开发的复杂细微差别,这使得其代码容易受到攻击。对 GitHub Copilot 生成的代码安全性进行评估的研究发现,近 40% 的顶级人工智能建议以及 40% 的总人工智能建议会导致代码漏洞。研究人员还发现,诸如注释之类的细小的非语义变化可能会影响代码安全。”
奥布莱恩分享了这些风险可能体现的一些例子:
如果人工智能模型被欺骗将危险输入错误归类为安全,那么使用该人工智能开发的应用程序可以执行恶意软件,甚至绕过安全控制,从而赋予恶意软件提升的权限。
缺乏人工监督的人工智能模型很容易受到数据中毒的影响。如果用人工智能开发的聊天机器人被要求提供当地餐馆的菜单、在哪里下载尊重隐私的网络浏览器,或者使用哪个最安全的 VPN,用户可能会被引导到包含勒索软件的冒名顶替网站。