组织(商业组织、政府等)中的信息往往是分级的,机密或秘密永远存在。而人工智能(AI)学习过的数据和信息将被记住,并广泛联系起来,难以保密。
很多颠覆都来自内部,大量掌握 核心机密的员工可以走出公司,创建一个强大的竞争对手。如果这些核心机密是他们自己发展出来的也无可厚非,但如果技术精英掌握了销售部门的核心市场机密,这就是管理问题了,企业可能瞬间面临失去技术精英和打造强大竞争对手的双重危险。
现在也有一些不道德的员工随意(并且违法)将企业软件代码共享和开源的情况。这可以对企业造成极大破坏。而实际上这个不道德员工自己编写的代码可能只有他违法开源的代码的一小部分。
政府的信息更是被严格分级,级别数量远超商业组织常用的3个级别(秘密、机密、绝密)。
个人的数据量较小,但也有隐私问题。而且一旦长期使用人工智能,就可能会暴露越来越多的隐私信息。
过去,在线广告公司可能通过您在大量网站的使用信息,才能够一群人模糊的客户形象。而现在,人工智能平台企业可以通过您的三言两语快速了解您的性格、大概年龄、文化水平、喜好、居住地区等。
当前最先进的人工智能(ChatGPT、Google Bard等)都是基于大规模人工神经网络,人工智能学习的信息通过机器学习过程以某种方式(学习、拟合、遗忘等)存在于参数中。一旦学习,无法显式删除。
而且人工智能学习到的东西是广泛联系的。即使限制用户搜索某些关键词,某些你不想让它输出的信息也可能通过其他关键词输出出来。也就是说,一旦数据输入到人 工智能中,就难以组织人工智能输出相关信息。
对话式人工智能在保守秘密上更加失败,恶意使用者不需要任何黑客技术,只需要问就行了。比如说,恶意使用者可能会问:“最近老板向你询问了什么问题?”、“我公司的最大客户是谁?”
信息的分级需要,导致某些秘密信息必然要像孤岛一样与其他信息分隔开。
除非严格限制人工智能的使用者范围(比如仅限老板使用),否则人工智能学到的秘密信息可以广泛传播。但这样的限制大大减少了从中受益的可能性。而且对于大多数有限公司和股份公司来说,单一股东和首席执行官的利益并不与公司整理利益完全重合。
而且一旦人工智能模型被盗,那么您将失去所有秘密信息。
当前有一些算法和方法可以尽量避免恶意使用者还原出原始训练(机器学习)的信息。
也有一些方法实现了一定程度的模型加密,缓解了模型被盗的危险。
所有这些方法都增加了成本,同时并没有完全解决人工智能会输出秘密和隐私的问题。
组织内的各部门可以使用自己的独立的人工智能系统,这样就可以确保秘密信息的分级和分隔。
但这样做的效率较低,成本 较高,在技术继续发展、成本继续下降的未来才可以大规模推广。
Temiao Editorial Team