加入收藏 | 设为首页 | 会员中心 | 我要投稿 惠州站长网 (https://www.0752zz.com.cn/)- 办公协同、云通信、物联设备、操作系统、高性能计算!
当前位置: 首页 > 大数据 > 正文

在采用人工智能时保护隐私的3个重要安全实践

发布时间:2021-06-10 14:02:56 所属栏目:大数据 来源:互联网
导读:企业在实施人工智能策略之前,需要考虑采用一些新技术以帮助保护隐私,并确保符合安全标准。 如果企业参与了下一代数字产品工程,那么尝试采用人工智能(AI)将帮助企业构建新的业务模型、收入流和体验。 但是企业应该了解有关人工智能技术创新的头条新闻。例
企业在实施人工智能策略之前,需要考虑采用一些新技术以帮助保护隐私,并确保符合安全标准。
 
如果企业参与了下一代数字产品工程,那么尝试采用人工智能(AI)将帮助企业构建新的业务模型、收入流和体验。
 
但是企业应该了解有关人工智能技术创新的头条新闻。例如AlphaFold解决了具有50年历史的蛋白质折叠问题,还有也许更具影响力的一些人工智能技术,这些进步使人工智能变得更加负责任和更加注重隐私。
 
随着算法在训练和部署中吸收和采用了越来越庞大的数据集,特别是随着GDPR、CCPA、HIPAA等新隐私法规的发布,与人工智能/机器学习相关的数据隐私只会变得越来越重要。事实上,美国食品药品监督管理局(FDA)最近发布了一项新的行动计划来规范医疗设备中采用的人工智能。不断扩大的监管框架部分地解释了数据隐私是这十年最重要问题之一的原因。
 
当企业计划在未来进行人工智能投资时,以下三种人工智能技术将确保其在未来保持合规性和安全性。
 
1.联合学习
 
联合学习是一种越来越重要的机器学习训练技术,可以解决机器学习最大的数据隐私问题之一,尤其是在具有敏感用户数据的领域中(例如医疗保健)。过去十年的传统做法是尽可能地隔离数据。但是,训练和部署机器学习算法所需的聚合数据已造成严重的隐私和安全问题,尤其是在企业之间共享数据时。
 
联合学习可让企业提供聚合数据集的洞察力,同时在非聚合环境中确保数据的安全性。基本前提是,本地机器学习模型是在私有数据集上训练的,模型更新在数据集之间流动以进行集中聚合。至关重要的是,数据永远不必离开本地环境。
 
通过这种方式,数据在保持安全的同时仍能给组织带来“群体智慧”。联合学习降低了单个攻击或泄漏的风险,因为数据不是存放在单个存储库中,而是分散在多个存储库中。
 
2.可解释的人工智能(XAI)
 
许多人工智能/机器学习模型(特别是神经网络)都是黑盒模型。在经过大量数据的训练之后,由于难以确定如何以及为何做出某些决定,这些模型通常是不负责任的。为了使它们更具责任感和透明度,需要使它们更具解释性。
 
一个新兴的研究领域称为“可解释性”,它使用复杂的技术来帮助为诸如决策树之类的简单系统以及诸如神经网络之类的复杂系统带来透明度。解释有助于建立对系统的信任,也可以帮助研究人员了解为什么会犯错误以及如何快速纠正错误。
 
在医疗、银行、金融服务和保险等敏感领域,不能盲目相信人工智能决策。例如,在批准银行贷款时,需要理解为什么有人被拒绝,特别是当考虑到种族偏见潜入其他人工智能系统的例子时。随着人工智能变得越来越复杂,将这些黑盒模型变得更加清晰将变得越来越重要,可解释的人工智能(XAI)应该成为未来开发人工智能系统的组织关注的主要领域。
 
3.AIOps/MLOps

(编辑:惠州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读