您的位置:首页 >云计算 >

到2020年底,全球48%的CIO将会部署AI人工智能

2020-03-12 15:03:02    来源:中国软件网

近日,调研机构据Gartner发布一项调查,结果显示 ,到2020年底,全球48%的CIO将会部署AI人工智能。且未来AI人工智能与ML机器学习将会对行业产生三大影响。趋势一,专业硬件与云计算提供商正寻求改变。

因为对于企业而言,内部部署云计算的话题已经过时,即使是保守的组织也在谈论云计算和开源,所以,不少云计算平台厂商正试图改进其产品,包括AI与ML服务。随着ML解决方案的要求越来约高,CPU和RAM的数量将不再是加速与扩展的唯一方法。

无论是GPU、TPU还是单晶圆芯片,针对特定硬件优化的算法比以往使用都要多。且这种向AI和ML方向“转向”解决问题的专业硬件厂商也将越来越多。一些组织或许通过限制CPU的使用,来解决最基本的问题。淘汰的风险或使得AI与ML通用计算基础设施无法使用,这也是企业转向云计算平台的重要原因。

同时,专有芯片与硬件的增加导致了硬件增量算法的改进。尽管,新的硬件与芯片可能允许使用之前不被承认的AI与ML解决方面,但是,目前支持通用硬件的开源工具需要重写,来使新的芯片获益。比如,通过并行训练横向加速DL训练,优化内存使用和计算能力的改型器。

趋势二,围绕隐私的创新性解决方案正出现。目前的ML模型中,数据隐私的关注逐渐加深。比如,如何收集数据,收集怎样的数据,怎么使用数据。但是,ML模型并不是真正的“黑匣子”,可以根据一段时间的输入推断模型输入,这也导致了隐私的泄露。因而。数据和模型隐私方面的挑战,使得一些组织采用联合学习的解决方案。

2019年,谷歌发布了TensorFlow隐私框架,该框架基于差异隐私原则以及模糊输入来增加“噪点”。通过联合学习,用户的数据将永远不会离开他们的设备,这些ML模型占用内存很小,可以在智能收集上运行并从本地数据中学习。

此外,请求用户数据的基础在于个性化的体验。比如,谷歌Mail使用单个用户输入的行为来提供自动化建议。数据模型不仅有助于改善个人体验,还有助于改善更广泛人群的体验。一些商业机会也因此涌现,如向用户支付模型参数的费用,这些参数来自于本地设备上的数据训练的结果,并使用本地计算能力来训练模型。

趋势三,强大的模型部署成为关键。目前,世界上很多组织都在努力发布可扩展、可靠的电离模型。当然,模型的编写人不一定是考虑模型安全性、安全性和性能情况的部署专家。一旦ML模型成为主流应用程序不可或缺的一部分,这将不可避免地导致模型受到攻击,类似于主流应用程序目前面临的拒绝服务的攻击。

一些低技术含量的攻击,比如,让特斯拉在需要减速的情况下加速,切换车道,突然停车,或者在没有适当触发的情况下打开雨刮器。对于严重依赖AI和ML的金融系统、医疗设备等,这种攻击具有毁灭性。

为应对这种威胁,组织需要更加重视模型的验证。一些组织机构已经在使用对抗性网络来测试深层神经网络。或者聘请外部专家对网络安全、物理安全等进行审计。未来,一个新的模型测试和模型安全专家市场或出现,他们将测试、认证,并可能承担一些模型故障的责任。

中国软件网认为,AI人工智能与ML机器学习已经渗透至各行各业,ML是AI的一种实现方式,且包括了深度学习。近几年,包括谷歌、苹果、亚马逊等巨头对ML的重视程度与日俱增,谷歌已经发布多款ML模型,同时,为公平性与避免偏见,谷歌对ML的系统进行不断改造。随着,企业数字化的不断深入,大量数据产生却无法智能化应用,以数据驱动,离不开AI和ML,这也是云计算厂商发掘AI与ML潜力的原因。

关键词: CIO AI人工智能

相关阅读

精彩推送