正版管家婆马报彩图,香港正版跑狗图论坛,管家婆跑狗图玄机图118,www.886hbd.com,www.ok4672.com

你信得过AI吗?听听IBM科学家怎么看

发布日期:2019-11-02 02:46   来源:未知   阅读:

  •   导读:什么是可信AI?IBM率先提出了完整的理论框架、方法论和技术工具。

      每当看到自动驾驶出车祸的新闻,很多人对AI的信心就会缩减一分。但矛盾的是,每一天很多人都在享用AI算法推荐给你的音乐、新闻或商品。随着人工智能步入大规模商业落地阶段,AI必将参与到更多高风险决策的场景中,比如:

      在今年的世界人工智能大会(WAIC)上,IBM阐述了完整的AI发展策略:先进的AI(Advance AI)、可扩展的AI(Scalable AI)、可信的AI(Trusted AI)。在可信AI领域,IBM不仅有完整的方法论,还有提供了先进工具和技术。

      什么是可信AI?可信AI将怎样影响人工智能行业发展?不久前,智能进化论专访了IBM副总裁、大中华区首席技术官谢东博士。

      本届WAIC,IBM对其人工智能能力进行了系统性展示,并将自身的人工智能之道简化为三大关键词,对应的也是人工智能产业发展的三大关键问题:

      先进AI是外界最为熟知的、IBM人工智能领域的高光时刻。从助力阿波罗登月计划,到深蓝打败卡斯帕罗夫,从在Jeopardy答题节目战胜人类,到首个与人类辩论的AI Project Debater。

      目前,Project CIMON正在距离地球400公里的国际空间站服役。借助文字、语音和图像处理能力,以及检索特定信息和特定发现的能力,Project CIMON可以协助宇航员完成复杂的实验,成为工作助手和贴心伙伴。

      可扩展的AI是让AI更广泛应用到行业中。据统计,94%的公司认为人工智能对于竞争优势的维系非常关键,但是采纳速度却非常缓慢。

      谢东表示,IBM提供完整的信息架构、人工智能阶梯和多云的环境,让企业使人工智能更快、更简单。同时,由于目前人工智能技术选择太多,迭代太快,IBM也将分享在技术平台、路线方向的最佳实践,帮助企业解决技术选型的痛点。

      可信的AI,即确保AI的公平性、可解释性、健壮性和透明性,确保算法可被人信任。

      谢东介绍,目前可信AI还是一个比较前瞻的概念,行业、企业和消费者对可信AI的认知度还有待提升。但是随着AI大规模落地,可信AI必将成为一个不可忽视的关键。一些国家和国际组织已经意识到,可信AI对人工智能产业发展的关键作用。

      2019年4月8日,欧盟委员会发布了《人工智能伦理指南》,提出了实现可信人工智能的七个要素。包括保障人工智能技术的人的自主性、稳健性和安全性,确保隐私和数据管理,确保算法系统的透明度,以及要求人工智能提供多样化、非歧视性和公平的服务。

      前不久,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,强调要确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体。

      人类在享受AI带来的高效智能的同时,对AI的疑虑也在不断增加。而且这种疑虑并不是今天才出现的。被誉为科幻电影里程碑的《2001太空漫游》片中,宇宙飞船上的人工智能系统HAL为了执行任务杀掉了一名宇航员。

      “只有确保AI所作出的决策是公平、易理解、安全、可信赖,人们才能信任它,AI才能真正发挥作用。”谢东介绍。

      基于数十年来在人工智能领域的探索欲实践,IBM认为,可信AI包括四大要素,缺一不可:

      公平性(Fairness)。AI系统应该采用不带偏见的数据集和模型,从而避免对于特定群体的不公平。运行哪些数据进行训练、采用什么样的方法训练,都将影响AI系统的公平性。

      可解释性(Explainability)。当一个AI系统做出了一个决策或预测的时候,特别是负面的预测时,我们要能够知道背后的原因。AI系统不应该是一个不可解释的黑箱,应该能够被用户和开发者所分析、理解。比如,为什么这个人的人脸识别通不过?为什么AI认为这个候选人更胜任工作?

      谢东介绍,广义上讲,AI系统都需要具备可解释性。对于AI开发人员,可解释性可以用来检验系统是否达到目标;对于普通用户,有助于改进与AI的互动;对于监管体系,可解释的AI也有助于特定目标的达成。

      健壮性(Robustness),或者鲁棒性。AI系统应该安全和可靠,不会被篡改,也不会受被“污染”的训练数据集影响。

      AI系统需要防御潜在的攻击,比如对抗样本攻击,攻击者通过在源数据上增加人类难以通过感官辨识的细微改变,从而让AI系统得出错误的判定。如果对抗样本攻击交通信号灯,让AI系统将红灯错认为绿灯,就会导致自动驾驶车辆发生严重的交通事故。

      透明性(Transparency)。AI系统可以被透明化管理,其开发、部署、维护等可被追踪,能够在生命周期范围内被审核等。

      目前,可信AI还处在发展初期,对可信AI的规范还处在摸索阶段,相关的技术、工具也在逐步完善中。

      谢东表示,一方面,IBM会持续呼吁产业各界重视可信AI,在可信AI的前提下推动人工智能产业的健康发展,另一方面,IBM自身也乐于与行业分享在可信AI方面的技术探索。目前,IBM针对可信AI已推出三大开源项目,帮助开发人员和数据科学家构建可信、安全和可解释的人工智能系统。

      AI fairness 360是一个全面的开放源码工具集,于2018年8月开源,能够在机器学习各个阶段消除数据和模型偏差,用于检查和减轻AI中的偏见;

      AI Explainability 360是2019年7月开源的一个最先进算法集合,针对同一个问题,提供基于不同受众的多角度解释能力,用解释AI模型决策;

      Adversarial Robustness 360 Toolkit,于2017年5月开源,主要针对潜在的对抗样本攻击,提供从攻击到防御到监测的全套方法工具。

      此外,IBM还推出了AI OpenScale技术平台,可让企业在人工智能的整个生命周期中实现透明化管理,记录每项预测、每个模型版本、所有使用的训练数据及各种指标,帮助企业遵守欧盟GDPR等法律法规。

      谢东指出,“IBM专业的企业级硬件和软件,以及IBM研究院在探索可信人工智能方面所做的各种创新实践,连同IBM多年积累的行业经验,打造了可信AI的数字基础设施。可信AI的元素将被嵌入到IBM整体解决方案中,一同交付给客户。”

      在可信AI的道路上,IBM扮演了先行者和探索者的角色。可信AI不仅是一种领先的价值观,更是科技向善的体现。只有基于可信AI,我们才能更安心地受益于科技进步。返回搜狐,查看更多