IBM推出提升人工智能信任和决策透明度的软件服务 智能应用 影音
Event
EVmember

IBM推出提升人工智能信任和决策透明度的软件服务

  • 魏于宁台北

IBM公司日前推出了一种提高人工智能透明度的技术,使企业能够更全面地驾驭人工智能的力量。 这种在IBM云端运算平台上执行的软件服务,能够在人工智能进行决策时自动检测偏差并解释决策过程,进而帮助各行各业的组织管理人工智能系统。IBM服务事业部也将与企业合作,帮助他们运用这种全新的软件服务。

此外,IBM研究院将会向开源社群发布一套人工智能偏差检测和缓解工具包,用先进的工具和培训促进全球协作,以解决人工智能偏差问题。这些技术的发展也同样印证IBM商业价值研究院的最新研究结果,该研究显示,虽然有82%的企业正在考虑运用人工智能,但有60%的企业担心责任问题,63%的企业缺乏能够可靠地管理这种技术的内部人才。

提高人工智能决策的可见度

台上的全新信任和透明度功能,可与各种机器学习框架和人工智能建构的环境模型配合使用,例如Watson,Tensorflow,SparkML,AWS SageMaker和AzureML。也就是说,企业可以将这些新的控制工具用于大部分常见的人工智能框架。还可以对软件服务进行编码,以监控任何业务工作流程所需的独特决策因素,使其能根据特定的组织用途进行定制化。

这种完全自动化的软件服务能够解释决策并在运行时检测人工智能模型中的偏差,每当潜在的不公结果出现时就会立即发现。重要的是,它还能自动建议应添加到模型的数据,帮助缓解它检测到的任何偏差。

它使用通俗易懂的术语提供解释,说明是哪些因素的权重使决策朝某一方向倾斜,决策建议的可信度有多大,以及可信度背后的因素。此外,模型的准确性、性能和公正性以及人工智能系统谱系的纪录可以根据客户服务、法规或法遵用途,例如GDPR法遵,轻松地追踪和回顾。

所有这些功能都是透过可视化操作面板来存取,让企业客户拥有前所未有的理解、解释和管理人工智能主导决策的能力,并降低对专业人工智能技能的依赖。IBM还提供新的谘询服务,来帮助公司设计业务流程和人类与人工智能界面,进一步减缓策偏差的影响。

使开源社群能够建构更公正的人工智能

IBM研究院还将提供开源社群 AI Fairness 360工具包,这是一套包括新型演算法、程序码和教程的资源库,它将为学术单位、研究者和数据科学家提供在建构和部署机器学习模型时整合偏差检测功能的工具和知识。开源社群中的其他资源仅仅着眼于检查训练数据中的偏差,而IBM研究院建立的IBM AI Fairness 360工具包将有助于检查和缓解人工智能模型中的偏差。IBM研究院藉由这一工具包,广邀全球开源社群合作推动人工智能的相关研究,降低解决人工智能偏差的困难度。


关键字