施耐德电机建议应检视企业是否做到最高标准的道德与信任 智能应用 影音
Microchip Q1
Event

施耐德电机建议应检视企业是否做到最高标准的道德与信任

  • 杨竣宇台北

施耐德电机建议审慎检视AI可能发生的偏误或偏见,不应盲目相信。施耐德电机
施耐德电机建议审慎检视AI可能发生的偏误或偏见,不应盲目相信。施耐德电机

现正处于AI发展史上的关键时期,人类以前所未有的规模和速度在各个领域应用AI技术。随着AI使用日渐普及,社会上兴起关于伦理、责任、信任的讨论,企业也需在使用AI提升效率的同时做好风险管理。尤其现阶段AI仍有诸多不完善之处,例如图像识别无法精确判别差异、以及招聘建议可能含有偏见等种种例子显示人们并不能完全信任AI。能源管理及自动化领域的数码转型领导者法商施耐德电机Schneider Electric建议企业在开发与使用AI时,应坚持遵守以下三项准则:

1.符合法律与规范:
如施耐德电机拥有完善的网络安全政策,符合ISO/IEC 29147和ISO/IEC 30111的标准,同时积极参与AI法律的制定,并承诺完全遵守相关法规。

2.道德与信任守则:
施耐德电机以最高标准的道德与信任,对减少碳排与降低能耗做出承诺,而将AI导入解决方案时,也以同样高标准的道德与信任作为原则。

3.内部政策与流程:
施耐德电机拥有数码风险与数据管理主管负责AI专案,并成立RAI工作小组(Responsible AI Workgroup)跟进欧洲与美国最新的AI法案,持续关注伦理议题。

此外,上下文情境、数据来源、解释方式都可能导致AI产生的结果有偏误或偏见,这让AI信任议题变得极为复杂。以机器学习(ML,Machine Learning)来说,就算风险与其他数码技术类似,但由于系统更加复杂,风险的规模便更大、更难避免、更难追踪、更难解释。若想克服这些挑战,建立可信任的AI,有以下两点关键:

1.专业知识和AI专家:
AI应用将对人类产生深远的影响,因此AI专家和数据科学家往往要担任道德的守门员,他们检测偏见、建立回馈循环(Feedback Loops)、检验运行异常以避免数据下毒攻击(Data Poisoning)。在发展与应用AI时,企业必须选择有价值的案例、挑选和清理数据、测试模型并控制其行为,这些都需要大量的专业知识与技术。若是出现异常,模型需要重新学习,以改善系统并避免使用特例数据而引发偏见。

2.风险预测:
目前多数的AI监管都以风险预测为基础,从设计阶段开始,就必须考量错误或异常数据、网络攻击可能导致的问题,并预测潜在后果。借此,AI专家能及早采取相关动作来降低风险,例如改善训练AI模型的数据库、检测数据漂移(运行时的异常数据变化),尽可能做好防护措施。另外,若AI的信心水准低于一定值,团队也务必确保人类参与关键决策。

人们不能盲目相信AI,企业也要选择具有专业知识且可信任的AI供应商合作,确保服务符合最高标准的伦理道德、数据隐私、网络安全。施耐德电机提供关键设施的解决方案,包含国家电网、核电厂、医院、污水处理等,因此深知道德与信任的重要性,作为一家可信任的企业、持续开发可信任的AI解决方案,并以同样负责任的方式导入AI,确保服务与产品兼具安全、高效、可靠、公正、隐私。


关键字