智能应用 影音
CES 2022
event

【专家观点】AI最难是问出好问题 专家决策能力更重要

【专家观点】AI最难是问出好问题 专家决策能力更重要

「人类一直希望可以做出哆啦A梦,一个可以像人一样思考的机器人。」但是,目前的技术距离这个目标还很远,而人类要做的事情还有很多,包括制定出好的决策。

政治大学应用数学系教授蔡炎龙说,想要运用人工智能(AI)帮忙解决问题,最重要的就是问出好问题,就像是函数一样,输入与输出值的设计才是关键。但要如何问出好问题?考验的不仅是团队成员的专业能力,还有沟通及收敛问题的能力。

 点击图片放大观看

政治大学应用数学系教授蔡炎龙。人工智能科技基金会

老板才是问问题的关键人物 必须建立共通的沟通语言

「人工智能就像函数,」蔡炎龙解释,函数是2个集合X、Y间的对应关系,也就是让所有的问题(X)能对应到唯一的答案(Y)。因此,我们想利用AI解决问题时,必须想清楚要输入电脑的数据,以及输出的答案是什麽。他说,最重要的就是问问题,也就是必须化成函数形式的提问,而不是「如何用AI提升业绩?」

这种发散式的问题,工程师无法从提问中判断要建立什麽模型。我们可以透过不同的问法,或是不同方式切入提问,但要「问得好」就会需要具备专业领域知识,而最适合提问的人就是老板,前提是老板得先拥有人工智能的基础知识。

提问的过程中,可能还会遇到一些考验,例如,不能问的问题或是数据无法蒐集,导致无法直接提问,需要旁敲侧击的状况。蔡炎龙笑说,所以老板虽然不用会写程序,但需要理解AI的概念,才能理解工程师是怎麽解决问题的。

蔡炎龙补充,问题的发想与收敛都需要团队成员的集思广益,透过不同的专业见解,以及实务上的经验讨论适合的问题。他建议,团队可以试着从多种角度提出几个不同的问题,避免最後才发现问错问题或其他原因导致专案无法进行的状况发生。

准确率越高越好吗?专业专家的决策更重要

当团队成员都具有AI知识的时候,不仅可以透过讨论聚焦问题,也可以一起检视所问的问题,在目前阶段是否太难或太有挑战性,避免一开始就选择了大问题,最後却做不出来而产生挫折。

他建议,如果问题太大,在不偏离最终目标的方向下,可以先设立几个小问题,再一步步的解决这些小问题。

至於如何判断问题是大或小,简单或困难?蔡炎龙认为,最重要的准则是训练数据是否收集得够多的训练数据;再来则是人类专家需要判断,这个问题是不是机器可以学得会。例如,可不可以请AI预测某一个日期的收盘价?虽然这是正确的函数形式,但对电脑来说,日期所能提供的信息量太少,因此得到的答案也会不太准。

大部分的人都认为,人工智能预测的准确率应该要越高越好。但是,蔡炎龙认为,不一定。准确率的好坏判定,其实是个专业的问题,应该要从准确率是否提供了实务上有用的帮助?且应该交由该领域的专业人士来判定。

他举例,假设利用AI进行信用卡交易盗刷监测,准确率高虽然可以抓到更多的盗刷事件,但也有可能将许其他正常消费误判为盗刷并示警,影响顾客消费的心情。因此,到底是即使扰民也不愿错放盗刷,或是降低准确率也降低扰民的可能?该如何调整模型的表现,就考验着主事者的决策能力。

为帮助人类决策而生的人工智能

虽然,人类始终以做出像人类的AI作为终极目标,但就目前的技术发展来看,近几年要达到这个目标尚不太可能。但在这个目标下,有几个技术趋势值得注意,第一个是强化学习,蔡炎龙说,因为我们很难把所有的规则告诉电脑,透过强化学习,某个程度就是让电脑可以自己学习。

人类的智能与现在的人工智能最大的差别是什麽?我们可以看到,以图形识别为例,人类可以仅在看过几张图片之後就能辨认物品,但人工智能却需要数千张的图片才能训练出识别能力。因此,目前也有一些研究关注於如何运用少量数据进行训练,而这也是未来产业十分需要的应用,毕竟不是每个产业都能拥有大量的数据。

随着人工智能技术的进步,小从个人理财的金融选股,大至工厂营运的流程自动化,机器能帮人类处理的事情也越来越多,许多人以为有了AI後,一切事物都能自动完成。不过,蔡炎龙提醒,并非如此,人要做的事情还很多,只不过有了更多可以帮助决策的工具,管理者的决策能力还是很重要。(本文为财团法人人工智能科技基金会授权转载)

  •     按赞加入DIGITIMES智能应用粉丝团
更多关键字报导: AI