Big Data点燃智能医疗火苗 智能应用 影音
Microchip
Event

Big Data点燃智能医疗火苗

  • DIGITIMES企划

台湾医疗机构通过美国JCI国际医院评监者不在少数,显见具备国级医疗水准,辅以不吝针对PET、MRI或CT等先进仪器进行投资,由此观之,台湾医疗业竞争实力不容小觑;在此坚实基础上,若能进一步结合巨量数据分析,可望产生极大效益。

放眼全球,台湾医疗机构在于医疗记录的详实细腻程度,堪称有目共睹,甚至凌驾于欧美先进国家之上,因此推展巨量数据分析应用的空间,也就格外辽阔。

某服务于医疗机构的信息人员指出,以中大型医院而论,每天问诊达数百、甚至上千件,进出数十个、甚至上百个床位,绝对不成问题,依此规模,单单一天即能产生大量数据,就算后续再加以正规化,至少也是破百个交易档案,然这些档案一旦进入数据库,通常被分散储存于不同空间,彼此的Table也大相迳庭,因而难以让管理者综观全局,所以过去即便运用商业智能(BI)工具,分析效果也不大。因此巨量数据分析技术的出现,被视为活化医疗信息、实现智能医疗的一大触媒。

串联分析不同科目的医疗数据,究竟能产生何等价值?简单来说,即是针对药材、耗材、医疗品质等不同型态的信息,分析彼此因果关联,借此促进医疗品质的提升,甚至能进一步透过研究发现更多病根,凡此种种,都蕴含莫大想像空间。

另值得一提的,台湾自1995年迄今,实施堪称独特的全民健保制度,借此累积了健保开办以来全民的就医信息,因此早已具备一套医疗Big Data;而在某一年,健保局将前1年度的健保数据汇出,将身份栏位遮罩后交予国卫院制作「全民健康保险研究数据库」,国卫院透过此一基础,从全台10万个肝癌病患,筛选出518位B型肝炎加肝癌患、并于术后接受口服核苷抗病毒药物(ATZ)治疗的患者,将之归类为「治疗组」,另挑选4,051位B型肝炎加肝癌、术后未服用此药物的患者,列为「对照组」,历经多年验证,治疗组复发机率足足减少3分之1。

运用Big Data分析 肝癌研究不需耗时9年
此一重大发现,实令医学界备感兴奋,但话说回来,此项研究计划从2003年开始执行,尔后共计耗时7年进行数据蒐集,直到2010年才启动相关的分析、统计、编撰、审核与出版作业,额外再花两年时间,因此纵然台湾善用得天独厚的健保数据,成功找出降低肝癌复发机率的方法,但前后历经9年时间,未免太过漫长。

然而台湾的医疗数据,除了来自全民健保数据库外,尚有更为复杂多样的来源,只因多数台湾医疗院所都已投入数码化,所以不管是病患个人数据、问诊数据、血液检验数据、全身影像数据、心电图、脑波、实时生理监测数据…等等,都已逐步转为数码档案,显见医疗业界的Big Data,绝对比一般人想像要多得多。

医界人士透露,一家医学中心每年所产生的X光数码数据容量,即高达9~10 TB,至于核磁共振(MRI)与电脑断层(CT)产生的数据量更大,可能突破100 TB大关。在此情况下,毋需怀疑巨量数据分析对于医疗应用的重要性,因为它不仅能有效支撑医学研究、新药研发的推展,也极可能让原本历时9年的肝癌研究成果,得以加速出炉,让更多人命获得拯救,着实意义重大。

线上医疗照护 使医院获益良多
医疗业可以将巨量数据分析技术,运用在哪些地方?首先是临床诊断,例如作为临床决策支持系统的辅助措施,当医师开立医嘱时,可藉由系统分析比对,判断该医嘱是否违反医学指引,倘若有,即在第一时间对该医师加以提醒,藉以降低后续可能发生医疗事故、索赔纠纷的机率;除了上述的预防性运用外,透过巨量数据分析,也可让临床决策支持系统功力大增,可藉由对于X光、CT或MRI等影像数据的分析,或是挖掘医疗文献数据建立专家数据库,进而给予医师更加精确的医疗建议。

同样有关临床诊断部分,借助巨量数据分析,也有助于医疗院所推动「比较效果研究(CER)」,意即针对病患特徵数据、费用数据、疗效数据进行全盘剖析,再多方比对各种干预措施的成效高低,让医师能向特定病患提出最具成本效益的治疗建议,促使医疗服务品质大幅提升。

其次则是加速落实线上医疗照护。举例而言,医疗院所可透过传感装置、芯片药片等措施,针对糖尿病、充血性心脏衰竭或高血压等慢性病患者,线上监测其生理状态,再藉由巨量数据技术来处理并分析这些信息,一方面可将分析成果回馈给传感机制,好让病患获知自己是否遵从医嘱无误,另一方面这些信息也实时传送至电子病历数据库,并且帮助医师判断是否需要启动紧急治疗措施。

伴随线上医疗照护服务成形,不仅可令慢性病患者受惠,对于医疗院所本身也是一大利多,因为它足以降低门诊预约需求与急诊数量,并大幅减少病患住院时间,从而撙节庞大医疗成本,称得上是一举数得。

剖析基因组数据 实现个人化治疗
当然,巨量数据分析,亦将对于加速医疗研发多所助益。对于药厂而言,新药研发往往是一条漫漫长路,而且过去很难做到资源配置的最佳化,因而必须不断试炼与琢磨,方能找出正确途径,导致研发成本居高不下、研发效率持续不彰,如今运用巨量数据分析技术,即可预先建立预测模型,从而根据药品的安全性、潜在副作用、疗效及试验结果进行综合分析,研判当下的资源配置决策是否得当,终至加快研发步调,及早将成果推向市场,顺势获取可观利润。

另一项备受关注的医疗研发议题,即是所谓的个人化治疗(Personalized Medicine),也是颇能发挥巨量数据分析价值的应用场域所在。简言之,个人化治疗即是颠覆过去的对症下药观念,而是针对病患个人的体质来下药,比方说,用以抗癫痫与治疗三叉神经痛的Carbamazepine药物,某些病患服用后,会出现史帝文生氏强生症候羣(SJS),尤其是带有HLA-B*1502变异的病患,罹患SJS的机率更是正常基因者的1,500倍,严重的话甚至有危及性命之虞,值此时刻,自然不宜仅凭病患的癫痫或三叉神经痛症状,就冒然开立Carbamazepine医嘱;相同的道理,据统计有超过4成的哮喘患者,即便服用乙型致效剂(Beta-2 Agonist),也未见成效,而10~30%的高血压病患,服用ACE抑制剂,也难以产生作用。

何以罹患相同症候的病患,服用同一种药物,疗效竟然大异其趣?主因在于,每个人的基因序列不尽相同,因而造成体质上的差异,而单凭临床实验,只能看出多数人对此药物的反应,但此一反应,却未必放诸四海皆准,所以要想强化临床决策,除了参酌临床实验结果,还需一并参考基因型数据,更有甚者,光是基因型数据尚且不够,还得进一步援引表现型(Phenotype)数据,譬如在细胞中互为抗拮的MDM2 mRNA与p53,前者是后者的负调控子,不宜过大,倘若因动情激素接受体的存在而影响SNP309,便会使MDM2 mRNA表现强过p53,有此体质的人,形成肿瘤的机率即会大增。

由于个人化治疗横跨遗传变异、对特定疾病的易感性、以及对特殊药物的反应关系等多重因子,其间自然蕴含极为庞大的数据量,绝非传统分析技术所能因应,唯有借助巨量数据分析技术,方可透析个中奥妙。