Waterloo大学的研究人员开发了一种新的可解释的人工智能模型,以减少机器学习生成的决策和知识组织中的偏差,提高信任度和准确性。
传统的机器学习模型通常会产生有偏见的结果,偏向于人口众多的群体,或受到未知因素的影响,并且需要花费大量的精力从包含来自不同类别或主要来源的模式和子模式的实例中进行识别。
医学领域是一个受机器学习有偏见的结果影响很大的领域。医院工作人员和医疗专业人员依靠包含数千份医疗记录的数据集和复杂的计算机算法来作出有关患者护理的关键决策。机器学习用于对数据进行排序,从而节省了时间。然而,具有罕见症状模式的特定患者群体可能会被忽略,并且被错误标记的患者和异常情况可能影响诊断结果。这种固有的偏见和模式会导致对特定患者群体的误诊和不公平的医疗保健结果。
Waterloo大学杰出的系统设计工程荣誉教授Andrew Wong博士领导了一项新的研究,他提出了一个创新的模型,旨在通过从数据中解开复杂的模式,将它们与不受异常和错误标记实例影响的特定潜在原因联系起来,从而消除这些障碍。它可以增强可解释人工智能(XAI)的可信度和可靠性。
Wong说:“这项研究对人工智能领域作出了重大贡献。在分析来自X射线晶体学的大量蛋白质结合数据时,我的团队揭示了物理化学氨基酸相互作用模式的统计数据,由于结合环境中存在的多种因素的纠缠,这些模式在数据水平上被掩盖和混合。那是我们第一次证明纠缠的统计数据可以被拆分开来,从而以科学证据正确描绘出数据层面遗漏的深层知识。”
这一发现促使Wong和他的团队开发了新的XAI模型,称为模式发现和解纠缠(PDD)。
“我们希望通过PDD弥合人工智能技术和人类理解之间的差距,帮助实现值得信赖的决策,并从复杂的数据源中获取更深入的知识,”Wong团队的首席研究员Peiyuan Zhou博士说。
来自多伦多大学的自然语言处理专业的合著者和合作者Annie Lee教授预见了PDD对临床决策的巨大价值。
PDD模型彻底改变了模式发现。各种案例研究都展示了PDD基于临床记录预测患者医疗结果的能力。PDD系统还可以在数据集中发现新的和罕见的模式。这使得研究人员和从业者都可以检测到机器学习中的错误标签或异常情况。
结果表明,在严格的统计和可解释的模式的支持下,医疗保健专业人员可以做出更可靠的诊断,从而为不同阶段的各种疾病提供更好的治疗建议。
这项名为“Theory and rationale of interpretable all-in-one pattern discovery and disentanglement system”的研究发表在npj Digital Medicine上。
最近,PDD 获得了国家科学和技术研究中心(NSER)1.25 亿美元的“Idea-to-Innovation Grant”资助,这表明它得到了业界的认可。