人工智能(AI)已成为微观数据分析中不可或缺的组成部分。然而,虽然人工智能模型变得越来越好,越来越复杂,但计算能力和相关的能源消耗也在增加。
因此,莱布尼茨分析研究所(ISAS)和北京大学的研究人员创建了一个免费的压缩软件,使科学家能够更快地运行现有的生物成像AI模型,并显着降低能耗。
研究人员在发表在Nature Methods上的一篇文章中展示了他们的用户友好型工具箱,称为EfficientBioAI。
“高网络延迟,例如特别大的图像,会导致更高的计算能力,并最终增加能耗,”ISAS的AMBIOM-Analysis of Microscopic BIOMedical Images初级研究小组负责人Jianxu Chen博士说。
一种众所周知的技术找到了新的应用
为了避免图像分析中的高延迟,尤其是在计算能力有限的设备上,研究人员使用复杂的算法来压缩 AI 模型。这意味着它们减少了模型中的计算量,同时保持了预测精度。
“模型压缩是一种广泛应用于数字图像处理领域的技术,可以使模型更轻、更环保,”Chen解释说。
研究人员结合了各种策略来减少内存消耗,加快模型推理速度,即模型的“思维过程”,从而节省能源。
“这些技术在生物成像界通常仍然未知。因此,我们希望开发一种即用型且简单的解决方案,将它们应用于生物成像中的常见AI工具,“该论文的第一作者,AMBIOM的博士生Yu 周说。
节能高达81%
为了测试他们的新工具箱,由Chen领导的研究人员在几个现实生活中的应用程序上测试了他们的软件。通过不同的硬件和各种生物成像分析任务,压缩技术能够显着减少延迟并将能耗降低 12.5% 至 80.6%。
“我们的测试表明,EfficientBioAI可以显著提高神经网络在生物成像中的效率,而不会限制模型的准确性,”Chen总结道。
无需特殊知识
作者热衷于让尽可能多的科学家在生物医学研究中使用EfficientBioAI。研究人员可以安装该软件并将其无缝集成到现有的 PyTorch库中。
因此,对于一些广泛使用的模型,例如Cellpose,研究人员可以使用该软件,而无需自己对代码进行任何更改。为了支持特定的变更请求,该小组还提供了一些演示和教程。只需更改几行代码,该工具箱也可以应用于自定义的 AI 模型。
关于EfficientBioAI
EfficientBioAI 是一款即用型开源压缩软件,适用于生物成像领域的 AI 模型。即插即用的工具箱对于标准使用来说保持简单,但提供可定制的功能。其中包括可调节的压缩级别以及在中央处理器(CPU)和图形处理单元(GPU)之间轻松切换。
研究人员一直在开发该工具箱,并且已经在努力使其可用于 Linux(Ubuntu 20.04、Debian 10)和 Windows 10之外的 MacOS。目前,该工具箱的重点是提高预训练模型的推理效率,而不是提高训练阶段的效率。