SparTA:通过智能稀疏性使AI模型更快更小

SparTA:通过智能稀疏性使AI模型更快更小

SparTA:通过智能稀疏性使AI模型更快更小

Close-up of a smartphone showing ChatGPT details on the OpenAI website, held by a person.
Close-up of a smartphone showing ChatGPT details on the OpenAI website, held by a person.

嘿,朋友,有没有想过一些AI模型变得多么荒谬地庞大和耗能?这就像用乐高积木建造摩天大楼,而你可能可以用更小、更高效的设计达到同样的效果。这就是SparTA的用武之地。

微软研究院的团队开发了这个很棒的框架,叫做SparTA。其核心思想非常巧妙:他们不仅仅是随机地让AI模型的部分消失(尽管剪枝是其中一部分)。相反,他们使用了一种新的方法来表示模型中的数据,他们称之为“具有稀疏属性的张量”(TeSA)。可以把它想象成给你的数据添加元数据——关于重要位和可以安全忽略的不太重要位在哪里额外的信息。

TeSA的妙处在于它在整个模型中跟踪这种稀疏性信息,从输入到输出。这使得SparTA能够以适应特定稀疏模式的方式优化模型的速度和内存使用。这就像有一个超级高效的建筑师专门为你现有的材料设计建筑一样。

结果令人印象深刻。他们已经证明,与其他最先进的稀疏模型相比,SparTA可以将推理速度(即使用模型进行预测的过程)提高1.7到8.4倍!而且它使用更少的内存。对于在资源有限的设备(如智能手机或嵌入式系统)上部署AI模型来说,这是一个巨大的胜利。

本质上,SparTA是一个改变游戏规则的技术,因为它不仅仅是使模型稀疏;它还是关于创建一个系统,在整个过程中智能地管理和利用稀疏性。这是一个端到端的解决方案,让研究人员探索构建更高效和强大的AI模型的新方法。很酷吧?

Read the English version (阅读英文版)

免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。