港大北航等大模型引热议刊物评解决能源需求!作者亲自解读在此
-
港大北航等大模型引热议,刊物评解决能源需求!作者亲自解读在此
BiLLM团队发自凹非寺量子位|公众号QbitAI极限量化,把每个参数占用空间压缩到1.1bit!IEEESpectrum专栏,一种名为BiLLM的训练后量化(PTQ)方法火了。通俗来讲,随着LLM参数规模越来越大,模型计算的内存和资源也面临着更大的挑战。如何把模型变得小巧经济实惠,能塞进手机等设备中?BiLLM解决的正是这样的一个问题。它使用1bit来近似网络中的大多数参数,使用2bit来表示一些对性能最有影响的权重。实验测试中,研究人员对OPT模型、Llama系列进行了二值化。在OPT模型家族上,BiLLM以1...