国产精品白丝流水JK娇喘_亚洲国产成人一区二区精品区_国产精品丝袜无码AV在线_欧洲午夜精品一级毛片_亚洲韩国无码国产精品

  • 酣歌恒舞網(wǎng)

    01月17日訊 U23國足公布官方陣型,繼續(xù)為4-4-2陣型

    主打一个快!腾讯开񅆠.3B端侧模型,手机耳机都能跑

    智东西作者 李水青编辑 心缘

    智东񕻸�日报道,今日,腾讯混元开源一款面向消费级硬件场景的“极小”模型HY-1.8B-2Bit,等效参数量仅񀙚.3B,内存占用�MB,比常用的一些手机应用还小,可本地化部署于手机、耳机或智能家居等设备应用。

    该模型基于首个产业񏊈比特(Bit)端侧量化方案,通过对此前混元的小尺寸语言模型HY-1.8B-Instruct进񕋺比特量化感知训练(QAT)产出。这一模型对比原始精度模型等效参数量降𱤒倍,沿用原模型全思考能力,可根据任务复杂度切换长/短思维链;同时在真实端侧设备上生成速度提𴃈-3倍。

    ▲ HY-1.8B原始精度模型生成效果

    ▲HY-1.8B-2Bit模型生成效果,2bit量化后的模型速度明显更快

    比特是计算机存储的最小单位,一般模型的精度񀙜比特、4比特、8比特、32比特等表示方法,数值越大模型的精度更高,所占的内存就越大。虽񆰞比特量化的精度损失较大,但通过QAT和先进的量化策略,团队已经能񗒜比特模型接近全精度模型的性能,对񃙌比特PTQ模型版本数学、代码、科学等指标上表现相当。

    对于原始模型大小只񀙛.8B,量化bit数只񀙜bit的HY-1.8B-2Bit,混元团队采用了量化感知训练策略,从而显著提升了量化后模型的性能。腾讯混元还通过数据优化、弹性拉伸量化以及训练策略创新三个方法,来提升HY-1.8B-2Bit的全科能力。

    部署方面,腾讯混元提供了HY-1.8B-2Bit的gguf-int2格式的模型权重与bf16伪量化权重,对比原始精度模型,HY-1.8B-2Bit实际模型大小直񝼈倍,仅�MB,能够灵活用于端侧设备上。该模型也已在Arm等计算平台上完成适配,可部署于启用Arm SME2技术的移动设备上。

    在MacBook M4芯片上,HY-1.8B-2Bit固定了线程数𰹆测试了不同窗口大小下的首字时延和生成速度,模型选定fp16、Q4、HY-1.8B-2Bit三种gguf格式作为对比,首字时延�输入内能够保𽸍~8倍的加速,生成速度上常用窗口下对比原始模型精度,HY-1.8B-2Bit能够实现至𹢬倍稳定加速。

    在天�上同样进行了测试,对比HY-1.8B-Q4格式首字时延能够加񚄷.5~2倍,生成速度加速񏉽.5倍。

    项目链接:https://github.com/Tencent/AngelSlim模型地址:https://huggingface.co/AngelSlim/HY-1.8B-2Bithttps://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF技术报告:https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf

    结语:模型“瘦身”,加速端边侧智能发展

    HY-1.8B-2Bit的推出标志着腾讯在小型化、多语言和端侧AI上的新突破。它不仅在性能上接近更大规模的模型,还兼顾了速度、内存和隐私的平衡。

    从去年中阿里的Qwen-Embedding-0.6B、谷歌񊄨.27B的Gemma 3、0.3B的EmbeddingGemma,再到今年初腾񗓖.3B的HY-1.8B-2Bit,越来越多的小尺寸模型可供开发者选择,推动RAG、语义搜索等应用不断下沉至个人设备。

    当前,HY-1.8B-2Bit的能力仍受限于监督微调(SFT)的训练流程,以及基础模型本身的性能与抗压能力。针对这一问题,混元团队未来将重点转向强化学习与模型蒸馏等技术路径,以期进一步缩小低比特量化模型与全精度模型之间的能力差距。

    訪客,請您發(fā)表評論:

    網(wǎng)站分類
    熱門文章
    友情鏈接