Hugging Face 研讨“AI 降本增效”:给予更长运算光

日期:2025-01-02 08:31 浏览:

现在业界模子机能平日与练习时期投入的资本绑定,除了头部厂商放肆投入资本练习模子外,很多小型企业跟团体开辟者现实上并不具有充足的资本,为懂得决这一成绩,很多团队试图寻觅降本增效替换计划。Hugging Face 于本月中旬颁布一项讲演,提出一种“扩大测试时盘算(IT之家注:Test-Time Compute Scaling)”方式,也就是用时光来补充模子体量,赐与“低本钱小模子”充分时光,让相干模子可能对庞杂成绩天生大批成果,再应用验证器对这些成果停止测试及修改,重复输出可能比较“高本钱年夜模子”的成果。Hugging Face 团队表现,他们应用这种方式应用 10 亿参数的 Llama 模子停止数学基准测试,据称在某些情境下超出了参数目高达 70 亿的年夜型模子,证实了用时光晋升模子输出内容后果做法可行。别的,谷歌 DeepMind 近来也颁布了相似的论文,他们以为能够为小模子静态调配运算资本,并设置验证器对模子的解答成果停止评分,从而领导模子一直输出准确的谜底,从而辅助企业以较少的资本安排充足精度的言语模子。   申明:新浪网独家稿件,未经受权制止转载。 -->

0
首页
电话
短信
联系