谁说扩散模型只能生成图像和视频?现在,他们可以编写高质量的代码,并且比传统的大型模型更快! Intection Labs推出了基于汞扩散技术的新的大型商业语言模型。水星打破了自自行字自动模型的局限性,并使用“结构化噪声”方法同时预测令牌并提高生产速度。这样,水星解决了自我保健的问题。 “一旦生成,很难返回并调整它。”扩散模型不仅考虑了先前生成的内容。可以在生成过程中执行动态错误的校正和修改,从而提供更大的灵活性。尽管扩散了技术,但水星模型家族仍保留了变压器的架构。这允许模型直接复制有效的训练技术和推理优化(例如优化低 - 近年来已针对大型语言模型开发的订单操作员,超参数调整工具等。事实证明的数据表明,面对同一编程任务,汞代码生成速度的速度比传统工具快10倍,从而大大降低了开发周期。在水星GPU H100中实施1109代币/2秒的性能使用成熟的变压器作为神经元网络的基础,并与扩散技术的平行生成能力相结合,不仅可以保留大型模型的兼容性,还可以破坏单词生成模型的速度限制。汞中的中央创新在于“扩散的生产”。这是:训练阶段进度的过程:从真实文本开始(例如代码片段),逐渐添加噪声(例如随机替换,消除令牌),并最终成为完全随机的噪声序列。因弗推理阶段的SE过程(核):它从随机开始,它生成适合实际分布的文本。动态消除编程,量化载体的Sion和其他技术,以最大程度地提高GPU的性能,实现有效的硬件使用并降低培训和推理成本。平行文本生成传播的机制使模型可以通过单个传播向前进行多个令牌进行预测,这与单词在自我代表性模型中的单词产生相比,可以显着改善GPU的使用。 NVIDIA H100 GPU,Mercury Coder Mini和Mercury Coder Small(Mercury Coder系列编码优化产品)分别实现1109代币/秒和7个,具有37个令牌/秒和第二个性能。 Copilot Arena的参考点将硬件资源的使用减少了60%,同时压缩了其他工具的1/4响应时间。汞是一种动态消除编程算法,可自适应调整E的数量极限步骤,减少简单任务中的计算量,维持复杂任务的迭代动作,平衡精度和效率,从而更有效地利用硬件资源并使用最有效的不必要的计算。混合精度量化技术模型在推断期间自动更改为低精确计算机模式,在通过剩余补偿机制维持输出质量的同时,将记忆足迹降低了30%。这使汞可以在有限的硬件内存下运行,而不会显着影响性能。强大的错误校正能力与传统的自我体育模型不同,这些模型为每个单词“从左到右”产生单词。当能源产生难以调整时,汞不限于仅考虑先前生成的内容,并且可以在生成过程中动态修改先前的内容。备忘录双向关注cAnism在消除过程中介绍了上下文双向相关性,从而可以更好地理解文本的正面和后语境,并允许更精确的发现和纠正错误。实时的误差校正模块的模型可以在消除步骤中获得。在代码生成任务中,水星编码器会自动纠正逻辑漏洞,并在特征级别上自动固定参数,从而有效提高代码的准确性和易用性。多语种语法树的集成汞有助于在传播过程中集成诸如Python和Java等语言的抽象语法结构(AST),并减少语法错误。在LLM出现之前,超快速响应Speedida与当前的CI函数不匹配。连续集成/交付速度(CI/CD)已成为IMPOrtant瓶颈,浪费时间,开发人员期望在测试过程中提取请求(PR)。操作的修改可能需要您在尾部等待数小时,甚至可以由于不稳定而重新启动。 Mercury模型提供了超快速书面的响应,但是就像该Internico如果每个代码更改需要几个小时的尝试,就可以做到这一点。大型模型可以比人类更快地编写代码100倍,但是如果无法保持测试速率,那就没有多大意义。问题是如何减轻与当前CI特征不符的超快速响应速度的问题。有些人认为IC速度问题可以简单地是“更多机器”,因为开发人员的时间比机器的时间昂贵得多。但是,其他人表示,这对于诸如Google之类的“货币打印机”可能是可行的,但是对于普通公司而言,IC预算是固定的,并且增加计算机资源并不是一件容易的事。这Inception Lab Mercury Developlers Incepti Stanford,加州大学洛杉矶分校和康奈尔大学的三个共同创始人。 Google DeepMind,Microsoft Research Institute,OpenAI.Arthur Samuel Best Paper在2018年。其中包括包括Google DeepMind,Microsoft,Meta,Meta,OpenAI和NVIDIA退伍军人,目前正在专注于通过散布技术提高规模模型的性能。 Intection Labs还将打开Mercury Models在线体验平台。有兴趣的朋友可以通过单击下面的链接来体验它〜纸质地址:https://arxiv.org/abs/2506.17298 Mercury Online Enline Experace平台:https://chat.inepperionlabs.ai/reference链接:https://news.ycomombinator.com/item?文章? Qbitai),作者:Wen Le