约 2,360,000 个结果
在新选项卡中打开链接
  1. Fine-tuning是什么意思? - 知乎

    要了解什么是 Fine-tuning(微调),就要先提到迁移学习概念。 迁移学习 迁移学习 (Transfer learning) 顾名思义就是把已训练好的模型(预训练模型)参数迁移到新的模型来帮助新模型训 …

  2. 实验室没有A100,请问4090可以搞llm的微调吗? - 知乎

    2025年5月3日 · 里面的例子是用官网的程序略改过,为了解决低算力条件的微调和库依赖问题,经过很多次培训验证。 4、需要注意的是,做不了全量微调,可以做P-tuning和LoRA微调,经过 …

  3. OpenAI提出的RFT 强化学习微调是什么?数据集应该如何准备?

    2024年12月7日 · 为期12天的OpenAI,在第二天的时候发布了一个名叫“强化学习微调”的技术。 不同于传统的监督微调(SFT),强化微调不仅仅是让模型“记住答案”,而是通过高质量的任务 …

  4. 微调 - 知乎

    2023年6月8日 · MiniMax 最近发布的新一代语音模型 Speech-02-HD,在语音生成评测平台 Artificial Analysis Arena 中登顶第一,超过了 OpenAI 和 ElevenLabs。它也同时在 Hugging …

  5. 除了llama factory这个微调工具,还有那些好用的? - 知乎

    下面工具各有特色,适用于不同的模型和微调需求。选择合适的工具可以大大提高微调效率和效果。 Firefly 简介: Firefly 是一个开源的大模型训练工具,支持主流大模型的预训练、指令微调 …

  6. 请问Deepseek R1 32b微调需要多少显存呢?48GB显存的 ...

    2025年3月14日 · 微调是用FP16,一个参数占两个字节,32B就要64G,全部放入 显存,要两块,你可以试试混合方式 GPU + CPU,跑一遍再说。

  7. 什么情况下需要对模型进行微调? - 知乎

    模型微调(Fine-tuning)是机器学习中一种常见的方法,特别是在深度学习领域,用于提高模型在特定任务上的表现。当一个预训练的模型(如基于大规模数据集训练的模型)在新的、但与原 …

  8. 与全量微调相比,LoRA微调的性能到底如何? - 知乎

    2024年6月27日 · 与 LoRA 相比,全量微调在代码和数学方面更准确、样本效率更高。对于代码,LoRA基本上完败全量微调,而对于数学,LoRA则缩小了更多的差距,但同时需要更长的训 …

  9. 5090d和deepseek微调? - 知乎

    所以要用32B模型,得用INT4量化装入,推理能力就会大打折扣。 3、从学习的角度来看,用INT4量化推理、微调和使用半精度的操作与开发方法是一样的,推理和微调都可以,显存占用 …

  10. 为什么在Deepseek-R1-ZERO出现前,无人尝试放弃微调 ...

    2025年1月30日 · 为什么在Deepseek-R1-ZERO出现前,无人尝试放弃微调对齐,通过强化学习生成思考链推理模型?

刷新