设备不是问题,又不是从零开始自己跑模型、本地训练。文心一言、通义千问、智谱ai、openai等等大厂一般都 ...
这不现实,持续烧钱要多久才能训练初步效果,没有几百万次以上,初步效果都没有 ywl 发表于 2024-10-16 19:46
这不现实,持续烧钱要多久才能训练初步效果,没有几百万次以上,初步效果都没有 ...
帖主通过对话的方式都能够让ai写出初步、简单的火山代码,通过在线平台喂数据实际上也是“通过大量的对话进行学习”(即输入数据集训练),整个训练过程不涉及写模型代码、不涉及到本地搭建,都是基于大厂已经提供好的模型进行在线训练,只需要提供整理好的数据集。效果取决于喂的数据集质量,就如向ai提问一样,需求、问题都说不清楚,当然获取的答案就不准确、不满意,因此也衍生出了提示词工程,很多**虽然它自己并没有制作模型的能力,但是基于这种“技术”,可以将模型快速运用到自己的产品(比如,大学搜题酱app,一个搜题软件,通过提示词赋与其ai解题的功能)。因此,首先数据集要保证质量,举个例子,肯定不能将某个项目的整个源码直接作为数据集,因为模型一开始是不认识火山代码的,我们需要将这个项目中一个个细小功能的实现代码进行拆分,将单独的小功能整理成对话的形式,并解释每一行火山代码的含义,如此海量的小对话组成庞大的数据集,将这样的数据集喂的模型训练才行。所以我才说,难点在于数据集的整理,而训练、部署这些涉及到代码层面的繁琐步骤全部都可以基于大厂的在线平台,这些部分是不需要自己从头开始做的。 ywl 发表于 2024-10-16 19:46
这不现实,持续烧钱要多久才能训练初步效果,没有几百万次以上,初步效果都没有 ...
文心一言的在线训练好像是按数据集量和迭代次数进行收费,那就取决于数据集的量了,普通的小数据集训练微调也就几百块钱,其实相比于自己用开源项目跑模型来说成本已经很低了。想让ai写火山代码就得主动去整理数据集训练了,毕竟“小众”编程软件,大厂不会主动关注的。或者,ai生成原生代码,火山本身利用好嵌入代码和原生语言丰富资源的优势,让用户更容易将原生代码在火山中调用,这也是在火山中利用ai写代码的一种方式,但这就需要一点原生语言的基础了。 创世魂 发表于 2024-10-15 21:52
问题是没钱来训练大模型。。这玩意烧钱。不是随便买两个显卡就行的。
把训练的做成客户端后期按照训练次数给使用次数 这些吴总搞不了,因为没有这个关注维度,也没有时间精力。也许忙完这几年,准备关注的时候,已经不需要了,因为到时候直接让ai自己阅读本地电脑目录里的所有文档,让ai自己学,不需要你去整理数据投喂了 训练模型等于是给AI上学,从小学到大学花的钱不知道是人多还是AI多;P
页:
1
[2]