起飞咯, Meta 发布代码助手模型

258 天前
 iX8NEGGn
介绍说比 GPT 3.5 还强,程序员可以代码助手自由了?
地址: http://github.com/facebookresearch/codellama
2430 次点击
所在节点    分享发现
13 条回复
yitdlxl
258 天前
总的来说,在 A100- 80 GB ( TDP 为 350- 400 W )的硬件上训练所有 9 个 Code Llama 模型需要 400 K GPU 小时的计算。估计总排放量为 65.3 吨二氧化碳当量
murmur
258 天前
@yitdlxl 魔怔了?总比挖矿好吧,AI 模型还能造福人类,挖矿除了扰乱经济秩序还有为犯罪提供渠道还能干嘛
mxmbfa
258 天前
现在有好多水平和 3.5 相当的 ai 好开心
westlinkin
258 天前
好像不能在 m1 上跑
janwarlen
258 天前
Code Llama: our base models designed for general code synthesis and understanding
Code Llama - Python: designed specifically for Python
Code Llama - Instruct: for instruction following and safer deployment

Code Llama - Instruct 主要侧重点是啥,没看明白英文,英文渣,侧重于运维部署?
iX8NEGGn
258 天前
@janwarlen 一个针对所有代码,一个针对 python 代码,一个针对自然语言指令
cryptogems
257 天前
意思是更符合人的直觉,类似对话的模式,前面两个差一些
superares
257 天前
@janwarlen 前两个是代码提示,第三个是代码生成
yitdlxl
257 天前
@murmur 你是不是没脑子,这是官方文档的。另外我要表明的是谁家电脑跑得起来啊?
superares
257 天前
@yitdlxl 你发的那个是训练用,直接跑模型要求没那么高
murmur
257 天前
@yitdlxl 但是我在首页、license 、policy 里都没找到,另外 v2 鼓励直接放原文链接
chesha1
257 天前
@yitdlxl
训练和推理不一样。。。人家是说这个模型花了多少资源训练,你推理只需要很少的资源
就像造一辆汽车需要占地几万亩的工厂,投资几十亿的产业链,但是你需要花几十万,就能买一辆车回去开
DIMOJANG
257 天前
实测 M2 丐版 mba 几乎跑不动,可以生成结果但是生成的过程会让电脑几乎完全卡住🤣

用的是这个开源项目 https://github.com/jmorganca/ollama

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/968137

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX