是否有 AI 能实现投喂某本书之后再让它把所有关于 XXX 的描写列出来?

42 天前
 senlinmuvs

要能用户自己导入书籍 甚至可以导入很多本书,然后让它从所有这些书里找,能实现不?

1147 次点击
所在节点    OpenAI
24 条回复
183387594
42 天前
现在很多支持文档上传的 都支持了,kimi,minimax,讯飞
向量搜索+ai 解读
senlinmuvs
42 天前
@183387594 OK 谢谢
senlinmuvs
42 天前
@183387594 minimax 像没看到针对普通用户的界面
讯飞也是针对开发者的吧
kimi 之前倒是试过 老是说人太多
183387594
42 天前
@senlinmuvs 3l ,是的 有向量化的接口 可以本地做知识库 再结合他们的接口
senlinmuvs
42 天前
@183387594 要是有能完全在本地跑的就好了 就一个单机软件 导入 然后分析
MapleEve
42 天前
@senlinmuvs 本地可以,训练千亿级大模型先准备几百万的设备就行。就算花钱云上微调训练也要大几千上万
senlinmuvs
42 天前
@MapleEve 把那些训练好的模型打包进单机软件 再用来分析固定的文本 就不需要这么复杂吧
MapleEve
41 天前
@senlinmuvs 你先明白本地要跑起来训练好的模型需要多大的显存,然后再搞明白 finetune 需要多大的显存。本地不是不能跑,是你的电脑跑不了。
senlinmuvs
41 天前
@MapleEve 哦 那不了解 跑起来大概是要多大配置呢
ywkk
41 天前
@senlinmuvs 你不了解,你以为打包的仅是这本书的内容,其实你需要打包的是理解这本书的大脑,也就是大模型本身,千亿大模型需要什么配置,你的本地化就需要什么配置。
senlinmuvs
41 天前
@ywkk 我说的就是打包大脑要多大配置呢 有固定场景的大脑应该比那些通用智能的大脑需要的应该是简化些的 现在没有 以后应该会出现
senlinmuvs
41 天前
@ywkk 那个啥文生图的不是就有本地的方案吗
MapleEve
41 天前
@senlinmuvs 得了吧,什么都不懂,能跑得动千亿大模型的集群硬件成本就是大几百万。
本地能跑的那些都是玩具。
senlinmuvs
40 天前
@MapleEve 现在那些线上的不也是玩具 世界上第一台电脑还有房子那么大呢
MapleEve
38 天前
@senlinmuvs 是的你说得对,所以你去造一台出来吧
senlinmuvs
38 天前
senlinmuvs
38 天前
@MapleEve 看你博客了 啥都往网上放
MapleEve
38 天前
@senlinmuvs 笑了,7B 模型有锤子用,Grok 跑起来要 200G 显存也是个垃圾。
你先看明白电脑跑 100B 模型要什么配置再说吧,什么都不懂,别人指出你的理解有问题还杠。
你说的都对,你自己去部署了试试吧。
senlinmuvs
37 天前
@MapleEve 行吧 想必你是想得这么个回复:“你厉害呢”
ruike2
37 天前
这就不得不提及这个 AI 工具网址大全了: https://aitool8.com/

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1027478

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX