现在还有人需要“翻译 API 服务”吗?

183 天前
 vagranth

我知道现在各种免费的工具已经很好用了,像“沉浸式翻译”这种插件,直接看外文网页时已经不存在任何问题。

但不知道是不是还有人需要翻译 API 服务,并且愿意为此付费的。

我前几天写了一个自己用,只是一个简单库,还没封装成独立应用。

其实本质就是简单把 LLM 接口包一下就行,不算难,只是依赖外部 LLM 服务。

所以就算收费也不会太高,而且是一次性的。

不知道这样的产品有没有需求。

4218 次点击
所在节点    奇思妙想
31 条回复
OHYOLO
183 天前
一次性?而且沉浸式不就可以自定义 llm 吗
linwuhi
183 天前
开源吧
mumbler
183 天前
LLM 服务是别人提供的,相当于你破解了,拿出来收费,为什么不直接跟硅基流动,火山引擎买 LLM API 呢,明码实价,你这个也许明天就不能用了
vagranth
183 天前
@mumbler LLM API 都是公开的,不算破解。
vagranth
183 天前
@OHYOLO 沉浸式翻译是插件,是在网页上给人用的。
我说的是 API 服务,是把“翻译”功能做成了 API 给机器用的。
vagranth
183 天前
@linwuhi 失业了,即使是再简单的东西,也不想开源了。
vagranth
183 天前
从我个人的角度,未来不能用的问题倒是不用担心。
因为只要机器性能过得去,自建一个 ollama 太简单了,加上个免费的 model 就能一直用。
然后翻译服务只需要简单配置就可以。
mumbler
183 天前
@vagranth #4 谁的 LLM API 是公开的,有文档吗,QPM 限制吗,有鉴权吗
vagranth
183 天前
@mumbler 呃,可能你对这些不了解?
我自建的 ollama ,大概也就几条命令就能跑起来。
然后就可以用 openai 接口去连,甚至 tool 也能跑。
文档在 openai 或者 ollama 官网都有,无需鉴权。
mumbler
183 天前
@vagranth #9 你自建的 Ollama ,那算力谁提供呢,你提供?还是用户本地部署
vagranth
183 天前
@mumbler 用户本地部署
xuld
183 天前
如果是卖 api ,那就只能卖给程序员。
如果你说你前几天写了一个自己用,意思是:写几天就搞定了。
那请问程序员为什么不自己花几天时间搞定,而要买你的东西。

这就好比让钢琴家花钱听别人弹钢琴,你觉得可能有人付费吗
shewhen
183 天前
@vagranth #7 本地的 OLLMA 性能不强,翻译准确性不如直接复制出来找 gpt 了。。
maymay5
183 天前
门槛太低,这个你即便是开源出来,用的人也不会多,收费那就更加没人了,To C 干不过 Pot 、Bob 这类,To B 他们可能不会去选择通用翻译,而是买有道这些大厂的专门用于垂直领域的专用翻译 API ,因为 To B 不需要通用,LLM 特点就是通用~
clf
183 天前
门槛太低了。我对接 10 个翻译 api 也才 1 天不到的时间,甚至有些是从复杂网页提取翻译结果都不用多久。
hammy
183 天前
我觉得不太需要。
不懂技术的不知道什么是 api
懂技术的自己可以搞定 api
位于中间的这群人,有 gt4t 这种产品存在许多年了
sagaxu
183 天前
腾讯阿里等都有免费 API ,简单聚合一下足够用了,哪用得着买服务
M9l7chlLGv
183 天前
我之前也写过一个类似项目(开源免费):
https://www.v2ex.com/t/1068946
https://github.com/moeru-ai/arpk
vagranth
183 天前
你们说的对,看来确实没什么需求
lloovve
183 天前
包装 api 没用。有能力的都自己集成别的 api 了,如果你面对用户,可以封装成特殊场景 app

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1121674

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX