redneck 发表于 6 天前

AI模型自己本地运行和直接使用官网API的效果一样的吗

一样吗?

akatom 发表于 6 天前

一样的吧

hkvip8 发表于 6 天前

不一样,本地搭建的模型,你能感觉到呆板没有灵魂,和对接官网api不一样。本地模型需要训练,联网搜索,学习等等。

宁静致远 发表于 5 天前

试用装和正式版。

DataCenter 发表于 5 天前

本地能跑的参数很少,云厂商一般都几百B的超大模型

lotus 发表于 5 天前

4块4090勉强能跑

jiao1396009596 发表于 5 天前

你本地跑不起来 官网满血的模型 成本太高 还不如api:lol

ATOM 发表于 5 天前

性能当然官方好,但是可用量当然是本地无限制。

日本人 发表于 5 天前

同一模型效果基本一样,本地反而更稳定不会被限流。不过本地跑看显卡,70b以上没48g显存别想流畅。api方便但高峰期会堵,有些模型api根本不提供。本地建议用llama.cpp量化版,3080以上显卡能跑32b。

xieyue 发表于 前天 18:58

怎么说呢   本地是初始版   api是在线更新版
页: [1]
查看完整版本: AI模型自己本地运行和直接使用官网API的效果一样的吗