由于对大语言模型原理完全 0 知识储备,大佬勿喷啊 现在个人设备可以运行 ollama 使用某些模型,w3c 也有像 WebGPU 这样的 API 可以调用用户设备算力,是不是说未来 ai 的方向会更趋向于不需要联网的终端应用?那些大公司花钱买那么多 GPU 堆算力的目的是什么?
1
passive 114 天前 via Android
只能问当下。当下两种都有应用的场景。
评论里说未来怎样的,都只能参考。谁知道未来会有什么牛逼的原理、算法、硬件。 要是我真能知道未来,我就能赚大钱。 |
2
murmur 114 天前
肯定是双管齐下,小爱今年要开全平台 AI ,包括智能音箱
本地 AI 就做抠图 补图 这些东西 |
3
piero66 114 天前 via Android
agi 出现后本地部署模型可能会拉开差距,但一定会有中间件调用云端 agi 来增强本地 llm 的
|
4
mwuxlcanrh 114 天前
LLM 服务的小型轻量化和能力强化都有价值。但是很难让物联网设备去 run ,云服务更有意义。
|
5
ztm0929 114 天前 via iPhone
本地和云并不是非此即彼的对抗,微软推 Phi ,OpenAI 推 GPT-4o mini ,Apple 推 OpenELM 。这些大佬都在全面布局以上设备端小模型的同时继续升级已有的联网大模型。
未来的方向就是强隐私的、聚焦的、追求极速的任务由本地芯片调用小模型完成,通用的、宽泛的、不追求速度的任务交给联网大模型解决。 那些大公司买 GPU 就是为了训练自家模型然后作为服务卖给用户啊😂典型的就是百度 |
7
ztm0929 114 天前
@raw0xff 作为服务带来的直接的经济回报我就不太清楚,大概率不理想,就连 OpenAI 也在长期大量的亏损中(我不确定现在如何),百度 Robin (李彦宏)这么急也就不难理解了(经典言论:开源是“智商税”),言下之意就是我投入了这么多前期成本,大家快点来买我的服务。
但作为大企业提前购置显卡还是非常有必要的,AI 时代里的显卡算力、电力、数据就相当于传统的石油,谁拥有多谁就更有可能有话语权。 |
10
antiblahblah 105 天前
中短期看两者肯定会共存。
头部 ai 能力一定会越来越集中,而且可能会加速演化,拉大差距;但统一大脑的算力要求也非常高,也可能会受限于组织边界,形成多脑竞争的局面,但因为学术领域的区分没有那么大,所以也不会有量级上的差别,而且受限于资源,还是会分层吧,军用,商用,公用等等; 边缘智能也一定会存在,因为存在大量离线场景,但能力上肯定会缩减或做特殊优化,都是蒸馏后的模型。 酒后胡言,欢迎来杠。 |