Page 1 of 1

处理都需要大

Posted: Sun Mar 23, 2025 5:53 am
by MasudIbne756
所有这些信息量的计算资源。人工智能模型越大,训练、计算能力和能源的成本就越高——更不用说下游的维护成本了。例如,openai 的 chatgpt-4 的成本超过 1 亿美元。每个参数都会增加价格标签,该标签乘以每条输入数据,称为代币。这就是为什么即使是看似简单的任务,比如回答人工智能的一个简单问题——“德国的首都是哪里?”——也是资源密集且昂贵的。

简单来说,在很多情况下,具有数千万个参数的通用 llm 对于需要帮助完成特定任务的业务用户来说是过度的。

salesforce 执行总裁兼首席科学家 silvio savarese 表示:“参数数量只是决定 ai 部署能否很好地 泰國電話 解决现实世界问题的众多变量之一。”

(若要深入了解何时需要或不需要 llm 规模,请查看与 savarese 的问答)

此外,llm 需要大量高质量的数据集。获取和预处理这些数据集可能非常耗时且成本高昂。训练它们则需要付出更多努力和成本:你必须确保数据多样化,并且能够代表将影响的人群。设置和维护所需的基础设施(例如云计算和专用硬件)的成本也可能非常高。