- 发布于
分析我的ChatGPT Pro使用情况
TL;DR: 我写了一个Jupyter笔记本来分析我的ChatGPT对话数据,并回答一个关键问题:我的Pro订阅值得吗?
我最喜欢的AI作者Chip Huyen(她的《AI工程》一书非常棒!)的一条推特让我思考起ChatGPT如今在我们个人和职业生活中的重要性。作为一名开发者,我在GitHub热力图上花费的时间多到我自己都有点不好意思承认了,有时甚至为了提高我的提交统计数据而将一些小修补作为单独的提交来合并😆。
I'm using AI so much for work that I can tell how productive I am by how many conversations I've had with AI. pic.twitter.com/fHnt7ooDdy
— Chip Huyen (@chipro) January 14, 2025
虽然GitHub热力图可以衡量我的开发者生产力,但ChatGPT热力图可能更准确地反映我整体的生产力,这个想法真的很有趣。于是,我怀着好奇心和些许忐忑,在这个夏天有空的时候决定分析一下自己的使用情况。
我按照这个帮助文章导出了我的ChatGPT对话数据。
Chip慷慨地在她的aie-book GitHub仓库分享了生成热力图的脚本。我在她的基础上开发了更深入的分析。如果你想跟着操作,可以在这里找到我的笔记本。以下是我的分析结果:
对话热力图
哈哈,我的ChatGPT对话确实呈现了一些有趣的模式!首先,很高兴看到我的使用量在2024年8月末显著增加,这正好是我开始硕士项目的时间。在此之前,我只是偶尔使用一下。有个特别引人注目的日子是2023年11月11日,我竟然发了60条消息——可能是在忙申请研究生的时候😆。
心底里,我知道自己自从读研究生以来,尤其是过去这一年,变成了一个重度AI用户。不过从这个图表看,我的使用量增幅并没有预期那么剧烈,即使在不同年份统一了颜色尺度,差异也并不大。
这让我有点担心——因为我付了200美元购买Pro订阅,我真的需要多多使用才能回本。那么问题来了:我到底有没有用够呢?
深度研究(Deep Research)使用情况
Pro计划的一个重要福利是更高的深度研究(Deep Research)额度:每月125次,而Plus计划只有10次。我非常喜欢这个功能,并且以为自己使用频繁,所以专门进行了分析。
结果让我略感失望,如图所示,我离每月额度的上限还差得远呢。看来得多多利用深度研究功能了!
再深入一想,这结果也合理,因为每月125次意味着每天约4次请求,每次请求的输出可能需要大约20分钟去消化。或许我应该把这个功能重新定义为“强大的搜索引擎”,从而更高效地使用。
Token使用情况
要根据API定价计算我ChatGPT使用的价值,需要准确计算输入和输出token,因为每个助手消息都是基于之前所有消息作为上下文生成的。对话在重生回复时的分支结构进一步增加了token计算的复杂性。
幸运的是,Claude 4 Opus提出了以下准确的算法:
- 助手的每次响应都使用整个对话历史作为输入上下文。
- 用户消息不会产生API费用,只作为上下文。
- 输入token为之前所有消息,输出token仅为当前助手响应。
以下是我的token使用统计,按模型划分:
这些图表提供了一些非常有趣的洞察。从2024年末开始,我逐渐让ChatGPT处理更具挑战性的任务。图表也揭示了我在模型选择上的巨大转变,尤其是在2024年11月发布了模型“o1”后。在此之前,我的使用几乎完全集中在GPT-4及后来的GPT-4o上。有趣的是,一旦有新一代模型发布,之前的模型使用迅速减少——说明AI模型折旧非常快。
ChatGPT Pro值不值?
计算完token使用量与API定价后,我很欣慰地发现订阅确实带来了巨大价值。这主要是因为我大量使用了通过Repo Prompt访问的"o1-pro"模型,其API成本极高(输入每百万token 150美元,输出每百万token 600美元)。
看到这样的数字,就不难理解为何Sam Altman曾提到OpenAI在Pro订阅上是亏损的(主要当时提供o1-pro模型的访问权限)。这也解释了为何最新的o3模型在处理大仓库上下文和大量代码生成方面表现不佳。
insane thing: we are currently losing money on openai pro subscriptions! people use it much more than we expected.
— Sam Altman (@sama) January 6, 2025
根据我的分析,如果你是重度用户,ChatGPT订阅确实能提供极高的价值。实际上我的计算可能还低估了真实价值,因为并未考虑工具调用(如网络搜索和代码执行)——这些都是ChatGPT的“独门秘方”,在公开API上无法使用。
最终,价值完全取决于你的使用方式。深度研究功能价值巨大。大上下文的任务也很有价值。像GPT-4.5、o1-pro和o3这样能力强大的模型要远比低级别模型更有价值。
API成本最大化是不是一个合理的ChatGPT使用策略呢?可能不是,但感觉真的很爽!😆
资源
我的ChatGPT分析项目GitHub上的代码库:https://github.com/YuanpingSong/chatgpt-analytics