一觉醒来,GPT-4刷屏了,这个场面怎么说呢,有点混乱。吃瓜群众一边津津乐道,一边瑟瑟发抖。
津津乐道的是那些革命性的新功能,瑟瑟发抖的是硅基人距离取代碳基人又前进了一步。
(资料图片仅供参考)
早上已经刷屏很多了,我们就简单概括几点↓
❶ 它能看图说话啦
GPT的前序版本,只是NLP(自然语言处理)模型,只能处理文本信息。
而GPT-4是一个多模态模型(multimodal model),不仅可以接受文本,现在也可以接受图片输入了,然后输出文本结果。
在这种状况下,如果我们需要让ChatGPT辅助我们真正完成一件工作,需要非常详细的一步步写出“Prompt”,其实这很考量提问者的专业能力和技巧。
可是现在,如果GPT-4真正具备了识图、读图能力,那真是太可怕了↓
给它一张UI草图,帮你生成前端代码…
给它一张网络拓扑图,帮你生成配置命令行…
给它一张解决方案架构图,帮你把方案文字编出来…
虽然GPT-4的识图能力还有待检验,但这一天看起来并不遥远。
❷ 它是加州小镇做题家
刷其他题也不含糊,比如SAT数学,可以考到700分(相当于92%分位),而GPT-3.5的水平是590分(大约相当于70%分位)。
❸ 它比以前更难忽悠了
❹它比以前更贵了
GPT-3.5版本,API的价格是0.2美分/1000字(token),而到了4.0版本,价格暴涨,变成:6美分/1000字(token)
可能训练个模型成本太高吧,而推理的成本也不会滴,不过相信这个价格后面会逐步降低的。
另外,GPT-4支持的输入文本长度大大提升了,最高可以到32000(token)。
这个还是很有用的,你想让它帮忙校对一篇文章,或者帮你检查一段代码中的bug,以前可能要分成很多段来输入输出。
❺ChatGPT Plus用户有福利
而且,官方也非常直观地给出了三种模型的差别:
默认的付费版GPT-3.5,响应速度5星,推理逻辑性3星,简洁性2星
免费版的GPT-3.5,响应速度2星,推理逻辑性3星,简洁性1星
GPT-4体验版,响应速度2星,推理逻辑性5星,简洁性4星
我在ChatGPT里试了一下GPT-4模式,确实有点卡,而为了防止广大热心吃瓜群众过多请求,官方还做了限制:每四个小时,最多响应100条信息。
而且因为图片输入的模式只是预览,所以ChatGPT的GPT-4模式也只能输入文本。
GPT-4模式还有个问题:它的训练数据集跟GPT-3.5一样,还是截止到2021年9月。
好了GPT-4的瓜,我们就先吃到这里吧。
总体感受是,现在说人工智能的奇点已到,还为时尚早,但大家太需要一个突破口了,所以才会“全民练模型,人人GPT”。
但我们真的需要那么多大模型吗?
大模型太多,客户场景有点不够用了
关键词: