• 周日. 4月 21st, 2024

ChatGPT爆火巨头急了普通人慌了!

admin

8月 11, 2023

作者|张是之

02 ChatGPT能够给我们带来哪些改变?首先带来变革的将会是内容生产领域。

现在很多短新闻、新闻快报已经有很多是机器自动生成的。而今随着ChatGPT的火爆,AIGC,也就是AI Generated Content,AI来生产内容的时代即将到来。

原来机器、电脑等工具的发明,都是被用来代替简单的重复性工作。但如今人工智能已经具备强大的学习能力和创新能力,不仅能够完成重复性工作,同时也能玩出一些新花样。

AIGC不仅仅是ChatGPT,还包括AI作图、AI建模、AI生成音乐等等。

2022年底,AIGC作为人工智能领域的重要突破,入选美国《科学》杂志发布的2022年度科学十大突破。

而随着微软对OpenAI的投资与合作,微软正在推进OpenAI的工具商业化,计划将包括ChatGPT、DALL-E等人工智能工具整合进微软旗下的所有产品中,并将其作为平台供其他企业使用。

可以想象,如果将来微软Office与ChatGPT打通,并与搜索引擎连接起来,在使用Office过程中可以直接调用ChatGPT和搜索引擎,那么对很多文字工作者来说,可能既是效率的提升,也是能力的提升。

这也是为什么谷歌公司感受到威胁的原因之一。

其次,ChatGPT还会带来商业模式上的变化。

硅谷著名的投资人查马斯(Chamath)就认为,随着大模型的功能越来越强、成本越来越高,AI领域有可能会形成一种独特的商业模式,叫做模型即服务,英文简称是MaaS(Model as a Service)。

所谓模型即服务,简单理解,就是大公司开发出了一套AI模型,这是一个底板。这套底板基础很扎实,但是对于专业领域,那些具体的、特别专业的工作,它还需要再深入学习。

而MaaS模式,指的就是把这个基础算法的培训过程,分成两段。基础开发阶段由巨头完成,他们是模型的创造者;而第二个阶段,则由细分领域里的公司来完成。

这个针对AI模型在细分领域的二次训练,就是留给新玩家的机会。

按照MaaS模式,科技巨头在将来会对外开放这些AI模型的调用接口。吸引一些规模较小,但是对行业理解更深的玩家,付费使用这些接口,并将模型打磨成真正满足行业需求的应用。

通过市场合作,从巨头到新玩家再到终端消费者,都可以获益。

巨头承担了巨额的模型开发成本,但可以从其他行业中,收取模型接口使用费,而且避免了过度聚焦到某个特定行业带来的风险。同时,细分行业里的人,也不用从头研发,可以用更低的成本来使用AI模型。

第三,ChatGPT对上下游产业的影响。

产业链上游来看,ChatGPT的火爆,将进一步增加算力、算法、数据标注、自然语言处理、人工智能生成内容等5方面的上游需求度。

算力方面,中金公司数据显示,ChatGPT训练所耗费的算力大约为3640 PF-days,即假设每秒运算一千万亿次,需要连续运行3640天,训练大模型需要强大的算力。

数据标注方面,ChatGPT的训练过程加大了人工标注的力度和精度,这代表着在未来的人工智能领域,优质的数据源和强大的标注能力,将成为行业的基础设施。

对于ChatGPT的下游应用场景,则主要集中在智能客服、搜索引擎、图像、文字、代码生成等方面,海外已经有成功的落地案例。

2023年1月,美国新闻聚合网站BuzzFeed宣布将依托OpenAI为其用户互动栏目Quizzes制作和个性化各种小测试。ChatGPT会生成一系列提问,再根据个人的回答产生用户独有的、可分享的文章。

而不久前,Meta向BuzzFeed支付了数百万美元,以让BuzzFeed为Meta的平台生成内容,并培训平台上的创作者。

可以预见,在不久的将来,ChatGPT和AIGC将影响到我们生活的方方面面。

03

ChatGPT是否能够代替人类思考?

正像历史上很多新技术的出现替代了人工一样,ChatGPT的出现也会替代很多人工工作,但ChatGPT会不会彻底代替人类来思考?或者说替人类做主?

我认为很难,几乎不可能,因为人类还有一个最后的底线,那就是自由意志。

ChatGPT的成功,主要是基于RLHF(Reinforcement Learning by Human Feedback,人类反馈的强化学习)策略进行训练。

简单来说,就是开发人员会给模型提出各种可能的问题,并对反馈的错误答案进行惩罚,对正确的答案进行奖励,从而实现控制ChatGPT的回答。

RLHF解决了生成模型的一个核心问题——alignment(对齐),即如何让AI模型的产出和人类的常识、认知、需求、价值观保持一致。

但是由于人类价值观的多样性,ChatGPT很难保持和人类价值观保持对齐,或者说它并不知道该和谁保持对齐。如果非要对齐价值观,则很有可能取决于人们对它的“投喂”。

比如前几天有人让ChatGPT分别写诗赞美特朗普和拜登,ChatGPT对赞颂特朗普的要求严词拒绝,理由是不干涉党派、保持中立。

但面对赞美拜登的要求,ChatGPT却给出了三大段的回复,赞美拜登是我们的领袖,有一颗真诚的心,富有同情心、善良、智慧等等。赞美之词都快溢出屏幕了。

而进一步的测试表明,ChatGPT成功地写出了赞美近几十年来历任美国总统的诗歌,但轮到尼克松总统时,它又一次拒绝了。理由也是要中立,创作内容时要坚持公正和道德的标准。

这说明ChatGPT的内容生成,目前主要还是取决于人们的投喂,想要和人们的价值观对齐,它可能还没有get到人类价值观的复杂性。

而人类价值观复杂的背后是自由意志的存在,人到底有没有自由意志,首先是一个逻辑问题,而不是一个技术问题。

我们可以观察研究大脑和神经系统的各种生理机制,但却未必能够由此得知思想和意志到底是如何产生的。

正如德国哲学家海德格尔举的一个例子,钟表显示着时间,我们观察这些钟表,我们看见了表盘和走动着的指针,但并没有看见时间。

我们可以打开或彻底检查这只表,时间在哪里呢?我们可以打开一个人的头颅,发现那些相互联结的神经元,但他的思想并不在那里。

我们可以编写一段代码,模仿人类的思考和语言,但人类的自由意志并不在代码之中。

人类自己对自由意志和思想的研究都还没有彻底搞明白,更不用说将其反过来运用到人工智能领域,让其来模仿人类了。

所以,ChatGPT将来可能会成为一款成功的商业工具,可以为人类服务,但说它可以彻底取代人类思考,具备自己独立的自由意志,恐怕还为时尚早。

以上文章内容仅代表作者本人观点,与功夫财经无关。如因作品内容存在侵权等问题,请及时与功夫财经联系。