最近朋友圈越来越多ChatGPT相关的文章,大概是不妨一文了解ChatGPT,如何利用ChatGPT赚钱。然后国内大厂也纷纷表示要推出自己的ChatGPT。甚是热闹。
其实在我看来,ChatGPT的出现,应该算是人工智能的奇点。在这之前人工智能已经逐步在各行各业开始星星点火,尤其是自动化控制方面,但是在自然语言处理方面,还没有较好反响的应用,只是在机器翻译领域引入了相关模型,取得了一定效果。而ChatGPT和人类无休无止的尬聊,让人们认识到了原来ChatGPT已经如此强大了,能够说人话了,这才是重点
。
但是从技术角度来讲,ChatGPT还是原来的技术,这也是强化学习大牛理查德·萨顿发表《惨痛的教训》文章的意思:AI研究人员的汗水比不上算力带来的效应。当然有反驳,但是也不得不承认,现有的AI技术,只要你有资源,尤其是有上万块的GPU,有足够的电费,有足够的人力干体力活,另外还有和以上资源成反比的时间,那你就可以训练出ChatGPT。
尽管OpenAI的GPT不开源,但是有GPT-J、GPT-NEO等开源模型。
纵观AI的历史,还是停留在上世纪五六十年代时的神经理论和上世纪八九十年代的模型创新,再到过往十年(2012-)的张量算力剧增,才有了现在的ChatGPT。

我在某种程度上还是赞同理查德萨顿的意见,认为ChatGPT的胜利,背后是算力的胜利(隐隐约约在说nVidia)。
这种强大的算力带来的问题是节能减排。这个矛盾应该怎么化解?训练OpenAI Five的能量消耗,足以支撑一个人活90年。听着那些GPU的轰鸣声,感觉到电表在飞转。我想,从国家节能减排的大策略角度考虑,GPU算力的统筹利用,AI能力的集中服务,应该是要考虑的点。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容