ChatGPT这玩意儿怎么就突然横空出世了? 我说说你听

ChatGPT这玩意儿怎么就突然横空出世了? 我说说你听听哈哈哈

Chat gtt,你们都让我聊,我这真的各种私信都快晕了,那咱就聊聊呗,这个聊天机器人哈,咱们得追溯到1950年,那时候啊,号称计算机科学之父,人工智能之父的艾伦图灵发表了一篇具有划时代意义的论文,提出了一个很有哲理的叫做模仿游戏,也就是说咱们大名鼎鼎的那个图灵测试,就是说当你在不面对面的时候,跟人家文字聊天,你能不能准确的判断出来对方是一个人还是个机器人,如果你要是很难分辨出来呢,那就一定程度上哈,可以说这个机器还是智能的,你看这图灵测试哈,是不是又简单又易懂又具体,而且还挺有意思的,所以呢,就吸引了很多计算机方面的科学家来向他发起冲击,不过最开始的时候都是一些非常简单的指令,他就是通过一些语言技巧,就是小聪明来尽量让你感觉到你好像是在跟一个人对话,就比如说1966年的时候啊,MIT实验室里就发明出来一个聊天机器人叫AA,这开发者就很聪明了,他给AA的设定是个心理治疗师,你看这种咨询师一般不都是少说话多倾听嘛,所以呢,他就可以问人家说。

就能什么想法,人家不拉不啦说一大通,然后他又问说你最近休息的怎么样,人家又不拉不啦说一大通,他少说就少错嘛,所以呢,就真的让人误以为他在倾听,然后跟你沟通,而其实他背后就是一些非常简单的if,什么什么带什么什么的代码,比如说他一看到说mother妈妈这个词的时候,他就会跟你说,跟我说说你的家庭,就类似这种的关键词哈,大概有200来个,然后到了30年之后的1995年,哈莱又出来了一个后辈叫Alice,他就进化的已经很强大了,虽然呢跟PT还没法比,但就很日常,那些对话他已经都可以应付了。不过本质上啊,不管是这个elia还是A,他的原理都是基于一个叫做pattern match,就是模式匹配,就比如说他听见你好,你就问人说吃了吗?他听见妈妈,他就说跟我说你的家庭,类似这种,其实啊,即使是在现在一些购物网站啊,银行什么的机器人,他基于的还是这种pat matching的模式,就比如说你跟他聊天,你一说到退货,他就啪给你发个退货流程,或者你一说ATM,他就啪给你发个附近ATM的地图,这种匹配模式他虽然称不上是非常的智能,但确确实实。

减少了很多那种大量人力机械性的重复回答,但咱就从智能的角度讲哈,你说这种限定规则的机器人,就算你的规则写的再复杂,预设再多,也不可能穷尽所有的答案,它更不可能去创造新的答案,所以呢,你要真的想通过那个图灵测试,想要变成真正的智能,单凭这种模式匹配哈,是不可能实现的。于是啊,就出现了语言学习里边一个新的流派,这个呢,也是人工智能里边非常重要的一部分,就是机器学习,顾名思义哈,它的基本理念呢,就是让机器去学习,就是说我不给你人为规定一些规则和回答了,就给你一大堆现成的例子,让你自己去学习找规律。基于这个理念啊,就像2001年就有了一个叫做smarter child的更聪明小孩,这么个机器人就火出圈了,他为什么火呢?首先啊,他用了一些机器学习里边当时比较先进的模型来让聊天变得更自然,而且啊,2000年那会儿不是兴起了一大批聊天软件嘛,什么AOL Windows、雅那个smart child就把这些平台横扫了一遍,就让全世界好几亿人都可以跟他对话,不管你问他什么。

你甭管他答的怎么样,总能跟你聊这两句,可以算是GT的大前辈,你说这么好玩的东西,那立马就风靡全球,吸引了超过3000万的用户跟他对话聊天,他每天啊,光接收的信息就要超过10亿条,被各种人聊骚。直到2007年的时候啊,他被一家巨头公司给收购了,你猜是谁?就是微软,你可以看出来,微软在那么早的时候就已经开始觊觎这个领域了,哇,这个更聪明小孩呢,虽然已经很能聊了,但是离通过图灵测试还有很长的距离,就你跟他聊两句就知道那就是个机器。好,咱们继续进步哈,到了2010年的时候,机器学习里边的一个领域啊,开始闪光了,叫做人工神经网络artificial neural network,你看啊,我们人的大脑其实是靠超过100亿个神经元通过网状链接来判断和传递信息的,虽然这每个神经元都很简单,但是他们组合起来就可以判断非常复杂的信息。所以这个人工神经网络哈,其实就是想模拟人脑的这种形式输入信息。

呢,就会经过若干个隐藏神经节点的判断,就跟神经元似的,然后给你输出,结果人们就发现哈,这个模式真的特别适合解决,就是人们一看就知道,就凭直觉那种事,就比如说你一看到一张脸,你就能迅速知道他是谁,但是刘强东出我这张脸吗?会远吗?我根本不知道她漂不漂亮,你想之前要是让电脑判断出这个人是谁,那简直太难了,但是你用这个神经网络哈,机器学习就能慢慢摸索出规律,现在啊,它的应用已经非常广了,不光是人脸识别,像声音识别,自动驾驶,包括前几年下围棋打开柯洁那个AlphaGo,都是用这招练出来。

所以说啊,这个神经网络在刚才我们说那些领域都可以大展宏图,但回到文字领域呢,它发展就不太顺,为什么呢?因为这个机器学习哈,它一般都是用一种叫做循环神经网络,就是RNN来处理,文字的问题呢,就是它没法同时进行大量的学习,而且你这句子也不能太长,要不然你学到后面的时候前面都忘了。直到2017年的时候,谷歌出了一篇论文,提出来了一个新的学习框架,叫做transformer,具体的机制就比较复杂了哈,那肯定也不是小林能搞明白的,但结果呢,就是他可以让机器同时学习大量的文字,就比如原来那些字你得挨个学,就跟电路串联似的,现在呢,你可以同时学,就跟并联似的,这样一下,那训练的速度啊,效率不就大大提高了吗?有了这个transformer哈,机器在文字学习方面那就像打通了人督二脉,现在很多自然语言处理模型其实都是建立在它的基础架构之上的。好,你看啊,现在技术方面已经有非常强的突破,万事俱备,那不就差人和钱了吗?是时候是趁GDP登场,就在2015年哈,包括马斯克。

彼德蒂尔在那几个大佬一起注资了10亿美金,成立了一家非盈利组织叫open AI,也就是gpt的母公司来进行AI方面的研究,你看他非盈利嘛,就是说我不是为了赚钱,我纯粹是为了推动这项技术的发展,所以呢,他的研究成果包括专利都是对外公开的,你看这个投资人里哈,咱们是不是听到了大家都非常熟悉的马斯克,实际上呢,他逐渐发现啊,他的特斯拉在AI方面也需要大量的投入研究,搞自动驾驶什么的,所以呢,就为了避免特斯拉跟open AI这两家公司的利益冲突,他呢,就在2018年,也就是open AI成立的第三年,退出了董事会,就白白不玩了,所以现在这个open AI啊,其实跟马斯克已经关系不大了,而open AI这些大牛们哈也确实很厉害,2017年谷歌不是推出了那个transformer,他们就立马在这个基础上哈研究学习,一八年发表了一篇论文,介绍了一个新的语言学习模型,叫做generate pre train transformer就是gpt之前的语言学习模型,它基本都是需要人去监督,或者人为给他设定一些标签,但这个gpt就基本不怎么需要。

到了你就把一堆数据放进去,他就E夸一顿,学就给学明白了,大概就这个意思哈,Openi呢,就在2018年6月推出了第一代gpt,接着在2019年11月啊,又增加了训练的数据量,推出了gpt。二就这种机器学习吧,它其实主要就拼两件事儿,一个呢是模型,一个是参数量。模型就是这个决定了机器怎么学嘛,同样的数据我进去我学的比谁都快,比谁都好,那你就厉害。而参数量呢,它其实就需要大量的计算,所以说白了就是要砸钱,就算是模型再好,他也得靠砸钱去训练和验证,这两者啊,缺一不可。open AI团队对我这个模型是很有信心啊,那下一步不就缺钱了吗?而你每进步一点,都可能需要一个数上升一个数量级的数据去支撑,那这些都是需要真金白银去支持的,你就比如说Google那个deep mind,就是研究出来AlphaGo的那个公司,它每年开销就5亿美,最开始这边我们不说投了10亿美元嘛,那根本不够,注意这时候是个非盈利织马退出了大。

前10亿美元情怀不够了,我上哪再找那么多情怀去是吧?所以呢,迫于资金压力哈,Openi就在2019年从非盈利组织转型了,但是它没有直接变成一个盈利组织,还是得要点情怀哈,而是变成了一个呢,叫做收益封顶的盈利组织,它什么意思呢?就是说任何投资人呢,投资回报都不能超过100倍,超过100倍的部分呢,投资人就拿不到回报了,就都归openi自己了。但是我就好奇哈,你说我要是投资回报快到100倍了,我就撤出来,然后重新投,那不又能拿100倍了吗?反正不管怎么说吧,Open AI变成了一家盈利组织,也就是说你投资他啊,是可以拿到回报了,诶,这时候啊,微软就立刻冲了过来,注资10亿美元,Open AI呢,得到了超能力和力,就准备开始大力出奇,之前那个一代的时候有1.2亿个,到了GT是15亿个,而这半年之后又推出了GT3,直接上升了100倍,变成了1750亿个,效果呢,果然就真的非常好,已经有那么点,现在这个gpt的意思就你问。

点什么他都能给你答出来,当时在业内哈就已经掀起了一波轰动,不过这个纯机器训练出来的GPT3哈,他有个问题,就是他有的时候打的很好,有的时候就差那么点意思,而且问题就在于你不管再怎么加大参数量,他的提升和改善都非常有限,这个呢就因为他在训练的时候没有一个非趁的反馈机制,就是没有人告诉他你达成什么样是对的,打成什么样是不好的,你看看我要是训练下棋,那我就想赢,对吧,赢了就是好的,那我就训练让自己赢,但是你说聊天,那就很难判断了,我怎么知道我聊的是好的还是不好的,我就只能在那干学。所以为了解决这个问题哈,Openi就在训练的时候加入了一个人工反馈的机制,就是你跟我聊天,我告诉你,你聊的是好还是不好,专业术语呢,就叫人工反馈的强化学习,所以你用GT的时候,你就感觉他有时候特贫特能说,其实这都是因为训练他的人就喜欢他怎么说,要是训练他的人是个特别幽默的人,那估计gpt就整天给你讲段子了,反正啊,就是加入了这个人工反馈的强化学习之后呢,他不管是训练的效率还是效果都得到了大大的提升,在202年3月就推。

推出了gpt3.5之后呢,又对对话进行了优化,在2022年11月就推出了诶chat gpt,它其实就是一个非常极其简单粗糙的聊天界面,但是你问他什么,人家都能给你巴拉叭回答一通,感觉说的还很有道理,当然这里边会有一些问题啊,这个我们之后再说,但你就粗略的一看哈,他真的是什么都能聊,而且语言表达上真的就说的跟那么回事似的,哎,你说有没有这种可能哈,就open他是个骗子公司,就每天雇了几万个人,就在那每天打字回你开玩笑的哈,我可能是骗子公司看多了,反正啊,他就确确实实已经颠覆了大多数人,包括我在内对聊天机器人的认知,所以在短短的两个月内,Check gpt的月活就突破了1亿人,扩张速度肯定是史上最快,各种数据怎么吹都不为过,不过说实话啊,就拆gpt它这么强的颠覆性,它产品本身给人们带来那个震撼,已经远远超过那些数据了,直到现在哈,我看他回答问题的时候就关键他不是那个一口气就全给你出来,是真就那么一点一点吭哧吭哧就跟个人在那跟你说话。

我经常还真起一身鸡皮疙瘩,不过我估计啊,就一年之后,大家再看这种应该也就见怪不怪了。