普通pc处理数据采用的是单行线,也就是一串数据只用一条线路处理,这样的处理方式叫做串行数据处理,这样的方式一次只能处理一串数据,效率低下。
后面随着电脑的发展,计算机科学家提出了并行数据处理的方法,也就是一个数据可以同时分为多个部分单独处理,但始终没法大规模实现,因为有的数据处理是不可分割的。
就拿一部电影来说,分为视频信道和音频信道,而两者是时间同步的,要想播放一部电影就必须把音频信道夹杂在视频信道里一起播放,而不是分开播放,否则会造成声音和画面不同步。
后来多核cpU的出现一定程度上解决了这个问题,可以音频和视频信道分开处理,同时序播放,但音频和视频还是要各占一个数据处理通道,本质还是离不开串行数据处理方式。
有没有更进一步的解决办法呢,答案是有!有两种办法!
要么是为每个程序专门设计一个cpU,这个一听就不靠谱,大众化、通用的pc要为了某一个App或者软件专门设计制造一个硬件?!得多大的面子啊!
先不说全世界有多少软件种类,工作量有多大,就光说程序,一旦升级之后,旧的硬件也就得跟着更新,谁家电脑是白菜价也不能天天换cpU吧!(提一嘴——量子计算机就是因为这个原因无法普及——每个运算过程都需要专门设计运算单元)
另一个办法,是把一整串数据按时序分割成更小的数据包,让更细小但是更专业的处理单元分别处理,然后汇总处理结果,排列调整时序,最终得出处理结果。
这个方法靠谱点,而且已经大规模应用,具体参考GpU结构。
女娲的原始结构中,有一部分就采用的第二类方法,不过更复杂。
雷权在军队待过不少时间,所以对自己所用的设备有一个通用要求——可靠!
如果两个系统一个强大但是不可靠,一个可靠但不强大,雷权宁可选择后者。
雷权深入研究了人脑的基本结构单元——神经元,然后发现这是一种机制非常复杂但是也超级高效率的结构。
人类大脑光是功能分区就有几十个,每个功能分区负责处理的信号还不一样,但基本模式一样。
玩过wE(魔兽编辑器)的都知道,其内置语言JASS是一种非常优秀的语言结构,简洁、高效、发挥空间极大、可拓展性极强,但语法非常简单。
他们把很复杂的动作总结为“事件-条件-动作”这三个步骤,事件是指一件事发生的起始动作,条件相当于对这件事的处理依据,动作就是处理结果。
举个例子,人被针扎了一下,扎的很深,然后跳了起来。
这个过程中,被针扎是“事件”,针刺激到痛觉神经就是“条件”,跳起来就是“动作”。
人脑对外界信息的反应也是这么一个过程,不过要额外加上一个“目标”。
整个流程就变为:目标-条件-动作,这样一来,人的行为就由被动处理周边信息做出反应,到主动出击完成自己的目标的一个过程。
简单来说就是人类跟电脑的最大区别就是这个由被动变主动的区别。
举个例子,老王想要按摩,这是他的目标,于是他会为了这个目标开始有计划的攒私房钱,然后找个老婆不在家的时间,然后找个隐秘的小巷子,一头钻进了一家外面啥都看不见的按摩店。
这个过程中,“按摩”是目标,足够的私房钱、合适的时间、合适的地点是“条件”,一头扎进按摩店是“动作”。
这个流程一看就很顺畅,符合人类逻辑和行为习惯。
基于这个过程,雷权简化了他所认识的大脑结构,提取其核心部分形成了一个数学模型,然后进行了物理建模,生产出来了一个小型的神经元网络计算机,也是女娲的雏形。
雷权将数据分配了8个大类并分别制造了专门的类神经网络计算机,这八个大类主要包括:声、光、电、热、磁、核、力、化。
声、热、磁、力类数据的神经网络计算机最好实现,只需要传感器和简单神经网络计算机就可以处理,它们会把这几类信号按照特定要求进行细分和处理。
比如声音信号会按照频段、振幅等,在神经网络里瞬间分解为1024个级别,足够的细分可以让音频被分解成很多接近标准化的分段。
这样一来,所有音频信号经过第一层“神经网络”一个“分段-标准化”的过程处理后,就可以近似简化形成一系列编号,到了二级神经网络里所需的数据处理量就会大大减少,占用的存储空间也会变得极少。
就拿标准钢琴来举例子,88个音符,每个都是一小段不同的音频,但这些音频对应每个琴键又是相对固定的,一个琴键一个音,那么我们就可以只在一级神经网络里存储88个音频,这些音频到了二级神经网络里就会变成88个数字编码,而一些着名的钢琴曲,其乐谱对应的数字是基本按顺序固定的,那么在三级神经网络里他们又会被简化为一些标准组合,这些标准组合嘛,也是可以用一组特定编号代表简化的。
这样一来,几乎人类所有的现有钢琴曲,经过3级神经网络计算压缩之后,就会形成“乐谱”,乐谱所占用数据空间连几十m都不到,以此类推,可能整个人类创作的音乐,经过处理之后,所占用的存储空间连几个G都不到。
而这个过程反向运行一下,我们就可以根据乐谱对应的编号的钢琴音符来演奏出相应钢琴曲,如果我们还有其他乐器的音符库,那么我们就能听到吉他版的《time back》了!
延展一下,所有语言文字,也是一样的处理方式,经过标准化处理,然后编号,然后经过神经网络处理、存储,现有的所有书籍所占的数据量也就不到10t。
这就是女娲一个足球大小的体积,却能携带浩如烟海的资料的核心秘密。
现代AI功能之所以强大,在于存在世界各地服务器上的海量数据支撑和互相联通的网络提供的高速交互。
人脑内正常工作的神经元在10亿级别,但一般只用了3-6亿左右,而现在主流cpU内集成的单元器件也已经达到了10亿级别,二者数量上差不多的。
但电脑运算速度虽然快,但在并行处理多事务的性能上却被人脑完虐。
况且人类大脑其实是处于封印状态的,受限于物理结构和化学物质的运行效率,他有一个运行速度上限,就像cpU的钟频一样决定着一个芯片的运算速度。
女娲的原型机就是基于雷权对大脑的结构研究得来的科技成果。