随着前段时间ChatGPT的发布,但凡跟智能沾边的书籍、课程,如雨后春笋般都冒了出来。
我想,这么先进的技术,作为一个技术人也不能冷眼旁观呀。总要躬身入局,亲自感受了解一番。
看到这本书在评测就申请了,收到货已经有两周多了,但是拿到书的当天,翻看目录,我就有点头大。
是不是像极了我们的课本的目录?
而且书的开本是16开的,这就更像一本课本了。翻看里面的内容,满满的文字,拗口的人名,太多之前听过但是并不了解的概念和名词。导致我看这本书的时候,一度有好几次看着看着就睡着了。
如果能对这个行业和相关的概念有一定的认知,或许再来看这本书就不会这么枯燥了,总之,个人感觉要能看得进去这本书,并且连接作者想要表达的意思,是需要一定知识积累和门槛的,这不是一本通俗的大众读物,而是感觉有点近似学术报告的文章了,当然书中也讲了好多现实当中的例子,帮助读者进一步理解这消化哪些晦涩难懂的概念。
总算利用这个周末,把这本书从头到尾过了一遍。
谈到人工智能,就不得不提到一个人,叫图灵。
1937年,图灵提出了一个图灵机的概念,所谓的图灵机并不是由齿轮或者晶体管构成的物理结构。相反,它是一个抽象的计算思想,它是一种可以实现任何计算函数的理想系统的数学描述。是一种定义了基本计算过程的计算模型,理论上可以用来模拟任何的算法逻辑。
我之前看过一部电影,名字叫《模仿游戏》,里面的主人公就是图灵,他设计了一个叫做图灵机的机器,破解了二战时期德军的作战密码,从而扭转了战局,电影很不错,感兴趣的小伙伴可以找来看看。因为那部电影的缘故,我一直以为图灵机是一个机器,现在看书有了新的认识。
在1950年,图灵又提出了一个叫“模仿游戏”的测试,以确定计算机是否能够思考。如果一台机器能够进行一场与人类无法区分的对话,那么我们将认为这台计算机是智能的。这种测试方式后来也称之为图灵测试。
学习的每个方面或智能的任何特征,原则上都可以被精确的描述,所以就可以制造一台机器来模拟它。用符号方法是尝试构建智能机器的第一步,基于这样一个观点,构建智能机器的过程是可以被精确描述的,因此它侧重于解决具有描述步骤的任务。如果我们能够精确的描述智能的过程,那么就可以设计一套规则,由计算机来模拟它们。
而机器学习不是为机器提供一套明确的规则,告诉他在每种情况下该做什么,而是为机器提供一套隐含规则,使他能够学习在各种情况下应该做什么,学习能力也是智能的标志。在这个学习过程中,存在两种方式,分别是监督学习和无监督学习。
监督学习是一种更直接的提供反馈的方法,通过人为的方式,对系统的结果进行调整。在无监督学习中,系统从其工作的数据中获得反馈,而没有任何明确的人类反馈,这显然更符合人类期望的智能的概念。
但是,这种无监督的学习,也是由人来设计出框架来实现的,机器学习是统计学和人工智能的结合。
计算机强大的存储和无所不知的能力,让刚接触他的人感觉神奇,如果用计算机来模拟人脑的计算,不就可以让计算机达到智能的效果了吗?这很难吗?
是的,这非常不容易,单从算力来讲,计算机与人脑就无法匹敌。
人脑的计算能力,相当于每秒1018次计算,如果用一台电脑来模拟人脑的计算速度。世界上已知最快的超级计算机,神威·太湖之光可以达到约93×1015。其运算速度不到整个人脑运算速度的1%。如果再来计算运行同样速度的前提下,消耗的功耗,那恰恰是相反的结果,人脑的计算值消耗了极少的能量,而神威·太湖之光,包括40个运算机柜和8个网络机柜,每个运算机柜由4组32块运算插件组成,共安装了40960个自主研发的“申威26010”众核处理器。
大脑不仅仅是一个静态的结构,而是一个随时间变化的复杂的动态系统。即使在成熟之后,仍然能够适应它所接收到的输入中发生的巨大变化。
2016年3月击败了世界上最好的围棋选手李世石的AlphaGo,虽然引起了不小的轰动,但是AlphaGo运行在1920个标准处理器和280个图形处理单元上,分布在多个数据中心内。而李世石却只用了大脑。
目前的人工智能很大程度上来自设计者的聪明设计,而要实现通用人工智能,就需要找到一种方法来复制这种代表性的创造力。但迄今为止,这种创造力一直依赖于人类的能力和天赋。专家和精英运动员通常需要花费大约十年的时间来完善他们的技能以达到精英的水平。如果让计算机来实现,恐怕这个时间会极大缩短。
几乎所有的人都是在幼儿时期学习语言的,而这一阶段通常很少得到帮助和正式的指导。另外,成为专家需要广泛的深思熟虑的实践,这种差异是程度的问题,还是两个学习任务中使用的机制不同?如果这其中仅仅是程度问题,那么让机器来实现这种程度差异时,可以极大缩短时间,但若是机制不同,我们就需要找到这种机制的差异性,通过机器语言描述出来,才能让计算机实现这种机制。
在影响机器学习的因素中,问题和输入数据的表示可以说是最重要的,在这一点上,表示的选择仍然由机器学习系统的设计者决定,比如最近的ChatGPT,使用的就是就是互联网上已存在的数据进行的训练,使其达到了类似人的效果。但一个真正通用的人工智能将需要创建自己的表示能力,而不仅仅依赖输入,我们离自动化实现这一目标还有很长的路要走。
这中间就不得不提到一个悖论,就是因为ChatGPT的训练是基于互联网的海量数据,这里面的数据有真有假,这就会导致ChatGPT被训练出来的结果偶尔也会出现事实性错误,这一方面涉及到输入数据的噪声问题,就是要让ChatGPT区分出数据的真假;另一方面,ChatGPT训练出来的数据也会流入到互联网上,那么如果他用自己生成的数据来训练自己,这又会反过来污染了整个互联网的数据,不过,我想设计者应该会通过算法,规避以上2种情况。
算法的使用使人类的思维更加有效,并使得计算机自动处理成为可能。计算机一开始的设计,就是严格遵循逻辑,精确的目的。如果当信息不完善,计算机的处理,就更要依赖设计者的算法设计,针对信息不完善的情况,为了使决策最优,我们倾向于成本较低的错误。机器学习的工作原理是通过参数调优,使其更接近目标。
科学家把其想法保持在熟悉范围内的趋势称为范式。
智能由三种适应能力组成,分析、创造和实践。
通用是指我们的人工通用智能应该能够在某个时候解决任何一种问题,而不是同时解决每一种问题。因为即便是我们人类,也只能是经过多年的训练之后,能解决某一类的问题,而不存在一个样样精通的全才。
目前的发展,我们能创造出诸如扫地机器人,搬运机器人等诸如此类的专用人工智能设备,但是要想实现通用人工智能,实现一种机器人的多场景适用,恐怕未来的路还有很远。
回到题目提出的问题,我们离通用人工智能还有多远?
我想我们面临和解决的问题不止一个,在当前范式内,我们是否能实现通用人工智能有待商榷,不过如果产生大的范式转变,这又可能柳暗花明;如何让计算机实现自我思考,而不再依赖人类的数据喂养,这又需要生物技术的不断进步,进一步对我们人脑的探索达到一个新的高度,通过生物技术迁移到人工智能。最后,还有能量消耗的问题需要解决,毕竟人思考消耗的能量和目前计算机所谓的人工智能消耗的能量差距太大,如何让计算机在计算时消耗更少的能量,也是需要解决的问题。
如今,ChatGPT,通用机器人,超导材料等不断取得新的进展,未来通用人工智能的实现,恐怕也只是时间问题。
作者: 硬件工程师职场, 来源:面包板社区
链接: https://mbb.eet-china.com/blog/uid-me-3863800.html
版权声明:本文为博主原创,未经本人允许,禁止转载!
文章评论(0条评论)
登录后参与讨论