1
2015-02-21 14:21:30  观察与系统 

新年伊始,我要尽快恢复在这里写网文的习惯。因为不写网文,1、我真的很少进行形而上的思考了;2、我在丢失宝贵的注意力资源。今天主要探探有关全球观察者以及人工智能的未来等问题。

全文主要结论:

1、全球观察者是一种无形的存在,但却决定了客观、真实、正确、意义。

2、无法让全球观察者感知到的完全超越的人工智能是无意义的。

3、全球观察者而不是人才是最有可能永生的东西。

4、注意力是处理、加工信息以产生意义的过程。

5、真正稀缺的不是个体注意力,而是全球观察者的集体注意力。


全球观察者


正如生活在空气中的我们往往不会察觉到空气的存在一样;我们的所知、所闻、所想已经完全受控于一种更大的存在——全球观察者。它对我们的影响就像空气一样,是无孔不入的却又不易察觉。少数希望逃离、反叛它的人要么成为了社会的边缘人士、异教徒;要么被全球观察者招安,从而进一步推动了它的进步,产生了全新的主流思想。总而言之,除非是完全远离各种媒体的隐居人士,否则我们不可能逃离它的存在。


那么,全球观察者是什么?他不是一个具体的人,而是由所有的人以及人类的语言、文字形成的知识共同体。此观察者的观察是由人类的集体意识形成的,而它的表现形式则主要体现为人类的语言、文字、艺术作品以及其他可以保留、传承的东西。这个共同体就仿佛一个人一样,它可以发展、进化,甚至有着自己的情绪。每个个体人都是全球观察者的神经细胞。人们的集体意识决定了全球观察者的意识。但全球观察者又超越了每一个人,组成全球观察者的人一批一批地死去,这个巨大的观察者却依然存在。


当人类形成了自己的语言,以及自己的文化的时候,这样的整体意识就伴随着出现了。只不过,当时地球上可能同时存在着多个相互隔离的松散链接的意识主体。随着全球化时代的到来,一个更加庞大的全球观察者就逐渐形成。而全球通信网络的发展则更进一步促成了全球观察者的觉醒。可以说人类有记载的文明史就是这个全球观察者的觉醒历史。


所谓的真实、客观、正确、美本质上不具备完全绝对客观的意义,而完全是由全球观察者的意识主导的。如果我们将客观、真实等概念解析,就会发现,所谓的真实其实就是不同的观察者之间可以相互沟通的信息。比如,我们说一把椅子是真实存在的,实际上意味着多个观察者都认可这样一个判断。而只有我能看到你却无法看到 的东西,就不是真的。所以,原则上讲,假如宇宙就是一个庞大的网络游戏,真的椅子本身并不存在,而是不同的观察者能够感受到一段相同的代码,那么这堆观察者就会达成共识:这把椅子真实存在。所以,站在全球观察者的角度来说,所谓客观的、真实的、美的、正确的,其实就是这个全球观察者的价值判断——大多数人达成共识的东西。至于一个独立于观察者的现实本身什么样子?我们无从得知,因为发问的东西始终是人——一个联通于全球观察者的存在。无论科技再怎么发展,我们也永远无法体验到非人类的存在,因为要么这样的体验是无法沟通,从而达成共识的;要么就是这种体验已经被纳入到了全球观察者的观察范围内了。这就是全球观察者最微妙的地方所在。


一个小孩自从一出生下来,就已经受控于这个全球观察者了。这是因为,小孩要想与外界沟通,就必然要学习人类的语言(这里的语言是广义的,包含了所有的肢体语言、面部表情等等),而语言恰恰就是全球观察者的意识体现。所以人是不可能完全脱离全球观察者而独立存在的,因为脱离也就意味着无法沟通,也就意味着死亡。因为死亡就是一种绝对不能沟通的状态。那么,所有用语言表达的信息:包括科学、技术、文学、历史等等自然也是全球观察者想让你看到的东西。


意义与绝对意义


意义是依赖于主体而言的。我们可以把它解释为某一段信息对主体的作用。这种作用可以造成主体的可观测的状态改变,也可以没有。


那么,所谓的绝对意义就是指对全球观察者主体的作用。当我们说某某事物有意义或者无意义的时候,其实有一个暗含的背景,就是它是针对全球观察者主体而言的。正如前面讨论的客观、真实、正确的概念一样,只有对于全球观察者主体有意义的信息才是有意义的。因为,我们最终还是要用人类的语言——全球观察者的表现形式来描述一切意义。


比如我们说讨论人死后怎样是无意义的。这里的意义就是指对全球观察者这个意识共同体来说的。因为死亡是一种不可沟通的状态,也就无法对全球观察者产生作用。(当然,我们排除了通灵交流的可能性。其实,通灵也是一种沟通,只不过这种沟通不是可重复的,因此不会是全球观察者可感知的。)


下文所说的意义都是指绝对意义。


人工智能与永生


下面,让我们来考虑人工智能的问题。尽管目前人工智能是否能产生自我意识,以及是否能够超越人类还存在很大的争议。但是,当我们站在全球观察者的角度来思考这个问题的时候却可以得到一些有趣的结论。


首先,我们可以肯定的是,一个完全超越人类,甚至聪明到全球观察者无法理解的人工智能必然不存在。注意,这里面的存在二字的含义当然是指针对人类观察者来说的了。当人工智能产生出了全球观察者无法理解的东西,而我们又在坚持用人类的语言来描述这样一种状态,这就会导致无意义的描述。所以,无法描述的东西自然就不存在(以全球观察者的角度而言)。


举个例子。有人说,现在的互联网已经是一种超越人类智慧的人工智能系统了,只不过我们没有人能够读懂这种智能。这听起来似乎很有道理,抽象的01数字流动也许只有机器才能读懂它的意思,你怎么知道现在的机器联网已经有智能了呢?从我们的观点看,这样的智能即使存在也毫无意义。因为当我们假设互联网已经超越了智能没有任何实际的可操作的后果。


所以,如果人工智能超越人类,它必然是以一种人们可理解的方式进行的。如果我们同意人类智慧的终极目的就是要获得自然界的知识,从而破解出造物之谜。那么,超越人类的人工智能的进化必然会导致全球观察者的进化。因为人工智能所产生的一切知识必然要与旧有的人类知识接轨,而只要接轨,那么人工智能就可以帮助我们逐渐扩大全球观察者的知识范围。从这个意义上说,全球观察者的生命仍然在继续,它甚至可能是永生的。


注意,在这里我并不否认人工智能将生物学意义上的人全部灭掉的可能性。我所要强调的是,即使消灭了,人类最宝贵的创造物:人类文明也必然会延续下去。这是因为机器有可能替代人类来进一步维系全球观察者的存在。只不过神经元替换成了机器而不是人。其他没有任何改变。假如一个人能够穿越到人类灭绝后的年代,那么他原则上是完全可以理解机器人所创造的知识的。他所要做的就像学校中的学生所要做的一样,只要充分学习机器们创造的知识就可以了,没什么本质的区别。会不会机器创造了完全不同的文明,导致全球观察者意识流的中断呢?不可能。首先是因为机器的创造仍然是用全球观察者的语言为基础的,大厦的基石完全是人类文明。其次,正如前面论述的,讨论一个完全脱离沟通的世界是没有任何意义的。


因此,我们看到机器与人类文明本身并无本质冲突,他们是水乳交融在一起的。虽然我们无法排除机器可能把所有的生物学意义上的人类全部灭绝,但实际上这种事情发生的可能性很小。因为人与机器是个整体,他们共同依赖于全球观察者,又促进了全球观察者的存在。人和机器是一体,所以机器杀死人类就是人的自杀。没有哪个智慧体会傻到如此地步。即使这样的事情发生了,对于全球观察者来说,也不过是更换了神经细胞而已,而这种事情其实每时每刻都在发生着。


这样,最有可能的未来是人与机器共同扩充着全球观察者的细胞。未来的人将可能一点一点用机器替换掉自己身体的部件,前提是机器在某些方面的确比人体更好。当然,最后人脑会不会完全被机器所取代,这个我无从判断。但是可以肯定的是,无论哪一个更好,最后的意识体必然会保留人类最重要的功能,即注意。


注意


什么是注意?按照我的理解,注意其实就是信息处理,也就是计算。注意力自然就是对信息处理、计算的能力。


这样,我们便很容易把注意泛化。按照计算主义的观点,任何一个自然过程都是计算,也就都是注意的过程。但是,并不是所有的注意都是有意义的。比如如果任何粒子的碰撞过程都看做是注意或计算,那么宇宙中的信息就会比比皆是,而大量的信息是对于我们没有用处的。要知道,每时每刻与我们的皮肤碰撞的分子是成千上万的,如果每分子都包含1比特信息,那么人体接收到的信息量是超大规模的。但我们都知道能够影响我们的信息其实没那么多,只有我们大脑能够处理的那部分,因为只有这部分才是有意义的。


因此,我们必须强调,真正的注意是指能够产生意义的信息的处理、计算过程。而根据前文,全球观察者才是意义的最终解读者,所以全球观察者的信息处理、计算过程才是有效的注意


一个有意思的问题是:随着人工智能的进步,机器会不会产生注意?如果这种机器的注意可以替代人类的注意,那么会不会由于机器的廉价性从而导致注意的泛滥呢?


按照前面的看法,只要未来的人工智能能够为全球观察者贡献知识,那么机器就有可能产生出有意义的信息。而对信息进行处理并最终产生有意义的东西就是一种注意。所以,机器是有可能具备注意力的

这样一来,是不是说随着人工智能技术在未来的普及,注意力将会泛滥,它将不再是稀缺资源呢?


我认为这个问题实际上等价于人口增长后,注意力将暴增,导致它的稀缺性不再成立。在这种情况下,按照我们通常的理解,注意力是增加的,原因是全球观察者的零件个体增加了,所以注意不再稀缺。但是,我认为这是错误的。问题的关键是全球观察者的注意并不等同于每个组成个体注意的简单加和。虽然个体注意如何构成全球观察者的注意机制还不好说,但是可以肯定的是,全球观察者的注意基本上具有多数原则。也就是说,多数人类或者机器个体的关注才有可能构成全球观察者的真正注意


能够说明多数原则的最好例子就是科学共同体了。科学共同体由科学家和科学论文构成,它是一个集体意识,是缩小版的全球观察者。对于什么是正确的科学论题,科学共同体有着比较明确的判断。比如,我们都知道,科学共同体承认爱因斯坦的广义相对论是正确的,绝大多数科学家相信这一点。而在当初相对论刚发现的年代,传闻全世界只有11个人懂相对论。这个时候,广义相对论就没有进入全球观察者的注意范畴。所以,粗略的来说,多数原则下的注意就构成了全球观察者的注意。


于是,全球观察者的注意显然就是稀缺的资源了。即使更多的人口繁殖,廉价人工智能的产生也并不能破坏这种稀缺性,因为注意某一事物的个体比例是不会随着基数的增加而增加的。所有的信息都必须竞争全球观察者的注意力——绝大多数人的注意力。从这一点上来讲,我认为我讲明白了注意力经济学派所说的注意力稀缺资源本质上是什么了。

2015-02-23 13:09:13
   关于(强--超)人工智能,这里有一篇编译文章,比你的观点激进。

原文:
http://heshulong.baijia.baidu.com/article/45705

选录一段:

现在关于人工智能什么时候能达到人类普遍智能水平还有争议。对于数百位科学家的问卷调查显示他们认为强人工智能出现的中位年份是2040年——距今只有25年。这听起来可能没什么,但是要记住,很多这个领域的思想家认为从强人工智能到超人工智能的转化会快得多。以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。

这个级别的超级智能不是我们能够理解的,就好像蜜蜂不会理解凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念。

但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。

想一下,如果我们的大脑能够发明Wifi,那么一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子的位置。那些在我们看来超自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单。防止人类衰老,治疗各种不治之症,解决世界饥荒,甚至让人类永生,或者操纵气候来保护地球未来的什么,这一切都将变得可能。同样可能的是地球上所有生命的终结。 

当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。

2015-02-23 13:17:45
   从我对佛教的理解来看,其实这种“超级计算能力”正是所谓涅槃的属性之一(不包含那些可能语言无法表达的,非时空结构的存在),《楞严经》应能给出很好的解释。我们似乎具有那种先天的能力,“融于”或者“接通”本来就存在的存在中的“信息枢纽”。如果趋向于这种认识的话,我们更多的应是“接通”而不是“颠覆”。
2015-02-25 01:19:53
   那篇文章的基本观点我是反对的。不太可能出现这种人工智能系统。如果一个比我们聪明1000倍的系统,那一定是我们不能理解的,于是,这也就是无意义的了。这是我的论点。
2015-02-25 01:58:50
   全球观察者让我想起了金观涛《系统的哲学》中的关于客观实在性的探讨。量子力学颠覆了那种脱离观察之外的客观实在性,科学是以人为中心的,但这个人单个的个体,而是大写的“人”,是整个科学家团体。
2015-02-25 16:07:00
   人工智能是否超越人类智能和很多有些哲学化的问题一样,不同学派的观点常常差别很大。
就我个人而言,不太关注这个问题。即使超人工智能或人类智能导致人类技术发展到可以任意控制宇宙中的单个基本粒子或基本粒子群,控制所有的粒子和波,控制那些被我们大脑所定义的任何可以逻辑认知的“对象”时,面对所有匪夷所思的创造物时,实际上,我们也只如儿童的爱好一样,不过是在玩耍一种更为广大、丰富的宇宙积木而已,但那仅是儿童们的一种嗜好。
2015-02-27 13:01:56
   从DeepMind 看Deep  Reinforcement  Learning,发展真快啊。

Google DeepMind团队在《自然》杂志发表论文


摘要: 电脑会玩游戏已经不算稀奇,比方说,一般人玩棋类游戏已经玩不过计算机了。但如果事先不告诉计算机应该怎么玩,而只是给它提供这三样东西:控制器、显示器、游戏得分,让它看

电脑会玩游戏已经不算稀奇,比方说,一般人玩棋类游戏已经玩不过计算机了。但如果事先不告诉计算机应该怎么玩,而只是给它提供这三样东西:控制器、显示器、游戏得分,让它看着显示器的显示控制控制器,然后要求它尽可能得高分,那基本上大部分的AI就一筹莫展了。

所以,当2013年12月DeepMind的团队首次展现他们靠不断试错学习最后成为击败人类专业玩家的游戏高手AI时,许多在场的AI专家都感到有些震惊。这些AI靠着对游戏视频的观察来寻找出模式,然后操作控制器,并获得得分的反馈结果(高分奖励)。在反馈中不断调整自己的控制,最后AI完全靠自学而不是编码学会了玩49种Atari视频游戏,其中43种游戏玩得比之前的AI都要好;并在23种游戏中击败了人类的职业玩家。这些游戏当中,简单的弹球和拳击游戏AI玩得最好,但是像经典的消砖块Breakout游戏也能玩得很好,甚至还学会了打开一条通道让球跑到后面去消掉砖块(参见下面视频,注意观察AI如何在游戏中改进自己的策略),这种技巧往往只有老练的玩家才会。许多研究人员1年后对他们如何做到仍感到困惑不已。不过现在他们不用困惑了,因为DeepMind团队现在已经在《自然》杂志上公布了自己的研究成果:Human-level control through deep reinforcement learning—通过深度强化学习实现人类水平的控制。

总的说来,DeepMind的AI的设计核心是如何让计算机自行发现数据中存在的模式。其解决方案是深度神经网络与强化学习等方法的的结合。AI并并不知道游戏规则,而是用深度神经网络来了解游戏的状态,找出哪一种行为能导致得分最高。尽管利用模拟神经网络来教电脑玩游戏(如军棋游戏)的方法已经使用了几十年,但是从未有人能像DeepMind团队那样以如此有用的方式结合到一起,智能系统普朗克学院的Bernhard Schölkopf主任称,其方案展现出了令人印象深刻的可适应性。

这一方面是得益于现在计算能力的提高使得AI可处理规模要大得多的数据集,要知道,观察Atari游戏相当于每秒处理200万像素的数据。另一方面则是得益于DeepMind结合了强化学习来训练AI,而且是在高维度感觉输入中采用的端到端强化学习。相对于以往计算机会玩的游戏,如国际象棋等,这次计算机玩的游戏更接近现实世界的混沌状态。Google的智能设计师Demis Hassabis称,这是第一种能在一系列复杂任务当中与人类表现相当的算法。

那么Google会不会用这种AI来分析自己的大规模数据集呢?Hassabis并没有给出任何肯定的说法,但称该系统对任何连续性决策任务都有用。如果我们把Google收集的用户数据比作像素,把广告收入比作得分的话,DeepMind的AI系统一样也可以用在Google的核心广告业务。让AI去置放的广告,点击率越高就给它更高的分数,这样AI能够不断演进优化广告的投放算法。而伦敦大学金斯密斯学院的Michael Cook甚至给出了确切的数字,称Google已经在7款产品中采用了DeepMind的技术。其中会不会包括Google研发的自动汽车呢?也许用不了多久我们就能感受到有了那颗DeepMind支撑的产品的表现差异了。

。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

  Human-level control through Deep Reinforcement Learning

原文:(付费浏览)地址: http://www.nature.com/nature/journal/v518/n7540/full/nature14236.html

参考阅读:

From Pixels to Actions: Human-level control through Deep Reinforcement Learning

Posted by Dharshan Kumaran and Demis Hassabis, Google DeepMind, London

Remember the classic videogame Breakout on the Atari 2600? When you first sat down to try it, you probably learned to play well pretty quickly, because you already knew how to bounce a ball off a wall in real life. You may have even worked up a strategy to maximise your overall score at the expense of more immediate rewards. But what if you didn't possess that real-world knowledge — and only had the pixels on the screen, the control paddle in your hand, and the score to go on? How would you, or equally any intelligent agent faced with this situation, learn this task totally from scratch?

This is exactly the question that we set out to answer in our paper “ Human-level control through deep reinforcement learning ”, published in Nature this week. We demonstrate that a novel algorithm called a deep Q-network (DQN) is up to this challenge, excelling not only at Breakout but also a wide variety of classic videogames: everything from side-scrolling shooters ( River Raid ) to boxing ( Boxing ) and 3D car racing ( Enduro ). Strikingly, DQN was able to work straight “out of the box” across all these games – using the same network architecture and tuning parameters throughout and provided only with the raw screen pixels, set of available actions and game score as input.

The results: DQN outperformed previous machine learning methods in 43 of the 49 games. In fact, in more than half the games, it performed at more than 75% of the level of a professional human player. In certain games, DQN even came up with surprisingly far-sighted strategies that allowed it to achieve the maximum attainable score—for example, in Breakout, it learned to first dig a tunnel at one end of the brick wall so the ball could bounce around the back and knock out bricks from behind.

Video courtesy of Atari Inc. and Mnih et al. “Human-level control through deep reinforcement learning”,  Nature 26 Feb. 2015 .

So how does it work? DQN incorporated several key features that for the first time enabled the power of Deep Neural Networks (DNN) to be combined in a scalable fashion with Reinforcement Learning (RL)—a machine learning framework that prescribes how agents should act in an environment in order to maximize future cumulative reward (e.g., a game score). Foremost among these was a neurobiologically inspired mechanism, termed “experience replay,” whereby during the learning phase DQN was trained on samples drawn from a pool of stored episodes—a process physically realized in a brain structure called the hippocampus through the ultra-fast reactivation of recent experiences during rest periods (e.g., sleep). Indeed, the incorporation of experience replay was critical to the success of DQN: disabling this function caused a severe deterioration in performance.

Comparison of the DQN agent with the best reinforcement learning methods in the literature. The performance of DQN is normalized with respect to a professional human games tester (100% level) and random play (0% level). Note that the normalized performance of DQN, expressed as a percentage, is calculated as: 100 X (DQN score - random play score)/(human score - random play score). Error bars indicate s.d. across the 30 evaluation episodes, starting with different initial conditions. Figure courtesy of Mnih et al. “Human-level control through deep reinforcement learning”,  Nature 26 Feb. 2015 .

This work offers the first demonstration of a general purpose learning agent that can be trained end-to-end to handle a wide variety of challenging tasks, taking in only raw pixels as inputs and transforming these into actions that can be executed in real-time. This kind of technology should help us build more useful products—imagine if you could ask the Google app to complete any kind of complex task (“Okay Google, plan me a great backpacking trip through Europe!”).

We also hope this kind of domain general learning algorithm will give researchers new ways to make sense of complex large-scale data creating the potential for exciting discoveries in fields such as climate science, physics, medicine and genomics. And it may even help scientists better understand the process by which humans learn. After all, as the great physicist Richard Feynman

famously said: “What I cannot create, I do not understand.”

 


2015-02-27 13:23:29
   DQN像素级算法的思想很震撼。非常非常类似于甚深禅定中的“思维”模式。
登录后才可以评论,马上登录
2012-2022 www.swarma.org, all rights reserved