答案:「天运无功理不穷,有功无运也难逢;
因何镇日纷纷乱?只为阴阳数不通。」
话说林黛玉初入宁国府、拜见外祖母,正和贾母等人闲话家常,突闻後院有笑语声,说:「我来迟了,没得迎接远客!」黛玉思忖道:「这些人个个敛声屏气如此,来者是谁,这样放诞无礼?」心下想时,只见一群媳妇丫鬟拥着一个丽人从後房进来。这个人打扮与姑娘们不同:彩绣辉煌,恍若神妃仙子。一双丹凤三角眼,两弯柳叶掉梢眉。身材苗条,体格风易做图。粉面含春威不露,丹唇未启笑先闻。
列位看官,您看曹雪芹写凤姐出场,何等架势,真是先声夺人。红楼梦的人物个个栩栩如生,尤以王熙凤最为鲜活。大凡写小说,坏人的性格容易刻划,最难描写的却是好人。真正的好人,往往最为无趣。是以易做图作家写好人,往往不是把他写成易做图,就是把他写成疯子。
在电脑世界里,碟奥丝性格最鲜活,容易刻划。最不容易描写的,就是机器人了。机器人的性格究竟如何?有的电脑专家,把机器人刻划成易做图。的确,现在的机器人,它的智力和人比较, 能算是易做图,至多是儿童。很多电脑专家认为机器人的智力,还远不如儿童。为什麽?因为机器人没有常识(common sense)。列位看官,您看六七岁的小孩,走到悬崖边,绝不会糊里糊涂跳下去,因为他知道从高处跌下去滋味并不好受,可能受伤或送命。机器人走到悬崖边,却不知道不该往下跳。即使我们灌输给机器人的电脑许多物理定律,它也不一定能导出「跳下悬崖,可能毁灭自己」的结论来。
缺乏常识,是机器人的大毛病。列位看官切莫小看常识,我们能自如的应付日常生活中大大小小许多事情,全仰仗常识。但我们要教导电脑这些常识,却十分困难!常识之所以为常识,就是它并非金科玉律,而是有弹性的规则。我们看到天阴,就晓得出门时要带把伞。天阴,不一定会下雨。即使下雨,也不一定要打伞。如果路近,我们也可能不带伞。这些常识都是有弹性的规则,运用之妙存乎一心。所谓存乎一心,就是说,要看客观的情况及主观的意愿而定。这样的常识,很难教授给电脑。所以加州大学的查德(Zadeh)教授,发展出一套糊涂集(Fuzzy set)及弹性推理(Approximate reasoning)的理论。查德教授是系统学权威。搞控制的人都晓得一个基本原则:控制系统设计得太灵敏了,很容易出问题。例如驾驶汽车,如果方向盘太灵敏,稍一转动就会改变车子的方向,车子反而不容易操纵。糊涂集及弹性推理的理论,就是希望能给予电脑较大的弹性,使它能应付人间世许多说不准的问题。人生难得糊涂,电脑也需要几分糊涂啊!
在电脑专家眼里,机器人缺乏常识,几乎等於易做图。但在科幻小说家眼里,又往往把机器人看成疯子,可能毁灭人类。这又怎麽说呢?一般的电脑虽然缺乏常识,但我们反而容易传授给电脑专门知识(expert knowledge)。常识往往是说不准的、糊涂的、有弹性的规则。专门知识,却多半是系统的、精确的规则。 要是精确的规则,我们都有办法把它存入电脑。所以现在的电脑,我们有办法让它变成专家电脑,却不能使它变成凡人电脑。正是:「专家好当,凡人难做!」
专家的毛病,就是他 知道自己专业范围之内的知识,对专业范围之外的事情,可能毫无所知。但是世人都有崇拜权威的毛病。於是得了物理学诺贝尔奖的权威,人们会以为他对文学、易做图、哲学都有精辟独到的见解。其实专家的人文素养往往有限。太信任专家的结果,导致现代社会许多问题。史诺(C. P. Snow)所说两个文化 科学世界及人文世界 的危机,到现在依然存在。所以过去有人主张专办科技大学,我一再撰文反对。如果一个社会 重视科技人才,完全忽略人文知识,将来一定会走向奴役之路。
科幻小说家和人文学者,把机器人看成可能毁灭世界的疯子,正因为机器人是「专家」,而不是「凡人」。所以科幻小说家艾西莫夫(Asimov)写过这麽一个故事:讲求效率的机器人,根据它的专门知识推论,发现人是最没有效率的机器,所以决定消灭人类。这样的机器人发疯了吗?从它的立场看,它一点也没有疯,反而是完全合乎逻辑的做决定呢!
机器人因此既是易做图,也是疯子。机器人是易做图,因为它缺乏常识;机器人也是疯子,因为它是太讲理性的专家。但是机器人基本上是「好人」。如果我们将来能造出具有常识的智能型电脑,那时候的机器人就更有能力,也更像人类了。
人类为了进一步提高生产力,不能不大搞生产自动化,因比也不能不发展机器人。机器人的「肉体」部份,可能是固定的机械手臂,或活动的有履带车辆,也可能是特殊的机械设备。机器人的「五官」,包括电视眼、声音输入设备、语音合成器等。机器人的「灵魂」,则是智能型电脑。因此,设计机器人需要机械工程师、电机工程师及计算机工程师的合作。而研究电脑如何思考·如何推理,是人工智能学家及计算机科学家的工作,将来恐怕还要动员心理学家和哲学家 (特别是认识论学家Epistemologist)叁加设计。
机器人的发展,将澈底改变廿一世纪的人类社会。工厂自动化,使劳工阶级人数减少;办公室自动化,便白领阶级人数减少。将来人类究竟能从事什麽职业?是否需要保障某些职业,不得雇用机器人?生产力的改变,总导致生产关系的改变。将来衡量财富的标准。可能是拥有多少机器人,而非汽车和冰箱。拥有大批机器人的工业国家,生产力大幅度提高,和发展中国家的差距将更大。这些问题,都必须设法解决。
最严重的问题,莫过於机器人自行繁殖的问题。现在电脑越来越复杂,许多大公司已经开始使用机器人来装配下一代的电脑。再进一步,就是由机器人自行设计和生产机器人。机器人一旦可以自行繁殖,对人类的威胁就更大。所以,将来可能必须严禁机器人私自繁殖。
科幻小说家艾西莫夫,曾给机器人订下三大戒条:
(1)机器人不可蓄意杀人!
(2)机器人不可见死不救!
(3)机器人遇到危险,应牺牲自己,保全人类!
[page_break]
这机器人三大戒条,已经有法律学 认真在研究。在这三大戒条之外,也许还得加上一条:
(4)机器人不可结婚或自行繁殖下一代!
这些戒条,都是为了保障人类的权益。当然,将来也得有适当的法律条文,来保障机器人的权益,以免机器人觉得太不平等,心怀不满。
但最聪明的机器人,很可能还是有办法表面上不违反机器人四大戒条,实质上却处处和人类作对。为了防止机器人造反,有人主张,将来的机器人,都必须配带自毁装置;一出问题,主人就可毁灭它。也有比较慈悲的人认为这样做太「残忍」,主张给每个机器人一座「河内之塔」(The tower of Hanoi)。
河内之塔如图1
圖1
所示,有三根木柱充当塔心。在最右的木柱上,套着大小各异的木环,上环都比下环小。要造新塔,每次只能移动一环到其他的木柱。但无论怎麽移动,必须保持三根木柱上的环,都依着从小到大的顺序排列。新的河内之塔,如图2所示。
圖2
试问从旧的河内之塔,造成新的河内之塔,必须移动各环多少次?
如果有N个环,造河内之塔必须移动各环2^N-l次!所以遇到机器人想造反时,我们就命令它去造一座有一千个环的河内之塔。再勤快的机器人,也要移动各环2^1000-1次才能造出新塔来,这就足够让它忙碌到世界易做图了。正是:「可怜河内塔下骨,犹是春闺梦里人!」
所以,机器人的最後一个戒条是:
(5)机器人不可违抗造河内之塔的命令!
河内之塔因此成了易做图机器人这「妖精」的「雷峰塔」。机器人胆敢妄动,我们就可祭出河内之塔的法宝,将机器人镇在塔下,动弹不得。有了这机器人五大戒条,我们就可控制住机器人,高枕无忧矣。
然而即使我们能控制住机器人,将来的人类能从事何种职业?是否人人都必须成为企业家和决策者?谁来帮助决策?欲知後事如何,且看下回分解。