【www.zhangdahai.com--护士节征文稿】
1989年,前苏联象棋冠军古德科夫与一位“机器人棋手”对弈。这是一台超级电脑,古德科夫是具有世界级水平的国际象棋大师。当着几百名棋手及观众,古德科夫连赢三局,当他开始执棋子下第四局时,超级电脑的金属棋盘表面突然放出一股强大的电流,使得这位国际象棋大师在众目睽睽之下,突然触电死亡。
事件发生之后,警方以为是“机器人棋手”――超级电脑出了故障,发生了漏电所造成的。但是,经过仔细检查,电脑及电路完好无损,功能正常。于是,有不少人推断,说这超级电脑在连输三局之后,“恼羞成怒”,为了转败为胜,发出指令,加大电流把对手杀死了。前苏联一位专家和瑞士一位法律学者认为,超级电脑已具有人的思维,在屡败情况下,难免会产生杀死对手的念头。
美国和日本的电脑专家持不同看法。他们认为,“机器人棋手”还都是按照人所编制的程序进行工作的,当代的超能电脑还不具备人类的思维和情感,不可能因为输了棋就自行杀人。再说即使“机器人棋手”有了思维能力,也不会为了赢棋而杀死对手,因为杀死对手并不算胜。
后来经过深入分析,正确的解释应该是:由于电子雾的作用,使超级电脑的内部程序出现了紊乱,动作出现了失误,才产生强大的电流,杀死了对手。
最著名的科普作家阿西莫夫,早在1950年写的《我,机器人》这本书中,就提出了机器人的三原则:
第一,机器人不得伤害人,也不得见人受到伤害而袖手旁观;
第二,机器人应服从人的一切命令,但不得违反第一原则;
第三,机器人应该保护自身的安全,但不得违反第一、第二原则。
阿西莫夫为我们提出了应当遵守的宪章。他的正确预言令人信服。机器人发展以后,人类应当对它加以约束与限制,让它为人类造福。这三原则是否会有效,人类是否能做到,现在是很难断言的,只有等候将来实际的发展来说明了。