2011年3月4日
对技术来说也是这样。我们有两种管理技术道德取向的方式。
为了避免滥用,任何试图限制自由意志的主体都容易有被控制和专制的危险。现在看来,有两种方式可以约束自由意志行动:
技术因为其破坏的本性,使得带来的后果不断扩大。强大的技术带来的好处和坏处同样强大。任何强大的具有建设性的技术,在另一方面同时也是破坏性的。只是因为还没有找到好的方法,所以不能将极大的伤害转移。毕竟,人类最美丽的心灵仍然能够产生杀人的想法。事实上,一个发明或想法只有能够被极大地滥用,才是真正伟大的。这应该是技术期望的第一定律:一项新技术的前景越好,其潜在的危害也就越大。这对人们喜爱的新技术也同样适用。比如互联网搜索引擎、超文本和网络。这些无比强大的发明,已经解放了自文艺复兴以来一直没有出现的创造力水平。但是当它们被滥用(这一定会发生的),它们跟踪和预测个体行为的能力将极为可怕。
1)防止技术实体产生负面行动。也就是说,尝试给引擎编程,使它不能产生危害。
我们有法律来惩罚那些危害分子,但大多数观察家都同意,惩罚危害行为不像鼓励有益行为那样有效。我们的法律之所以能够做到这样的有效程度,是因为大多数人通常会做好事。如果做好事的吸引力没有了,制止危害行为的法律约束很快就会被打破。法律不能在没有扬善的情况下来惩恶,惩恶需要有扬善的环境支持。法律的惩罚,在民间扬善行为的缺席下,将迅速在恐惧中崩溃并衰微。
1)我们可以尝试设计不具有危害性的技术。
我想起了我在《科技想要什么》里的一段话。这是至少20年以来,我不断地向高科技信息的读者大声疾呼的:
我相信前者是不可能的,因为技术期望的第一定律表明:强大的发明能被有力地滥用。但究竟如何去践行第二条尚不清楚。我们如何把道德观念设计到技术系统里呢?
相反,我们必须努力培养技术的好品格,并找到培养的方法,来灌输和植入更偏向生活和思想的东西。
2)在允许它存在危害的可能性的条件下,去引导实体,使得它想要或者被奖励来做有益的事。
2)在允许它存在危害的可能性的条件下,我们可以设计偏向于做有益的事的技术。
唯一不会成功的一件事是:创造出不会产生危害的技术。任何能被武器化的事物,迟早都会被武器化。
我最近第一次见到了丹尼尔·艾尔斯伯格(Daniel Ellsberg)。艾尔斯伯格是前美国军方分析师,后来成为了自觉的反对者,并在1971年泄漏了绝密的五角大楼文件,想以此作为一种公民抗议行为,试图阻止越南战争。他还积极参与了长达几十年的旨在消除核武器的战斗。在我们短暂的交谈中,他不停地诉说一个我认为很惊人的想法。当被问及科技想要什么时,他希望未来能有不可滥用的技术。他说,我们必须制造出不会对我们产生不利影响的事物。它不能像核能或基因工程那样被滥用。我哑然了一阵。艾尔斯伯格认为自己是一个现实主义者,但这种对不可滥用的技术的呼吁是一个乌托邦式的梦想。这个世界绝不会有不可滥用的技术,就像没有不被腐蚀的自由意志一样。任何能够产生建设性思想的自由意志,必定能够产生破坏性的思想。
这是一种值得的追求。
这是一个困难的问题,因为在过去的几千年里,我们的文化一直难以做到。但我认为我们有能证明它可以做到的证据:我们的孩子。我们一直在某种程度上成功地向我们的后代灌输道德价值观。这意味着,在理论上我们可以在我们的技术系统里向后代灌输道德观念。真正的问题是我们要灌输什么样的价值观。我们想要技术产生什么样的行为?