机会、精确度、探索、医学进步、风险降低、支持、颠覆性创新、生活质量改善、平等,这只是通过人工智能(AI)发展可探索到的众多机会中的一小部分。曾经是科幻电影剧本出现的东西,已成为现实。如今,小说元素消失了,太空旅行、量子计算、读心术、人类记忆上传至云端的途径,脑电波通信成为人工智能一体化的简单开发项目。
从人工智能和机器学习获取到的优势无疑是对人类有益的,但如此强大的技术一旦渗入到社会中却很容易产生巨大威胁。如何确定区分好人与坏人、道德与腐败的良好道德底线是最大的挑战。
人工智能是一个极具争议的话题,上个世纪,全球主要领导人提出并讨论了人工智能关于伦理方面的困境,可随后几乎没有采取任何行动。人工智能的发展速度总是比我们能预见的要快。从目前研究的专注于单一任务的人工狭义智能(ANI)到通用人工智能(AGI),都显现了人工智能和人类一样聪明。接下来的人工超级智能(ASI),展现了人工智能的聪明程度已不可思议地超越人类。假如你认为通过这些阶段的过渡期对所有人工智能支持者来说是最令人兴奋的挑战,其实如何遵守规则和条例则更为挑战。
从违背直觉的程度上来说,我们不一定需要通过减缓伦理的发展而是借助伦理帮助和支持人工智能的未来。牛津大学的瑞典哲学家Nick Bostrom,凭借人类提升伦理和超级智力风险方面的工作享有盛誉,而他形容“我们就像是把炸弹当游戏的孩子,在危险边缘游走”。伦理和人工智能应相辅相成而不应被视为两个完全无关的组成部分,人工智能必须在整个过程中运用伦理、社会规范和道德进行建模。
而道德又是双向的。关注人类的道德行为(从设计过程过渡到开发)和治疗,这些机器人(AI)就是我们所称为的“机器人学”(roboethics)和“机器伦理学”(Machine Ethics),管理着人工物道德行为体(AMAs)的道德行为。以上涉及的每个阶段都有多个伦理层面,涉及就业和工作演变、技术准确性和人工智能偏见带来的不平等、行为以及人机互动——这些只是第一层的一部分而已。
早期的人工智能伦理整合似乎是明智的方法,适应变化,但由谁令其发生呢?有人可能会说,技术和规章制度应该一同发展,但技术进步的速度可远远高于一切。我们怎样才有可能在不减缓人工智能发展的前提下保持规则的一致性呢?其中一种方法是让科技公司成立自己的道德委员会,但让合适的人参与到正确的过程中是十分困难的。
因此,我们如何保证人工智能的伦理进化?将人类价值观和原则融入先进技术实体的最佳途径是什么?保证人工智能安全地嵌入人类进化过程应该是谁的责任?答案并非显而易见,不过探索人类对于渴望人工智能的背后原因,可为今后建立起一条更安全繁荣的道路,成就一个机器人和人类从此幸福地生活在一起的故事。点击此处进一步看看人类与机器的交集。