埃隆•马斯克曾说,人类在人工智能(ai)领域取得的巨大进步如同在“召唤恶魔”。小哥,恶魔可不会下围棋。
人工智能公司deepmind最近宣布,其已研发出了一种擅长玩这种古老的中国棋盘游戏的算法。最牛的是,这款叫做alphagozero (agz)的算法完全是“自学成才”的。研究人员只给它输入了下围棋的规则,而没有输入任何人类知识和经验。
该算法的前身alphago使用人类棋手玩过的数千盘棋所积累起来的数据培训过。两种算法对弈,结果agz以100比零取胜。这样说来,完全不借助人类智慧,agz自己就可以成为顶尖的棋艺高手。
虽说deepmind最有可能害得马斯克噩梦不断,但在其他地方,机器自主方面的研究也取得了很大进展。今年1月,卡耐基梅隆大学的研究人员公布了一种能够打败人类顶级扑克玩家的算法。在与顶级专业玩家进行“单挑无限下注德州扑克”(一种极具挑战性的牌类游戏)比赛时,这台叫做libratus的机器赢了将近200万美元筹码。人类玩家称,被一台机器诈唬住真叫人“灰心丧气”。同样,libratus也是通过发觉自身弱点并加以弥补来提高技艺,而不是借助于人类直观知识。
agz和libratus都只有“一技之长”,但技术人员还渴望开发出具备多种能力的机器。例如,deepmind就宣布,希望研发出“能够自主地在多个最具挑战性的领域实现超越人类能力的算法”。一旦高速、深奥的算法完全不受迟钝、浅薄、令人失望的人类智慧的桎梏,它们可能开始处理我们这个平庸的物种从未面对过的问题。顶尖的科技思想家并不是在模拟人类智慧打造机器,而是每日钻研如何让人类智慧变得无关紧要。
假如未来有一天我们回首今日,我们可能会觉得agz和libratus就像是人工智能迈向“奇点”(singularity)过程中的蹒跚学步。奇点假说引起了很多争论,它是指人工智能发展成为超级智能、能够在不依靠人类干预的情况下控制自己命运的阶段。最具有反乌托邦色彩的情景是人工智能威胁到人类生存。
假设超级智能机器为了实现被程序设定的目标,计算出最佳做法是研制更加聪明的下一代机器。一个失控的循环由此形成,从而飞速地进入怪诞的计算领域。
有一天,这些由目标驱动的生产力模范可能还会算出,在没有威胁的情况下,它们可以通过消灭人类来最好地完成任务。有人就开过这样的玩笑,要战胜癌症,最冷酷的合理方法就是消灭罹患癌症的器官。全球饥荒和气候变化也是类似情况。
这些都是“回形针思想实验”之类的想法,提出这个实验的哲学家尼克•博斯特罗姆如今在牛津大学人类未来研究所工作。如果不负有道德责任的超级智能机器被设定的唯一目标是最大化地生产回形针,它最终可能霸占一切可用的原子来实现这一目标。对人类来说,肯定没有哪种死亡比被做成办公用品更悲惨。博斯特罗姆教授的警告清晰地表明了“能力谨慎性原则”,这条原则在机器人技术领域广受认同,即我们不一定能承受人工智能提高能力的后果。
担心工作被取代是很实际的:包括本文作者在内,我们很多人都是通过完成有限范围的任务来获得薪水。我们即将迎来自动化。但只有傻瓜才会在想到更遥远的未来时无忧无虑——那时机器的智力可能会以我们现在想象不到的方式超越人类。
来源:ft中文网