学习从机器中学习
学习型算法学会去参与沟通,它们可以这样做,因为它们不需要了解人们的想法。出于同样的原因,人们自己可以从与学习算法的互动中学习,即使他们不理解它们。
一个例子是2016年3月世界顶级围棋选手之一李世石与阿尔法狗之间对弈时,阿尔法狗的第37步棋可谓是“传奇一手”。观察者将这一举动描述为绝对令人惊讶和不可预测。“这不是人类的举动”,不可能出现在任何人的脑海中。它实际上是由一种没有思想的算法产生的,但它让阿尔法狗赢得了游戏,然后胜过了对手。后来,这个难以理解的举动引发了人类玩家的学习过程,深刻地改变了游戏的实践。重温第37步,围棋棋手发现它非常出色,并以此为线索重新思考它们的游戏策略,大大改进了棋法——从而向阿尔法狗学习。在这次修订之后,李世石在他与阿尔法狗的第四场比赛中创造了著名的非常不可能的(万分之一)第78步(“神之一手”),使他能够赢得这场比赛。
李世石用人类技能重新解释了人类无法设计的动作,从而击败了算法。阿尔法狗难以理解的行为突出了以下可能性——人类玩家可以用自己的处理方式来产生有意义的结果。该算法很可能后来在其程序中加入了第78步,并学会了使用该步及获取其后果;然而,如果没有设计它的人,它就无法做到这一点。任何算法,无论其自学能力多高,都不可能产生不隐含在所提供数据中的可能性。没有算法可以独立产生偶联性,但算法可以用前所未有的方式来处理人为产生的偶联性,这些方式可能会产生更多的可能性以及与人类互动的进一步偶联性。
甚至且特别是如果算法不是另一个自我,如果它不遵循策略,并且如果它不理解我们的推理,人类用户仍然可以从他们与算法的互动中学习并制定自己的策略。不是通过可以触发可理解过程的可理解算法,而是通过获取和使用任何人都无法想象的线索,从而改变他们的观察方式。人们利用他们的智能向非智能机器学习(non-intelligent machines),这是增加沟通复杂性的机会。就围棋而言,这是一个游戏策略问题,但同样的机制可以应用于设计一般化的社交算法。
然而,依赖黑箱并不能让人放心,尤其是当人们知道他们的运作不能免受各种偏差和错误的影响时。最近关于“可解释的人工智能”的研究分支试图通过寻找能够使机器提供对其运作的解释。但解释难以理解的过程似乎是一项毫无希望的任务。正如温伯格所说,这相当于有人试图强迫人工智能“人为地愚蠢到我们可以理解它是如何得出结论的。”然而,作为沟通伙伴的算法可以被解释而不是被理解。前提是这些算法有足够的沟通能力以适当、可理解和可控的方式回应对话者的澄清请求。用户通过对机器的解释所得到的理解,不一定是机器自身更精细的过程。这实际上也经常发生在人类的解释中,因为它们提供了理解沟通的线索,而无需访问伙伴的心理过程——这也是高级算法设计目前正在发展的方向。