人工沟通与法:算法如何生产社会智能
上QQ阅读APP看书,第一时间看更新

学习从机器中学习

学习型算法学会去参与沟通,它们可以这样做,因为它们不需要了解人们的想法。出于同样的原因,人们自己可以从与学习算法的互动中学习,即使他们不理解它们。

一个例子是2016年3月世界顶级围棋选手之一李世石与阿尔法狗之间对弈时,阿尔法狗的第37步棋可谓是“传奇一手”。观察者将这一举动描述为绝对令人惊讶和不可预测。“这不是人类的举动”,不可能出现在任何人的脑海中。METZ C. What the AI behind AlphaGo Can Teach Us about Being Human [EB/OL]. [2016-05-19]. https://www.wired.com/2016/05/google-alpha-go-ai.它实际上是由一种没有思想的算法产生的,但它让阿尔法狗赢得了游戏,然后胜过了对手。后来,这个难以理解的举动引发了人类玩家的学习过程,深刻地改变了游戏的实践。重温第37步,围棋棋手发现它非常出色,并以此为线索重新思考它们的游戏策略,大大改进了棋法——从而向阿尔法狗学习。2017年5月,在一场比赛中遇到阿尔法狗的中国围棋高手柯洁明确表示,该算法改变了顶级高手下棋的方式,做出的动作让人联想为阿尔法狗自己的风格。MOZUR P. Googles AlphaGo Defeats Chinese Go Master in Win for A.I. [N]. New York Times, 2017-05-23.在这次修订之后,李世石在他与阿尔法狗的第四场比赛中创造了著名的非常不可能的(万分之一)第78步(“神之一手”),使他能够赢得这场比赛。METZ C. In Two Moves, AlphaGo and Lee Sedol Redefined the Future [EB/OL]. [2016-03-16]. https://www.wired.com/2016/03/two-moves-alphago-lee-sedol-redefined-future; TAYLOR P. The Concept of Cat Face [J]. London Review of Books, 2016, 38(16): 30-32.

李世石用人类技能重新解释了人类无法设计的动作,从而击败了算法。阿尔法狗难以理解的行为突出了以下可能性——人类玩家可以用自己的处理方式来产生有意义的结果。该算法很可能后来在其程序中加入了第78步,并学会了使用该步及获取其后果;阿尔法狗实际上也在2017年5月赢得了与柯洁的三场系列赛。然而,如果没有设计它的人,它就无法做到这一点。任何算法,无论其自学能力多高,都不可能产生不隐含在所提供数据中的可能性。ETZIONI O. Deep Learning Isn't a Dangerous Magic Genie: Its Just Math.没有算法可以独立产生偶联性,但算法可以用前所未有的方式来处理人为产生的偶联性,这些方式可能会产生更多的可能性以及与人类互动的进一步偶联性。

甚至且特别是如果算法不是另一个自我,如果它不遵循策略,并且如果它不理解我们的推理,人类用户仍然可以从他们与算法的互动中学习并制定自己的策略。不是通过可以触发可理解过程的可理解算法,而是通过获取和使用任何人都无法想象的线索,从而改变他们的观察方式。人们利用他们的智能向非智能机器学习(non-intelligent machines),这是增加沟通复杂性的机会。就围棋而言,这是一个游戏策略问题,但同样的机制可以应用于设计一般化的社交算法。因为我们使用的方法是一般化的,我们希望有一天它们可以扩展,以帮助我们解决一些社会最棘手和最紧迫的问题。SLIVER D., HASSABIS D. AlphaGo: Mastering the Ancient Game of Go with Machine Learning [EB/OL]. [2016-01-27]. https://research.googleblog.com/2016/01/alphago-mastering-ancient-game-of-go.htm.阿尔法狗中开发的技术目前用于处理科学问题,例如蛋白质折叠问题,可能会导致新药的开发或应用现有药物的创新方法。开发这些技术的Deep Mind团队的首席科学家约翰·基普尔说:我们不想成为领先的公司。我们希望有真正的生物学相关性。引自梅斯的话,伦敦人工智能实验室声称这些突破可以加速药物的开发。

然而,依赖黑箱并不能让人放心,尤其是当人们知道他们的运作不能免受各种偏差和错误的影响时。PASQUALE F. The Black Box Society. The Secret Algorithms That Control Money and Information [M]. Cambridge, MA: Harvard University Press, 2015.最近关于“可解释的人工智能”的研究分支试图通过寻找能够使机器提供对其运作的解释。WACHTER S., MITTELSTADT B., FLORIDI L. Transparent, Explainable, and Accountable AI for Robotics [J/OL]. Science Robotics, 2017, 2(6). https://doi.org/10.1126/scirobotics.aan608; SCOTT K., SCHIEBER S., WALDO J., WEINBERGER D. WOOD A. Accountability of AI Under the Law: The Role of Explanation [EB/OL]. [2017-11-03]. https://arxiv.org/abs/1711.01134; MILLER T. Explanation in Artificial Intelligence: Insights from the Social Sciences [EB/OL]. [2018-08-15]. https://arxiv.org/pdf/1706.07269.pd; BUSCGMEIER H., ESPOSITO E. Explanation as a social practice: Towards a conceptual framework to foster social design of AI systems [C/OL]//IEEE Transactions on Cognitive and Developmental Systems (2020). https://doi.org/10.1109/TCDS.2020.304436.但解释难以理解的过程似乎是一项毫无希望的任务。正如温伯格所说,这相当于有人试图强迫人工智能“人为地愚蠢到我们可以理解它是如何得出结论的。”WEINBERGER D. Our Machines Now Have Knowledge Well Never Understand [EB/OL]. [2017-04-18]. https://www.wired.com/story/our-machines-now-have-knowledge-well-never-understand.然而,作为沟通伙伴的算法可以被解释而不是被理解。关于透明度和事后可解释性之间的区别,参见LIPTON Z. C. The Mythos of Model Interpretability [J]. ACM Queue, 2018, 16(3): 1-27.前提是这些算法有足够的沟通能力以适当、可理解和可控的方式回应对话者的澄清请求。用户通过对机器的解释所得到的理解,不一定是机器自身更精细的过程。这实际上也经常发生在人类的解释中,因为它们提供了理解沟通的线索,而无需访问伙伴的心理过程——这也是高级算法设计目前正在发展的方向。CIMIANO P., Sebastian Rudolph and Helena Hartfiel. Computing Intensional Answers to Questions——An Inductive Logic Programming Approach [J]. Data & Knowledge Engineering, 2010, 69(3): 261-278; KARIM A., ZHOU SHANGBO. X-TREPAN: An Extended Trepan for Comprehensibility and Classification Accuracy in Artificial Neural Networks [J]. International Journal of Artificial Intelligence & Applications, 2015, 6(5): 69-86.萨克曼在《计划和情境行动》(1987年)中已经探索了人类和机器之间在产生可理解性方面合作的可能性,这依赖于利用它们在理解上的差异性。