【按】这些年来不断有读者通过各种方式询问我们的意识形态定位,包括试图为我们定位 —— “IYP是左翼吗?”;但 IYP 始终在淡化意识形态的影响。我们主张从事实出发、以共同愿景为导向,和所有人一起思考共同的问题和拟定解决方案,不考虑意识形态队形,不考虑圈子共识。这在意识形态鲜明(极化)的舆论场上似乎有些格格不入。但必须说,真正的辩论就应该如此,即 事实论据的充分性是为真正的力量。否则就很容易变成胡搅蛮缠。
本文讲述的是一个人工智能新项目,它以特殊的方式将这个问题突出出来了。
2011年2月,一位名叫诺姆·斯洛尼姆 (Noam Slonim) 的以色列计算机科学家提议建造一台机器,在一些似乎与人类密不可分的事情上比人类做得更出色,即:关于政治的争论。
斯洛尼姆在特拉维夫的一家 IBM 研究机构工作,他在那几天前自豪地看到该公司的自然语言处理机器 “沃森”(Watson)赢得了智能挑战赛 “危险边缘(Jeopardy)”。之后,IBM 向其全球实验室网络中的数千名研究人员发送了一封电子邮件,征集继 “危险边缘” 项目之后的 “大挑战” 想法。
斯洛尼姆想到,他们可能会尝试制造一台能够击败冠军辩论手的机器。他做了一个单一的幻灯片演示,然后又做了一个更复杂的演示,然后又做了一个更更更复杂的演示,经过与其他许多IBM研究人员的多轮竞争,斯洛尼姆赢得了建造他的机器的机会,他称之为 “辩论者项目”。
最近,斯洛尼姆告诉记者说,他唯一的愿望是,当真正的政治辩论开始时,“辩论者项目” 能有美女演员斯嘉丽·约翰逊的声音。不过这没有实现,相反,它被赋予了一个可识别的机器人声音,都不如Siri那么灵活。这是基于机器人技术的一个基本原则:机器不应该欺骗人类,让他们以为自己是在与任何一个真人互动,更不用说是一个被《Esquire》杂志两次评为 “最性感的女人” 的人类了。
像这种巨头公司内部的科学工作有时会像在学术实验室中一样让人感觉其与世隔绝和投机。不难想象,企业可能会利用斯洛尼姆的编程 — — 也就是说,他们可能会用一台非常有说服力的机器来代替任何与人类互动的其他人类。
然而,斯洛尼姆设在特拉维夫的团队不应该考虑这些,他们的全部任务应该仅仅是赢得一场政治辩论。对斯洛尼姆来说,这是个很大的要求。IBM制造的计算机曾在国际象棋比赛和琐事上击败过人类冠军,这给人们留下了人工智能接近 “人类智慧” 的印象,斯洛尼姆告诉我。他认为这是一个 “误导性的概念”。斯洛尼姆身材修长,脸色苍白,剃着光头,戴着眼镜,他对人工智能没有通常的吹捧,相反他对这项技术的新颖性有一种轻微的羞涩感。对他来说,这个 “政治辩论项目” 是向现实迈出的半步。
辩论是一种竞技游戏,就像琐事或国际象棋,因为它有特定的规则和结构,可以被编纂并教给机器。但是,它也像现实生活一样,目标是说服人类听众改变他们的想法,要做到这一点,机器需要了解人类对世界的看法。
如果您错过了《反说服》
由于他的博士专业,斯洛尼姆对机器学习已经很熟悉了。当涉及到政治辩论时,他唯一的权威是国家 — — 他向记者指出,以色列人经常争论不休,而且他认为他自己的家人比大多数人争论得都要多。但IBM的大量资源被用于该项目,在政治动荡的十年中,这个辩论机器人项目逐渐成形 — — 这是一种教育。
这台年轻的机器通过扫描 LexisNexis Academic 的电子图书馆来 “学习”,该图书馆由新闻报道和学术期刊文章组成,是人类经验细节的庞大数据库。一个引擎搜索主张,另一个引擎搜索证据,还有两个引擎对前两个引擎发现的所有内容进行定性和分类。如果斯洛尼姆的团队能够正确设计,那么,在人类辩论者被给予的短暂准备时间内,机器可以整理出大量的经验信息。它可以在证据上获胜。
2016年,一位辩论冠军为该项目提供了咨询,他注意到,尽管机器在提取事实和主张方面有很多便利,但机器的思维方式并不像一个人类辩论者。斯洛尼姆回忆说:“他告诉我们,‘对我来说,辩论是否禁止卖淫,或是否禁止售酒,基本上是一样的。我将使用同样的论据’”。斯洛尼姆意识到,“论证类型” 的数量有限,而这些是机器需要学习的模式。有多少种论证类型?团队中的计算机科学家丹·拉哈夫(Dan Lahav)也曾是一名辩论冠军,他估计有50到70种论证类型,可以应用于几乎所有可能的辩论问题。而对于IBM来说,这还不算多。
斯洛尼姆描述了 “辩论者项目” 的第二阶段,这在某种程度上是手工制作的。斯洛尼姆团队的专家们撰写了他们自己的模块化论据,部分依靠斯坦福哲学百科全书和其他文本。他们试图训练机器像人一样去推理。
2019年2月,这台机器进行了第一次大型公开辩论,由智慧平方 (Intelligence Squared)公司在旧金山主办。对手是三十一岁的英国经济顾问哈里什·纳塔拉扬,几年前他曾是世界大学辩论锦标赛的亚军。
在他们上台之前,每个参赛者都被告知了主题,并被分配到一个阵营,然后被分配了15分钟的时间来做准备。辩论机器人将论证学前教育应该由公众补贴,而纳塔拉扬则要论证为什么不应该。这个辩论机器人滚动浏览 LexisNexis,收集证据并将其分类。纳塔拉扬却没有这样做。(他回忆说,他的第一个想法是想了解下这个话题:在美国,对学前教育的补贴是否真的有争议?—— 很简单,因为他是人类,他不会像机器那样不加思考地盲目服从指挥。)
纳塔拉扬在测试赛前被阻止看到这个辩论机器人的行动,但他被告知,机器人有一个四亿份文件的数据库。“我当时想,‘哦,天哪’,这可是我几辈子都无法吸收的知识量”,纳塔拉扬说。相反,他会承认这个辩论机器人的信息是准确的,并对其结论提出质疑。“人们经常说,事实胜于雄辩,但在这个时代,这绝对不是事实”,纳塔拉扬说。他准备布置一个微妙的陷阱,以便把机器人绕进去。机器人会准备好争论 “是”,期望纳塔拉扬争论 “否”。相反,他会说:“是的,但是……”。
这台机器是一座闪亮的黑塔,被放置在舞台右侧,用一种轻快的声音说话,这种声音被故意校准为既不完全像人类的声音,也不完全像机器人的声音。它以一个编排好的剧本中的笑话开始,然后展开了它的论点。
“几十年来,研究表明,高质量的学前教育是公共资金的最佳投资之一,与那些没有同样机会的儿童相比,经历学前教育的孩子考试成绩更好,生活更成功”。机器继续引用研究的支持性结论:对学前教育的投资通过改善健康和经济来减少成本,同时也减少了犯罪和福利依赖。它引用了前 “总理高夫·惠特拉姆”(澳大利亚前总理)在1973年发表的声明,惠特拉姆说补贴学前教育是一个社会可以做出的最好的投资 …… 如果这一切听起来有点高高在上,那就对了,这个辩论机器人还引用了 “圣约瑟夫RC小学的高级领导” 的话,就像政治家一样,洒脱地提到了普通人。辩论机器人听起来的确有点像政客,它不经意地引用了道德的第一原则。关于学前教育,它说:“支持他们是我们的责任”。我倒是很想知道,机器和观众有什么责任?
纳塔拉扬站在舞台左侧的讲台后面,身穿灰色三件套,说话时声音轻快而自信。他决定不对辩论机器人收集的证据提出质疑,这产生了一种解放的效果:这使他能够争辩说,机器人对这个问题采取了错误的方法,使人们注意到一个参赛者是人类,而另一个不是人类的事实。“有多种对社会有益的东西”,他说,“这可能包括,在美国这样的国家,增加对医疗保健的投资,这通常也会对教育产生回报” — — 辩论机器人的消息来源可能也会注意到这是有益的。纳塔拉扬已经确定了该机器人试图进行的那种以专家为导向的论证,而且,他没有在事实上进行竞争,而是依靠某种类型的论证模式。
记者第一次观看旧金山的这场辩论时认为纳塔拉扬赢了。他把辩论机器人所描述的世界翻转过来了,让观众怀疑电脑是否从正确的角度看待了问题,而这似乎是决定性的手法。在房间里的观众也把票投给了人类。IBM击败了国际象棋手卡斯帕罗夫,并击败了 “危险边缘” 项目的人类冠军,但它在与哈里什·纳塔拉扬的比赛中落败。
但是,当第二次、第三次观看辩论时,记者注意到,纳塔拉扬从未真正反驳过辩论机器人的基本论点,即 学前教育补贴将为自身带来回报,并产生更安全、更繁荣的社会。当他试图反驳时,他可能会脱口而出,甚至到了荒谬的地步:有一次,纳塔拉扬声称学前教育可能是 “特别有害的”,因为它可能迫使学龄前儿童认识到同伴比他自己更聪明,这将造成 “巨大的心理伤害”。
在第三次观看结束时,记者觉得人类和机器与其说是在竞争,不如说是在展示不同的争论方式。辩论机器人做的是关于学前教育的争论,纳塔拉扬所做的事既抽象又容易辨认,就是您依旧在华盛顿、在有线电视网络和日常生活中经常看到的那种情况 — — 他是在对辩论的性质进行论证。
记者把这些辩论的视频发给了阿瑟·阿普尔鲍姆,他是哈佛大学肯尼迪学院政治学教授,他长期以来一直在撰写关于对抗性系统及其缺点的文章。
他说,“首先,这些以色列人工智能科学家是非常聪明的,我不得不说,这简直就是魔术”。但是,阿普尔鲍姆问,魔术的目的是什么?(像纳塔拉扬一样,他想把这个问题倾斜过来)。让人工智能总结和引导人们争论的方式的理由是,它可能会揭示出潜在的问题。但阿普尔鲍姆认为,这个理由听起来很弱。“如果我们有擅长做这件事的人类,我们去听他们做辩论,我们会不会对自己面临的政治问题有更深入、更复杂的理解,从而成为更知情的公民?这就是潜在的价值主张”,阿普尔鲍姆说,“直截了当地的答案是:不会的。”
在阿普尔鲍姆看来,为这场辩论选择的特殊对抗形式起到了提升技术问题、掩盖道德问题的作用。观众将纳塔拉扬选为辩论的赢家。但是,阿普尔鲍姆问,他的论点究竟是什么?“他提出了标准的反对意见:这在实践中是行不通的,而且会造成浪费,还会有意想不到的后果”,他说,“如果你逐条审视纳塔拉扬的论点就会发现,那里几乎没有任何东西”。纳塔拉扬击败计算机的方式,在某种程度上是提出一个政策问题并剥夺它所有有意义的细节。“这不是他的错,他没有办法做到与计算机掌握的事实调查相抗衡。所以,相反,他只是在胡说八道”。
IBM将旧金山的辩论会等公共活动作为人与机器的对决来举办,强调了两者之间的竞争。但是,在目前的水平上,人工智能技术的运作更像是一面镜子:它们向人类学习,并告诉人类一些关于我们已知的东西和我们如何思考的局限性。斯洛尼姆的团队已经成功地教会了机器模仿人类的辩论模式,但这并不完美。我们人类 — — 或者,至少是哈里什·纳塔拉扬 — — 在这方面仍然更出色。但机器在另一个方面要厉害得多 — — 就是收集和分析证据,包括统计和观察证据。有补贴的学前教育是否有利于社会?其中一个立场是支持的。辩论机器人更有可能为正确的答案提供有力的证据,但却不太可能说服人类听众相信它是真的。大厅里的观众希望辩论机器人更像一个人类:更流畅,更有感情,更善于操纵抽象的概念。但是,如果我们的目标是一种更具体、更有经验的辩论方式,我们就需要人工智能更像一台机器,提供大量有用的有组织的信息,把废话留给人类。
无论你是像斯洛尼姆的顾问和纳塔拉扬那样在辩论的世界里呆上数年,还是像我最近那样只呆上几天,你都会发现它的模式无处不在。打开CNN,你会很快发现政客或专家们把一个具体的问题变成了一个抽象的问题。当我上周通过视频电话联系到斯洛尼姆时,我发现自从旧金山的辩论以来,他已经留起了胡子,这使他看起来更老道,更有反思精神。他身上有一种我以前没有见过的理想主义的气息。他一直致力于利用辩论机器人的算法来分析网上有哪些反对接种COVID-19疫苗的论点。他告诉我,他希望这些算法可以用来使政治争论更具有经验性。
也许,有一天,每个人的智能手机上都会有一个论据检查器,就像语法检查那样,这将帮助人们提出不仅有说服力而且真实的论据。斯洛尼姆说:“这是一个有趣的问题,关于在多大程度上可以利用这项技术来提高年轻人的能力,以更理性的方式分析复杂的话题”。
我发现令人感动的是,这项技术中最具有变革潜力的部分,即 让论证更具有经验性和真实性,也是使辩论机器人看起来最像电脑机器的地方。斯洛尼姆认为这是一个面向下一代的项目,一个可能超越当前政治两极分化水平的项目。他沮丧地说道:“我们这一代也许已经迷失了”。⚪️