您好,欢迎光临北大公法网! 中文版|ENGLISH|老网站入口

联系我们

北京大学宪法与行政法研究中心
地址:北京市海淀区颐和园路5号北京大学法学院四合院
电话:86-10-62760063
传真:86-10-62760063
E-mail:pkupubliclaw@126.com
您当前的位置:首页 > 中心动态 > 最新推荐

【左亦鲁】算法受言论自由保护吗?

点击量:207

                                                        算法受言论自由保护吗?
                                          ——发言者本位、听众本位与强人工智能的言论

 

第二部分围绕主体和客体要件展开的讨论,在很大程度上是本质主义。它假定事物存在唯一本质,并且这一本质是可被探求和把握的。然而,在“什么是发言者”和“什么是言论”这样的问题上,真的存在所谓“本质”吗? 更进一步,即便这种本质是存在的,本质主义进路有助于我们解决算法是否应受言论自由保护这样的现实问题吗?

一种实用主义的进路开始出现。 借用波斯纳的定义,这种进路通过“成本 - 收益、权衡”在可能的后果中选择比较。不同于本质主义,实用主义的进路不再纠结何为发言者和言论,而是直面真实世界中的成本收益分析和利益衡量。在算法是否应受言论自由保护这一问题上,一种办法就是在发言者本位和听众本位间进行选择。

先看发言者本位。如“街角发言者”所示,传统言论自由想象是发言者本位的。言论自由的首要关切是保护站在肥皂箱上的发言者———而不是站在周围听他演说的听众。“说”———而非“听”———才是关键。“说”则必然涉及“谁在说”———言论自由是一项属于人的权利,站在肥皂箱上的必须是一个有血有肉的人。因此,发言者本位会在主体资格问题上持一种原教旨主义立场———发言者只能是有血有肉的人,也只有人的言论才应受到保护。只要是人的表达,不管多么抽象和非典型(如勋伯格的音乐、波拉克的画甚至糕点师傅做的蛋糕) ,都更有可能被认定为言论; 反之,只要表达不是来自于人,无论其多么清晰和接近“观点的交流”,都容易因主体资格问题而被“一票否决”。

站在发言者本位,电脑和程序显然不是“血与肉构成”的人,因此算法很难获得保护。借用街角发言者和肥皂箱的比喻,算法就相当于把一台电脑放到了肥皂箱上,哪怕这台电脑可以发声,由于它不是人,因此无法作为言论受到保护。在发言者本位下,算法要想获得保护只有一种途径,即证明它有助于促进自然人的表达。算法支持者主张“算法只是人进行表达的工具”就是遵循这一逻辑。但从严格的发言者本位出发,算法和人之间的这种联系还是太间接和牵强了。再者,算法具有的智能性使其有可能与自然人构成某种替代和竞争关系。换言之,保护算法的言论反而有可能伤害发言者的利益。因此,发言者本位倾向于不认可算法享有言论自由。

但听众本位则倾向于赋予算法言论自由保护。听众本位在一定程度上伴随着大众媒体时代的到来。1969 年,面对广播这一新兴大众媒体,最高法院的意见代表了对听众本位最早的表述: “作为整体的人民享有无线电广播上言论自由的利益……最重要的是,言论自由是观众和听众———而不是广播者———的权利。”简单来说,在大众媒体的时代,听众———而非发言者———可能才是普通公民更真实的身份。“受众”、“注意力稀缺”、“注意力经济”和“接近权”等概念的出现也佐证了上述趋势:相对被动的听众、观众和读者才是大众在现实中的角色。站在听众的立场上,听众本位更关注公民能否接收到更多的言论或获取更多信息,而不是言论从哪里发出。

听众本位“言论不问出处”使它不再执着于发言者的主体资格,而是聚焦言论内容的质量。照此逻辑,一些人的言论虽然在语言学意义上毫无争议地属于“言论”,但如果这些言论对其他听众没有价值和意义,那么就不值得受到保护。如米克尔约翰所言: “不是所有的话都被说出,而是所有值得被说的话都说了出来。”另一方面,一些表达和内容如果对听众有意义,那么无论其来自哪里,都理应受到保护。将听众本位推到极致,如果一只猴子或鹦鹉说出的“话”对人类是有价值的( 而不是简单学舌) ,猴子和鹦鹉的“话”同样可以受到保护。于是,听众本位为保护算法(以及其他任何非人主体) 的言论打开了一道门———只要这些非人主体(不管是算法、鹦鹉、强人工智能还是外星人) 的言论能够被证明是有益于人类听众的,那么它们就应当受到保护。

作为算法言论自由问题的延伸,“发言者本位 vs. 听众本位”对思考强人工智能Strong AI) 的言论是否应受保护同样可以提供借鉴。强人工智能即通用型人工智能(Ar-tificial General Intelligence,简称 AGI) ,它是相对于“专用型人工智能”( Applied AI) 等形式的弱人工智能而言,即可以胜任人类所有工作的人工智能。《终结者》和《机器姬》等科幻作品中智能和体力都不逊于甚至优于人类的“机器人”可以算作强人工智能的一种。引发埃隆 ·马斯克、霍金和 Open AI 等组织担忧的、可能取代人类的,也是强人工智能

强人工智能言论自由争议仍旧围绕着“人”与“非人”展开。与算法相比,强人工智能在“人”与“非人”间可能更具张力。从“人”的方面看,强人工智能无论从智能还是外形可能都更接近( 甚至超过) 人。对绝大多数人来说,认为谷歌和百度的算法等同于说话是反直觉和反经验的。但当强人工智能到来那一天,一个无论外形、语言和声音都与人类一模一样的“机器人”与你交谈,直觉和经验可能都会告诉你这是一个“人”在“说话”。

但如果考察“非人”的一面,强人工智能背后仍旧是算法、数据、机器和电脑。换言之,强人工智能仍然不是人。而且与相对“简陋”和“半自动”的搜索引擎算法相比,强人工智能更加智能和“像人”的背后其实是更多的自动性和自主性,这反而意味着更多“非人”因素。

强人工智能的言论是否应受到言论自由保护? 我们当然可以仍旧采取本质主义的进路,从主体与客体两方面去探讨强人工智能是否满足言论自由的要件。但就像通过本质主义解决算法的言论自由问题一样,这种进路难免会再一次走入无底洞。从客体的角度来看,强人工智能的言论无论从内容还是形式上,都会与人类最标准和典型的言论难以区分。甚至无需强人工智能的到来,今天苹果的 Siri、亚马逊的 Alexa、百度的度秘、微软小冰和谷歌的 Allo 都已无限接近这点。这些表达无疑要比算法、政治捐款以及很多象征性行为更像“言论”。但从主体要件来看,又会形成新的分裂。一方面,假设强人工智能通过了图灵测试,那么这些从外观、思维和情感都与人类无异的主体,为什么不能被看成是“人”? 但另一方面,如果坚持只有“血与肉”构成的主体才是“人”,那么无论强人工智能多么像人,不是人就永远不是人。而这种追问又会陷入“什么是人”和“什么是言论”的新一轮循环。

但“发言者本位 vs. 听众本位”的实用主义进路至少有助于跳出上述循环。如果选择发言者本位,言论自由就是保护有血有肉的自然人的表达,无论强人工智能多么“能说会道”,由于它无法直接服务于自然人表达的利益( 甚至还可能形成竞争和替代) ,因此它们的言论不应受到保护。但如果站在听众本位,有价值的信息和言论对听众越多越好。因此,强人工智能的言论只要能够被证明对人类是有意义和价值的,就应该受到言论自由保护。照此逻辑,甚至强人工智能间的对话,只要这些内容对人类听众是有价值的,同样应该受到保护。

本文节选自《算法与言论——美国的理论与实践》(左亦鲁,《环球法律评论》2018年第5期)