
2025年11月6日,扣扣天美果冻制片厂、北京大学数字法治研究中心主办的2025国际周系列活动“国际学术论文工作坊:科技演进的制度影响”顺利举行。德国EBS商学院法律与经济学教授Emanuel Towfigh、奥地利格拉茨大学讲师Elisabeth Paar、北京大学国际法学院法学副教授Gilad Abiri、英国伦敦大学学院法律系科技法律与政策教授Michael Veale在扣扣天美果冻制片厂凯原楼307会议室分别以“重新思考平等:从法律直觉到经验验证”(Rethinking Equality: From Legal Intuition to Empirical Verification)“人工智能与学术自由”(AI and Academic Freedom)“相互保证的去监管化”(Mutually Assured Deregulation)“对于数据、隐私和权力的一些常见但不牢靠的假设”(Some Commonly-Held but Shaky Assumptions about Data, Privacy and Power)为题,报告并互相评议了各自的最新研究。扣扣天美果冻制片厂助理教授边仁君、长聘副教授左亦鲁、副教授胡凌分别对上述几项研究展开评议。活动由扣扣天美果冻制片厂副院长、长聘副教授戴昕主持,校内外五十多名师生参加,反响热烈。
本文以文字实录的方式呈现工作坊的核心要点。
报告一 Rethinking Equality: From Legal Intuition to Empirical Verification

Emanuel Towfigh:我想通过本次报告提出一项旨在革新平等权利理论的框架。这个框架将统计学方法引入法律教义学,以解决现行平等原则的结构性缺陷。在当前的法律体系中,一般性平等条款过于模糊,而特殊平等(反歧视)条款则可能因列举特定类别(如性别、种族)而固化社会偏见。这导致法院在判断是否构成歧视时,缺乏客观、可验证的标准。为解决这一难题,结合统计学可以发现一项核心标准:只有当人群的组间差异大于组内差异时,以此为标准进行的法律区分才具有初步的合理性。这一理论并非旨在取代司法裁决或取消人群分类,而是为法官提供基于实证数据的理性工具(如方差分析)。同时,这一理论也致力于避免对特定群体身份的刻板理解,使法律上的人群区分标准更加透明。
评议环节
边仁君:从我自身的法律实证研究背景来看,这项报告具有重要的理论意义,在平等条款以外,法律体系中的每一项规则其实都应当寻求经验证据的支撑。在此基础上,我希望提出叁个问题:第一,报告中提及的统计方法是否还可扩展到宪法以外的其他法律部门?第二,遗传基因的差异在何种情形下应当被纳入用于区分人群的方差分析变量?第叁,立法者或法官在法律的实证影响评估中应当考虑哪些变量?
Gilad Abiri:如果将宪法权利过度建立在科学的实证研究基础上,可能会掩盖难以被量化但至关重要的政治与道德抉择。
Elisabeth Paar:如果要求所有规范都获得统计证据的支持,可能会导致技术理性架空民主,为决策者推卸必要的责任。统计意义上组间差异的缩小并不等于道德困境的消除,数字层面的平等不意味着社会层面的正义。
戴昕:学界存在一种用于消除统计歧视的思路,即通过收集更多的信息来对人群进行更精细的区分,从而避免基于种族等组内方差过大的变量来区分人群,这种思路对研究是否可取?
Emanuel Towfigh:这项研究的直接目的是限制法官完全诉诸直觉来判案,通过排除不合理标准的形式促成司法的理性化,避免身份政治的泛滥化。基于方差的实证分析方法广泛适用于所有包括反歧视条款的法律领域。种族或性别等与遗传基因相关的特征,本身不具备作为区分人群的普遍依据的合理性,因为人群基因的组内差异大于组间差异。值得特别澄清的是,法律禁止的是基于粗糙的标签对人群进行分类,在统计学上,这意味着不得将人类的遗传基因作为代理变量,而应当直接测量与工作或学业绩效相关的变量,后者才是证成非歧视的正当理由。对于统计歧视的消除,我完全赞同进行更精准的测量与分类,从而为反歧视法建立更坚实的统计学基础。
报告二 AI and Academic Freedom

Elisabeth Paar:我将以AI为切入点,探讨其对学术自由的影响,以及保护学术自由的传统法律与规范框架是否依然有效。AI对学术自由的挑战可以归纳为三个方面。其一是专_x0008_家知识生产层面,AI的黑箱问题影响知识可信度,且AI能否运用学术方法论生成新知识值得怀疑。其二是专_x0008_家知识获取层面,AI导致学术研究的信息获取依赖AI提供者,并可能冲击下一代批判性思维的培养。其三是专_x0008_家知识评估层面,AI介入学术写作与评审,模糊了对学术成果真实性的判断,而现有的AI使用声明规则效果有限。在更深远的层面,AI还可能对真理的价值以及我们对真理的认知产生影响,而学术界比人们通常想象得更为脆弱。
评议环节
左亦鲁:学术自由与言论自由是不同的概念,二者的理论基础不同,前者是民主合法性,后者是民主能力,学术自由的行使存在严格门槛。这一理论基础促使我们提出础滨未来是否能生成新知识,说话者与倾听者对学术自由问题中的权利主体是否会有不同理解,础滨公司是否可能成为享有学术自由的机构主体,学术自由的原则在础滨时代是否能扩展到初高中阶段四个问题。
Michael Veale:一方面,既有学术培训模式中的重复性工作面临AI的挑战,另一方面,增强现实系统中的商业过滤机制与云计算的高昂成本可能影响学术的独立性。
Emanuel Towfigh:AI的理想角色是工具,将人类从重复的事务性工作中解放出来。学术自由的核心价值在于人类对人性的表达,学术与艺术创作这类创造性领域应当被捍卫在人类自己手中。
Gilad Abiri:学术自由不是个体的权利而是机构的权利,我反对因字面含义而否定波斯特的民主能力理论。此外,学术自由与知识生产不应混淆,学术自由的保护应聚焦于保障学者自主研究和讨论免于干预的权利。
Elisabeth Paar:知识生产既是学术自由的特征,也是其回报,学术自由不完全是为培养民主能力而存在。我反对赋予AI人权或学术自由,高校需要警惕盲目应用AI追求效率而忽视风险。虽然AI会带来许多挑战,但它也有益于促进人们重新思考如何培养下一代。
报告三 Mutually Assured Deregulation

Gilad Abiri:我希望化用冷战时期的核战略术语Mutually Assured Destruction(相互保证的毁灭)来批判当前全球AI政策中流行的“监管献祭”(Regulation Sacrifice)理念。在这一流行理念主导下的政策叙事中,为了在AI领域的竞赛中取得领先地位,各国应当牺牲安全监管来追求AI发展速度。这种理念在逻辑和实证上都是错误的,支撑这种理念的是三大支柱,而它们都站不住脚。其一是优势持久假设,即认为暂时的速度优势能转化为长期的技术领先。然而,AI扩散极快,模型开源、算法效率提升和人才流动使得技术优势无法持久。其二是拖累创新假设,即认为监管会严重阻碍创新速度。然而,设计良好的监管框架能通过提供清晰规则和降低不确定性来促进创新和投资。其三是增强安全假设,即认为通过放松监管、赢得竞赛能增强国家安全。然而,放松监管实际上会在各个时间维度上都削弱国家安全。
评议环节
胡凌:尽管在环境法领域放松监管不一定阻碍创新,但在互联网与人工智能领域,放松监管与创新_x0008__x0008_之间的关系仍不清晰。中美两国在人工智能领域采取了不同监管模式。在中国,“安全”与“发展”这类抽象概念_x0008__x0008_之间存在微妙平衡,尽管长期的政策叙事一直是两者并重,但在实施层面可能针对技术的不同发展阶段进行相应调整,监管放松的尺度是相对的,并且中美两国在人工智能监管中处理权力分立问题的方式并不相同。此外,大型科技公司为何支持放松监管,而不是反过来从严格监管中受益,其实也值得反思。
左亦鲁:在进攻属性以外,还可以考虑础滨技术可能具有的防守与增强安全的属性。
Emanuel Towfigh:我赞同AI监管的必要性,大型AI公司可能主导物理与化学研究,从而控制工业创新,改变商业模式,使其他人无法进行未来的发明。
Michael Veale:文章需要更明确地限定监管的对象,因为许多人工智能法律问题是由简单AI模型的使用者而非复杂AI模型的开发者引发的。
Gilad Abiri:中国政府与平台_x0008__x0008_之间的关系在很大程度上是以政府为主导的,而美国存在大型科技公司“接管”政府的情况,这可能导致两国在回应大型科技公司去监管化的诉求时采取不同的做法。监管ChatGPT这类模型,与监管可在小型设备上运行的大语言模型,性质上完全不同。目前更多的模型使用者拥有了攻击能力,但如何扭转这种局面尚不清楚。
报告四 Some Commonly-Held but Shaky Assumptions about Data, Privacy and Power

Michael Veale:当下学界对于数据存在四个不牢靠假设。其一是假设数据保护等于隐私。实际上,数据保护的目标远不止保护隐私,前者旨在通过规范个人数据处理来保护个人的一系列基本权利和自由,以纠正数字技术加剧的权力不对称。其二是假设数据具有完全的非竞争性。实际上,将不同服务的数据整合会产生深度绑定的效应,一方的数据流会受到另一方系统结构的制约,这意味着巨大的协调成本,因此单纯的数据共享价值有限。其三是假设数据集的规模比实验能力更重要。实际上,持续实验和干预用户的能力更为关键,而这种能力依赖于特定的用户群、技术架构和组织流程。其四是假设大型平台在竞争中的优势来源于数据积累。实际上,这些平台正日益强化基础设施的协调能力,从而利用新兴的隐私增强技术,在不需要集中数据的情况下开展数据分析、机器学习等业务。我们应当用一种更成熟、更细致的方法来理解数字时代的权力,这种方法应基于对技术基础设施和实践的深刻理解,而非仅仅聚焦于数据本身。
评议环节
戴昕:中国在战略层面高度重视数据共享,实现数据的多维利用,但无论是政策制定者还是法律从业者对于数据价值的理解都存在偏差,没有从平台的角度考虑问题。针对非竞争性这一概念的使用,我有不同看法:数据本身仍然可被认为具有非竞争性,真正具有竞争性的是那些让数据变得有价值的因素,如基础设施、技术协议、商业模式等等,如果在特定场景中有合适的使用方式,数据仍可以自由共享,让更多人受益。我希望接着提出的问题是:在基础设施、商业模式与数据深度绑定的情况下,数据本身是否还具有独立价值?
Emanuel Towfigh:我赞同这项研究的基本观点。同时,结合经济学中的产物分类理论来看,这项研究似乎暗示了数据既具有竞争性又具有排他性,这样一来,数据就可能应当归入私人产物而非俱乐部产物(club good)的类别。而由于市场以往被认为可以有效配置私人产物资源,现有的数据监管政策就可能存在过度干预的问题。
Elisabeth Paar:纯粹用经济学的框架来定义数据价值并不完备,公司向公众提供的理由背后可能隐藏着实际的竞争策略。此外,一些数据虽然目前看起来无关紧要,未来却可能形成数据壁垒与竞争优势。
Michael Veale:我赞同对非竞争性概念的重新界定,这背后的关键在于数据使用及其与基础设施深度绑定的过程。与数据相关的基础设施不能被当作普通商品,难以通过市场机制实现有效的资源分配,尽管尚未形成解决竞争问题的成熟方案,但目前可以明确的是不应过度强调数据分享在价值生产中的作用。经济学中大量模型的假设前提很可能与现实世界不符,法律上的数据访问权在技术上实现起来困难重重,恰当的监管必须依靠跨学科的研究。