SCI期刊查询网提供SCI、AHCI、SSCI、国内核刊等期刊目录查询选刊服务,助力上万名科研人员成功评职晋升!

中文、英文期刊目录查询系统

快速了解学术期刊目录级别、选刊、行业刊物等解决方案

新闻爱好者投稿论文格式参考:算法推荐新闻的潜在风险及法律规范路径

SCI期刊目录查询2025年06月16日 04时:50分

关键词:算法推荐新闻;底层逻辑;潜在风险;规范路径

作者:申艳红;赵 宣

作者单位:新疆大学

  【摘要】算法推荐新闻改变了传统的新闻信息分发模式,实现了对用户需求的精准推 送,成为信息过载时代搜索信息的重要工具。从系统架构上看,算法推荐新闻主要分为三 个要素:用户、新闻与推荐引擎(算法),包括基于内容的算法推荐和协同过滤的算法推荐两 种模式。对于工具理性的过度依赖导致算法推荐新闻存在三个方面的潜在风险,即传统监 管理念乏力、侵犯用户信息自决权、民事行政责任承担不明确。在法律规制层面,应当采用 事前“穿透式”监管理念、保障用户信息自决权、完善法律责任规范体系,以确保算法推荐新 闻价值理性的回归。

  随着算法推荐技术的快速发展,引发了新闻传 播范式的变革,新闻传播进入更加扁平化、精准化阶 段。算法推荐在推动新闻传播革命式变革的同时, 理论学界也提出一定的质疑。有学者从伦理角度认 为,算法推荐技术会导致“信息茧房”,加剧群体极化 现象[1] ;在法律性质上,有学者认为算法推荐行为属 于网络服务行为[2] ,算法推荐技术会对用户隐私权构 成挑战。[3] 囿于算法技术自身的局限性,算法推荐新 闻不仅造成一定的伦理问题,而且也存在部分法律 风险。因此,应当对算法推荐新闻中的法律风险进 行审视,管窥其中的困境与挑战,同时采用法律规制 路径对算法推荐新闻进行治理,以保证算法推荐真 正成为新闻传播的有力工具。

  一、算法推荐新闻的底层运行逻辑

  算法推荐新闻的底层逻辑设计与传统的新闻专 业规范完全相反,传统新闻专业规范中,新闻的选择 权由专业的编辑行使,由编辑对新闻内容进行价值 判断。但在算法推荐新闻机制下,通过对用户行为 习惯和社交图谱的构建,实现对用户需求内容的精 准化推荐,阅读何种新闻的选择权不再依赖专业新 闻工作者的价值判断,新闻选择权逐渐从新闻工作 者转移到算法与用户,新闻推荐权利发生了转移。

  从系统架构上看,算法推荐新闻主要分为三个 要素:用户、新闻与推荐引擎(算法)。目前主要存在 两种算法推荐模式:基于内容的算法推荐(Contentbased Recommend,CB)与协同过滤的算法推荐模式 (Collaborative Filtering,CF)。基于内容的算法推荐 模式主要考虑新闻的相似度;协同过滤推荐算法在 新闻推荐领域应用更加广泛,其本质是一种依据用 户与项目间交互行为数据来执行信息筛选的方法 论。该算法细分为用户协同过滤(User-based CF)与 项目协同过滤(Item-based CF)两大类别,在用户协同 过滤中,主要运用均方误差、皮尔逊相关系数等度量 手段来评估用户间的相似程度,随后通过设定阈值或 采用Top-N推荐策略来确定社交矩阵的范围,最终依 据用户间的相似性来实现新闻信息的交叉推荐,向用 户推送其可能感兴趣的新闻内容。基于项目的协同 过滤机制一般采用余弦向量方法计算新闻项目之间 的相似度,获取不同新闻项目之间的相似关系。但无 论是基于内容的算法推荐,还是协同过滤的算法推 荐,都无法解决数据稀疏性与冷启动的难题。

  随着人工智能技术的进一步发展,深度学习开 始逐渐运用到算法新闻推荐中。在新闻推荐中,深 度学习技术不仅可以通过非线性网络结构,提取新 闻内容和用户兴趣的深层次特征,而且能够融合蕴 含用户兴趣的多源异构辅助性信息,从而缓解新闻 推荐中的数据稀疏和冷启动问题。在深度学习下, 越来越多的权重因素被加入神经元之中,算法推荐 新闻更好地拟合、预测用户的行为和心理,分析预测 结果的准确性得到大幅度提升。

  二、算法推荐新闻的潜在风险审视

  (一)算法推荐传统监管理论乏力

  在互联网经济迅速发展的浪潮下,为避免企业 发展的创新性和法律标准滞后性之间的矛盾,我国 始终采用包容审慎的监管原则,互联网企业基于科 技创新享受大量的政策红利,监管的部分失位使互 联网企业攫取了巨额利润。如从 2012 年起,我国 P2P 平台开始迅速扩张,高峰期运营平台达到 5000家,但是非法集资、诈骗等现象层出不穷,导致居民 财富流失,对我国金融生态造成强烈冲击。在传统 监管理论下,算法推荐新闻主要存在以下三方面的 问题。

  其一,在监督治理节点上注重事后监督。从互 联网经济发展至今,“先做后批”成为普遍现象。算 法具有准公权力属性,平台操控舆论时常发生,并且 算法本身的局限性,算法偏见使用户陷入信息茧房, 算法黑箱导致主流价值观缺失。若一味注重算法平 台企业的事后监督可能会进一步导致算法损害的弥 散化,出现不可控的局势。

  其二,重视平台的行为监管,忽视了要素监管。 传统监管理论认为,应当以平台的外部行为为直接 监管对象,仍然遵循“主体—行为—责任”的传统思 路,但是在算法自动化运行的状态下,算法平台常以 失去“控制力”等为由进行抗辩。仅以行为和损害后 果为监管对象已经不能满足技术发展的实际状况, 算法作为平台的生产要素,已经深度嵌入企业的日 常运营之中,算法监管的本质应当移位生产要素监 管,加强算法审计、算法备案等相关工作。

  其三,过度重视企业的内部自律。在互联网监 管的早期阶段,平台一直以企业的法律角色出现,政 府始终呼吁企业自律,主张平台的监管目标通过企 业自律的形式完成,导致平台和监管部门都认为,平 台内部的自我监管从效率、正当性上都要优于政府 监管。虽然不能否认企业内部监管的优越性,但是 过度重视企业的内部自律,缺乏外部监督,极易导致 企业为了“利益”铤而走险,造成重大风险。

  (二)算法推荐侵犯用户信息自决权

  个人信息自决权是指个人依照法律控制自己的 个人信息并决定是否被收集和使用的权利。[4] 个人 信息自决权始于德国“人口普查案”,并通过“ITGrundrecht案”进一步补充确定。我国在个人信息保 护上,一直坚持以个人信息自决为基础,并创建了告 知—同意的权利对称机制。但就实际情况而言,我 国目前个人信息自决权的基础较为薄弱,无法形成 有效代表个人自主意志信息收集和使用的判断,不 能体现用户对个人信息的自主意识。对用户信息自 觉权的侵犯主要体现在两个方面。

  其一,推荐算法侵犯用户个人信息。无论是基 于内容的新闻推荐机制,抑或是协同过滤推荐机制, 算法均需要访问用户的历史浏览记录以及相关数 据,并通过数据进行建模,以实现新闻与用户之间的 匹配。在抓取数据过程中,一定程度上不可避免地 会侵犯用户的个人信息。在算法技术的介入下,平 台侵犯个人信息的方式较为隐蔽,用户无法意识到 新闻聚合平台正在收集其个人信息,甚至当新闻聚 合平台利用大量的个人信息谋求巨额的商业利益 时,用户也毫不知情。对于用户而言,甚至会主动贡 献自己的个人信息,以获取搜索的便利。

  其二,告知同意规则流于形式。告知同意规则 是《个人信息保护法》赋予平台处理个人信息的合法 性基础,在告知同意规则体系下,平台应当告知用户 信息处理的范围、方式和目的,并征得用户同意,但 现阶段大部分平台提供的个人信息保护条款类似于 格式条款,用户难以理解其中含义,概括性的授权和 同意并不符合个人信息处理规则的相关规定。

  (三)民事责任与行政责任承担不明确

  从规范角度看,我国《网络安全法》所规定的平 台责任并不是严格责任,而是一种过错责任,主观过 错是平台承担民事责任或者行政处罚的基本构成要 件。在民事责任认定上,当发生损害后果时,用户追 究平台的法律责任必然审视平台的过错,但在主观 过错的认定机制下,又存在“技术中立”与“主体责任 分离”的困境。首先,追究过错责任要面临“技术中 立”的抗辩,如“今日头条”张一鸣始终强调算法并没 有价值观,“今日头条”不设立总编辑,试图以技术中 立、不存在主观过错为缘由避免承担法律责任。国 外也有研究学者认为,算法遵循的是预先选择的程 序,而不是及时的判断[5] 。其次,平台始终主张,要注 意区分内容服务提供者和网络服务提供者,算法平 台属于网络服务的提供者,仅具有传输介质属性。 主观过错认定的障碍导致危害结果发生后对平台追 责的效果并不理想。

  在行政监管领域,算法责任承担亦不明确。法律 法规层面,《算法推荐管理规定》在第三十一、三十二、 三十三条中规定了算法推荐服务提供者应当承担的 法律责任,但是规定较为粗线条,并不具备实际的可 操作性,进而导致在实践中随意执法、执法标准不统 一,有的平台被顶格从重处罚,有的平台仅仅被责令 限期改正。责任体系的混乱造成平台与监管部门双 输的局面,从平台角度看,是否承担法律责任在于是 否开展了相关的专项治理活动,互联网企业常担忧不 可预测的运动式执法带来的行业寒冬,长期因恐惧而 丧失创新动力[6] ,就监管部门的角度而言,运动式的随 意执法并不符合比例原则,丧失了执法的权威性。

  三、算法推荐新闻的法律规范路径

  (一)采用事前的“穿透式监管”理念

  穿透式监管概念来源于互联网金融监管领域, 在监管理念上主张由最少监管转变为实质监管,穿透事物表象获取真实信息和事实发现,以此弥补因 创新带来的监管漏洞。[7] 从算法推荐新闻的底层运 行逻辑看,算法技术在新闻推荐应用中具有底层架构 地位,如果缺乏对技术运用的节制,技术运用的不规 范和对技术的过于倚重,技术的副作用就可能被放 大。[8] 穿透式监管理念主张采用侵入式的监管措施穿 透企业内部技术的外衣,直抵平台的内部算法技术, 增强推荐算法的透明度,一定程度打开了算法黑箱。 对算法技术穿透式监管的本质要求算法推荐平台将 内部生产信息以可视化形式转化为行政监管的决策 信息,增强算法平台内部信息披露与内部行为的干 预,主要表现为在事前加强算法备案和算法审计。

  在算法备案方面,注重核心算法备案。《算法推 荐管理规定》第二十四条规定,具有舆论属性的算法 推荐服务提供者应当履行备案登记手续,备案信息 发生变更的,应当在变更之日起十日内办理变更手 续。但算法每年的更新次数能达到成百上千次,苛 求算法企业对每一次算法更新进行备案不仅会增加 算法平台的生产负担,也会导致行政机关的监管负 担过重。因此,应当将备案的重点放在核心算法上, 核心算法变更直接影响了算法推荐结果,且变更次 数相对有限,例如谷歌在2023年对其算法完成了四 次核心更新,2024年进行了三次核心更新,对核心算 法更新进行备案更具有针对性和可操作性。

  在算法审计方面,建立第三方算法评估审计机 制。算法审计是在算法运行前对其合规性、正当性 进行考察的活动,世界各国在立法中多次提及算法 审计制度,美国纽约州立法明文规定,招聘算法必须 进行年度算法审计;广东省印发《广东省首席数据官 制度试点工作方案》,组建了由政府副职领导构成的 首席数据官,并明确了首席数据官的职责范围等。 为此,可以建立由行业协会、公众代表、算法工程师、 法律职业人员组成的算法审查委员会,经算法委员 会事前审查发现,新闻推荐算法存在侵犯用户信息 权益、算法偏见等法律风险时,有权要求算法平台进 行改正,拒不改正的将否定性的审计结果上报网信、 市场监管等部门,对其依法作出处理。

  (二)保障用户信息自决权

  作为新时代的一种新型权利,信息自决权在法 律上逐渐获得基本权利资格。在信息论视野下,个 人信息并不是一组客观的数据,而是一种信息化的 能力,它具有封装和支配数据的能力,可以不断把数 据转化为信息,并且赋予其时代意义,保护公民个人 信息自决权就是保护人的主体资格。用户个人信息 具有价值差异,若强调对所有用户信息自决一视同 仁,采用同样的规制手段,无疑会极大增加平台成 本,降低企业运行效率,遏制产业发展,要采取区分 原则,注重加强算法推荐中的用户敏感信息自决 权。《个人信息保护法》第二十八条对个人敏感信息 作出规定,并将敏感信息类型化,对敏感信息保护提 供强有力的制度基础。《互联网信息服务算法推荐管 理规定》作为算法推荐的专门行政规章,其中并未对 算法推荐领域的敏感信息进行专门界定,因此,应当 以《个人信息保护法》为依据,在算法推荐新闻领域 对个人敏感信息进行细化,区分算法推荐新闻中的 一般信息和敏感信息。在算法设计阶段,将保护用 户信息自决的价值理论与计算机代码相结合,以嵌 入式的方式将法律保护个人信息的基本理念植入算 法设计中。坚持最小必要性原则,其是个人信息保 护的重要价值理念,其中包括目的必要性和手段必 要性。目的必要性要求算法新闻聚合平台收集个人 信息必须具有明确合理的目的,且限于实现目的的 最小范围,手段必要性要求新闻聚合平台在收集个 人信息的方式上尽可能减少对用户造成的负面影 响。通过法律价值理论对算法设计的指引,加强个 人信息在技术源头的法律保护。在算法应用阶段, 完善告知同意规则,针对个人信息类型,采用不同的 告知同意规则。一般个人信息可以采用概括性告知 和授权的方式,但是对于个人敏感信息,新闻聚合平 台应当履行严格的告知义务,保障用户的知情权。 在告知内容上应当包括算法推荐涉及的敏感信息类 型,运用该类型敏感信息的目的,以及对公民可能造 成的影响。在告知方式上,应当采用显著的告知方 式,对相关条款进行标红、加黑等形式提醒用户。

  (三)完善法律责任规范体系

  曾有多位学者对人工智能技术表示过担忧,认 为人工智能可能会对人类的生存空间产生威胁。算 法作为人工智能的核心运作机制,如果采用过度苛 刻的规制手段,可能会扼杀算法平台的自主创新性, 阻碍算法产业的发展,但过度的包容又会导致一系 列的法律与伦理问题。因此必须在促进算法产业发 展和规制算法之间找到平衡点,而平衡点的关键在 于算法是否需要承担法律责任。20世纪90年代,拉 图尔在卡龙的基础上提出“行动者—网络理论”,这 里的行动者既可以指人,也可以指非人的存在或者 力量。弗洛里迪和桑德斯基于行动者互动关系角 度,将交互性、自主性、适应性作为智能技术是否应 当承担伦理责任的标准[9] 。由于目前人工智能技术 发展仍然处于弱人工智能阶段,算法虽然满足了交 互性标准,但是并未满足自主性和适应性的要求,因 此从弗洛里迪和桑德斯的观点看,算法并不能独立 承担法律责任。

  在民法规范责任体系下,算法不能独立承担法 律责任是否意味着算法不需要承担法律责任?答案 自然是否定的,算法可以在责任能力内承担有限责 任。有学者认为可以赋予算法有限的法律人格,在 二元权利结构中创造中间地位,根据代理理论,将算 法视为新闻聚合平台的智能代理人,明确智能代理 人具有部分权利能力。智能代理人不是人,但是它 仍然可以承担与其服务职能相一致的部分权利能 力。[10] 赋予算法有限的法律人格是要求算法承担法 律责任的基础。算法是由一系列的计算机代码所组 成,并不具备实体财产,那么算法如何承担侵权责 任?可以借鉴机动车交强险相关机制,要求新闻聚 合平台为算法购买强制性保险,在发生侵权案件后, 由保险赔付算法所应当承担的责任。新闻聚合平台 设立赔偿基金进行补充,保险赔付不足以弥补被侵 权人损害的,由赔偿基金进行补足。这种设置有效 避免了平台所提出的“技术中立”抗辩,无论技术是否 中立,新闻聚合平台作为推荐算法的智能代理人都应 当承担侵权责任。从举证责任出发,《侵权责任法》第 六条、第七条确定了由过错责任和无过错责任组成的 侵权责任规则体系。若适用过错责任,被侵权人应当 就算法和平台的过错承担举证责任,但是在技术限制 下,被侵权人难以在复杂的代码和算法中识别过错, 苛求被侵权人承担举证责任困难重重。因此,可以借 鉴《个人信息保护法》中过错推定的规定,转移举证责 任,由新闻聚合平台对自身行为的无过错承担举证责 任,减轻被侵权人的举证责任压力。

  在行政法律责任规范体系下,追究平台的责任 主要表现为对平台处以何种行政处罚。具体而言, 《算法推荐管理规定》中的法律责任较为模糊,存在 不确定法律概念。例如《算法推荐管理规定》第三十 一条规定,拒不改正或情节严重的,责令暂停信息更 新,并处一万元以上十万元以下罚款。行政处罚本 质属于行政机关的自我裁量,通常由要件裁量和效 果裁量构成,在该条款中,拒不改正和情节严重属于 要件裁量,责令暂停信息更新与一万元以上十万元 以下罚款属于效果裁量,要件裁量是行政处罚的前 提,拒不改正属于明确的法律概念,但是其中的“情 节严重”却属于不明确法律概念,应当如何界定?在 效果裁量中,一万元以上十万元以下的处罚空间幅 度赋予行政机关较大的行政处罚裁量权,极易造成 行政处罚畸轻畸重的情形。李强总理在国务院第十 一次专题学习中明确指出,要围绕法治政府建设,建 立健全行政执法标准规范,落实行政裁量权基准制 度,针对基准覆盖不全面的问题,抓紧完善相关领域 的裁量权基准。随意执法、运动化执法、行政执法责 任体系混乱的本质原因在于缺乏明确的执法依据,对 此网信、市场监管等相关部门应当及时在《算法推荐 管理规定》的基础上,考虑新闻聚合平台违法行为和 可承受能力范围,依据“过罚相当原则”细化处罚限 度,针对要件裁量中不确定法律概念进行解释,明确 处罚依据,从而建立明确的行政处罚责任规范体系。

  四、结语

  算法推荐技术引起了新闻传播领域的重要变 革,对用户进行赋权,满足了用户的个性化需求,推 动了新闻传播向扁平化、精准化阶段发展。尽管目 前算法技术在法律层面存在诸多潜在风险,但是人 工智能技术与新闻传播深度耦合是未来不可避免的 发展趋势。因此在方针政策上对算法推荐新闻应当 采取包容、审慎的态度,一方面要积极推动算法推荐 新闻发展,另一方面要加强算法推荐新闻的法律规 制,采用事前的穿透式监管理念、保障用户的信息自 决权、完善民事行政法律责任规范体系,以保证算法 推荐新闻在合法的轨道上顺利推进。未来,随着强 人工智能时代的来临,算法的交互性、自主性、适应 性水平进一步提高,人们接收新闻的途径将更加便 捷,法律风险也会更加多元,相应的法律规制措施应 当与技术保持一致,进行动态调整。