SCI期刊查询网提供SCI、AHCI、SSCI、国内核刊等期刊目录查询选刊服务,助力上万名科研人员成功评职晋升!

中文、英文期刊目录查询系统

快速了解学术期刊目录级别、选刊、行业刊物等解决方案

思想政治教育研究投稿论文格式参考:智能算法推荐的意识形态安全风险: 生成原因与防范策略

SCI期刊目录查询2025年06月26日 21时:15分

关键词:智能算法;算法推荐;意识形态安全;国家安全

作者:修明圆;张新宁

作者单位:复旦大学

  摘  要:作为大数据与人工智能技术迁跃式发展的产物,算法推荐在信息传播领域中正引领着新一轮的资讯分发 革命。 立足于技术的意识形态性视角,算法推荐在承袭技术合理性语境的过程中也暗含着系列意识形态安全风 险。 为此,需要从技术的意识形态向度审视算法属性,从机制规则的内在制约角度思考算法逻辑,从意识形态安 全的要素层面关注算法变量,从工具理性与价值理性的平衡视角审视算法伦理,从技术“黑箱”的属性特点方面 考量算法规制。 如此,才能形成对智能算法推荐风险成因的多维系统分析,进而在维护国家意识形态安全的视阈 中,为应对防范风险提供决策参考。

  近年来,伴随着大数据可用性与算力水平的提 升,以从海量数据中采集信息并进行知识归纳为特 征的智能算法在重构互联网底层程序逻辑的过程 中,正逐渐引领着各领域算法革新的新常态。 以 “信息找人”“信息私人定制”为特征的智能算法推 荐,在颠覆传统以人工为主导的“编辑分发”模式的 过程中,正成为微博、微信等社交媒体平台,抖音、 今日头条等聚合型资讯终端平台,淘宝、美团等电 子商务平台的标准配置,并在推动信息生产、筛选、 分发方式变革的过程中,不断改变着互联网信息的 分发秩序和传播效果,特别是重塑了社会意识形态 内容传播的媒介生态。 从技术的二重性视角出发, 智能算法推荐的发展既为主流意识形态内容的分 发提供了数据支持和动力因素,但也容易导致社会 意识形态内容传播面临信息操纵、信息窄化、信息 失控、信息去中心化等风险。 基于总体国家安全观 的理论视角,只有系统探讨这一新技术实体对意识 形态安全所带来风险的成因,才能为尝试提出科学 的治理方案提供决策依据,这对我国的网络安全、 意识形态安全乃至政治安全、国家安全无疑有着重 要的理论和现实意义。

  一、算法属性探析:意识形态安全风险的 生成根源

  以计算机算法和机器深度学习为内核的算法 推荐内置着客观、中立的工具和知识体系,但作为 人的创造物,其也不可避免地承载着程序设计者的 价值信仰和理性建构,特别是在延续科技内在意识 形态性面向的过程中,继续承袭着技术依赖的意识 形态语境。

  1. 科学技术的意识形态属性

  马克思恩格斯认为“科学是历史杠杆” 和“最 高意义的革命力量”。 以马尔库塞、哈贝马斯、霍克 海默为代表的法兰克福学派学者也在马克思主义 科技观的基础上进一步从政治学、伦理学、社会学、 哲学等层面探究作为“精神生产”与“智力劳动”的 科学技术对社会发展和社会意识所产生的影响。

  其一,“科学与技术成为意识形态。”马克斯· 韦伯将科学技术视为意识形态,提出在发达的工业 社会或后期资本主义社会中,科学技术执行着意识形态的功能,这与法兰克福学派的科学技术社会功 能理论有着共通之处。 霍克海默在《科学及其危机 札记》一文中也提出科学是意识形态的观点,他指 出“之所以说科学是意识形态,是因为它保留着一 种阻碍它发现社会危机真正原因的形式” [2] 。 马尔 库塞认为,作为一种新的控制形式的当代科学技术 具有着明确的意识形态属性,其在为社会设定理想 生活幻景的过程中也致使人们在无法抵抗被技术 消解里逐渐趋同。 哈贝马斯继续发展了“科学技术 即是意识形态”的命题,他认为科技不仅是一种直 接的生产力,更重要的是它日益成为社会的意识 形态。

  其二,“技术的合理性已经变成政治的合理 性。”马尔库塞从马克斯·韦伯关于资本主义社会 的“合理化”理论视角出发,认为科学技术在提高生 产效率的过程中发挥着稳定社会秩序与为现存社 会制度做辩护的作用,科技进步在为统治中的其他 权力提供合法性的基础上深刻嵌入到了整个社会 的统治秩序里。 “技术的合理性已经变成政治的合 理性” [3] ,技术控制体现出了“有益于整个社会集 团和社会利益的理性” [4] ,统治的合理性需要把同 科学技术进步联系在一起的生产力的提高作为自 身合法性的基础。 哈贝马斯也在阐释追求效率的 “工具行为” 和追求相互理论意见一致的“交往行 为”的理论基础上,提出“工具行为” 正日益侵入 “交往行为”,技术合理性开始转化成为资本主义对 人的统治的合理性。

  其三,“技术理性的概念本身就是意识形态。” 霍克海默认为,科学同宗教、哲学、法律等意识形态 一样,能够为社会不合理性做合法性置辩,其掩盖 了社会的真实本性,具有欺骗性和虚幻性。 哈贝马 斯则提出,在发达工业社会中,科学与技术作为新 的合法性形式已逐渐超越了意识形态的旧因素而 演化为以科学为核心的新型意识形态或技术主宰 观念的意识形态。 科学技术具有着生产力与意识 形态的双重功能,从功能的关系上看,科技的生产 力功能是科技成为意识形态的前提,科技的意识形 态功能则是科技成为生产力的结果。 如此,科技与 意识形态间的鸿沟逐渐被弥合,科技超越了生产力 范畴而具有了意识形态的属性,并进而由批判生产 关系的基础成为了为政治合法性做辩护的工具,技 术理性的概念也由此披上了意识形态属性的外衣。

  2. 算法推荐的意识形态属性

  作为人工智能与大数据技术在信息传播领域 中融合生成的新技术产物,算法推荐在占据互联网 资讯分发生态系统核心驱动地位、构成虚拟空间信 息处理运行规则基础的过程中,也不可避免地内置 着科学技术的意识形态面向。

  首先,算法推荐沿袭了“ 技术理性” “ 技术依 赖”的意识形态语境。 算法推荐以一种前沿信息分 发技术的形态进入到传播市场里,在提升互联网资 讯分发精准有效性、满足用户个性化信息定制需求 中展现出的技术进步合理性“外衣”使其存在发展 受到广泛追捧欢迎。 在逐步取代人工编辑,推动传 统信息分发模式革新的基础上,算法推荐展现了由 技术进步所为受众营造的更加舒适的信息场域,依 然呈现着技术的所谓“中立性”表象,而实际上已经 悄然掌握了信息社会中的新闻把关权、信息分发 权、议程设置权乃至对人们价值观的塑造权与社会 意识形态的主导权。 它承袭了科技在社会各领域 中的公信力,并继续将“技术理性” “技术依赖” 的 语境延续到现实社会,执行着科学技术的意识形态 功能。

  其次,算法推荐承载的是程序所有者的理性建 构。 算法作为程序编码本身没有偏见和主观性,但 其作为人的创造物却在架构设计中嵌入了程序所 有者的主体价值意识,如歧视、偏袒、刻板印象等。 程序所有者实际上掌握了算法的可见性权力,特别 是在算法推荐广泛运用的平台媒体中,为达到预期 推送效果而预先过滤并突出显示选项是系统所有 者进行算法编码的价值落点。 如平台为优化最大 商业利益变量,常常会通过“精选”某些内容作为一 定时段分发推送、赋予流量的重点,而这种“精选” 内容的衡量标准实际上承载的就是平台的利益倾 向,这种被“操纵”过的信息环境渗透的则是平台媒 体的价值导向。 程序所有者的理性建构在一定程 度上使算法推荐拥有了主观色彩,编码应用也在底 层设计逻辑中暗含了人的主体意识。

  最后,算法推荐能够改变个体的价值倾向与意 识认知。 算法推荐以编码程序生成的智能算法为 核心,在定义内容特征向量、收集个体行为数据、分 析用户信息偏好、推荐分发适配内容的基础上,能 够自主根据用户画像的比对找出数据间的关联关 系以实现个体与内容的精准有效对接。 个体总是 依赖认知启发或心理捷径进行信息接收。 建立在 信息收集、轨迹监控、数据计算等提升用户黏性基础上的智能算法致力于在应用运行中了解人、分析 人,个体在将信息选择决策权交由算法的过程中也 越来越信任于其所进行的内容价值判断,而“对媒 介影响潜意识的温顺的接受,使媒介成为囚禁其使 用者的无墙的监狱” [5] 。 算法推荐的价值判断标准 在一次次的信息分发中持续不断地向人们进行渗 透,潜移默化地塑造着个体的思想意识和价值选 择,影响着人们的认知和行为,并意在最终形塑个 体对外部世界的看法。

  二、算法逻辑推演:意识形态安全风险的 产生机制

  当前主流的智能算法推荐规则类型繁多,以人 口统计学信息数据、物品信息数据、用户个体信息 数据、用户行为信息数据为建模和预测依据,总体 上可以把算法推荐的系统类别划分为基于内容的 推荐、基于协同过滤的推荐、基于流行度的推荐以 及混合推荐等。 不同推荐算法系统内置的程序机 制不同,其在基于各自算法、模型及数据处理方式 上所产生的意识形态风险路径与威胁也各有差异 与侧重。

  1. 基于内容的推荐算法: 偏见茧房与认同 削弱

  基于内容的推荐算法(Content - based Recommendation)是利用机器学习通过数据标签事先定义 好推荐物品或信息内容的特征向量,然后计算出对 象或项目间的相关性,再基于用户已有的数字轨迹 (如浏览、评分、收藏、购买记录等),推荐与其偏好 类别在特征标签上具有相似属性的其他项目,通常 包含特征提取、特征向量化、相似度计算、推荐生成 四个步骤。 基于内容的推荐算法核心注重从用户 自身的行为数据出发,依赖于通过个体偏好进行计 算预测,致力于实现个性化分发与精准化推送。 但 与此同时,这种一切以用户兴趣、需求为导向的算 法逻辑也存在着遮蔽意识主体信息视野、固化其已 有认知的风险。 这是因为受众本位的逻辑法则使 得个体认知与价值倾向不断在算法推荐创造的舒 适信息场域中获得正向激励反馈,从而导致用户沉 溺于自我意识的“回音室” 中。 “公众因注意自己 选择的东西和使自己愉悦的通讯领域,久而久之, 会将自身桎梏于像蚕茧一样的‘茧房’之中。” [6] 这 将导致意见的自由市场受到一个个偏见“茧房”的 侵蚀,从而削弱社会意识形态的认同效度。

  2. 基 于 协 同 过 滤 的 推 荐 算 法: 圈 层 议 程 与共识分化

  基于协同过滤的推荐算法(Collaborative Filtering Recommendation)是根据“两个用户喜欢的项目 交集越大,这两个用户越相似” [7]的假设所构建的, 也就是人们通常所说的“物以类聚,人以群分”。 这 种算法根据用户的个体数据与行为数据来计算用 户间的相似度,并为用户推荐与其兴趣相似用户喜 欢的物品以及与其观点一致用户偏好的信息,经过 建立用户—物品评分矩阵、相似度计算、预测评分、 推荐生成四个环节完成信息内容的分发程序。 协 同过滤被视为是“利用集体智慧”的典范算法,但这 种基于用户间的相似度、群体间的契合度进行推荐 的规则逻辑也进一步形塑了“人以类聚”的网络空 间,特别是加剧形成了具有“单向度思想和行为模 式”的社会群体。 当前网络空间中存在的“地域歧 视”“男女对立” “阶层对立” 等现象都是基于社群 的聚集效应所引发的,“在群体营造的‘回音室’ 中,个体将排斥超出既有价值观念的思想,进一步 强化已有偏见,加剧社群之间的敌对情绪” [8] 。 这 种社群之间的认知区隔与不同圈层之间的价值对 立将会造成社会价值观的冲突与分裂,并进而在一 定程度上分化了社会价值共识的凝聚效用。

  3. 基于时序流行度的推荐算法: 热度至上 与主流冷落

  基于 时 序 流 行 度 的 推 荐 算 法 ( Popularity - based Recommendation) 应用主要以各大门户网站 上的“热搜”“榜单”等为代表。 应用后台根据对页 面访问量、独立访客数量、分享率、讨论量等指标数 据的统计,利用加权平均或指数衰减等方式对信息 内容的热度和流行度进行量化评估,再选择排名靠 前的信息内容作为推荐结果展示推送给所有用户。 微博的“热搜榜”、微信的“24 小时热文榜”、哔哩哔 哩的“全站日榜”、抖音的“视频榜” 等都是由基于 时序流行度的推荐算法所生成的。 广泛应用于各 商业平台中的基于时序流行度的推荐算法秉持着 “热度为先” “流量至上”的规则逻辑,为迎合高阅 览量、高传播量、高点赞量的高收益变现闭环,娱乐 八卦、炫富享乐、低俗猎奇、负面事件等迎合人们娱 乐需求的信息内容便会充斥网络空间,这不但会导 致那些蕴含思想性、科学性、理论性的内容被算法 计算规则所“冷落”,并且传播权力的泛算法化也在 一定程度上影响着主流媒体的议程设置实效。 这也致使公共信息的生存空间不断被挤占,无序传播 离析着主流价值观导向,进而逐渐削弱主流意识形 态对社会集体认知的引领力。

  需要说明的是,如今的算法推荐系统在实际应 用中并不会仅采取单一的推荐算法类型,因为任何 一种推荐算法都存在着自身的缺陷。 此时各种成 熟网站与应用往往会通过组合不同类型的推荐算 法来弥补缺势,并根据不同的应用场景与目标项目 选择多种适配推荐算法进行混合平衡,从而达到更 好的推荐效果。 混合方式的选择通常会使用加权、 变换、层叠、特征组合、特征扩充等手段来提升算法 的综合性能,此时由算法推荐所带来的意识形态安 全风险也会呈现出叠加态势。

  三、算法变量解析:意识形态安全风险的 催化要素

  在由智能算法推荐营造的新信息分发场域中, 系列意识形态安全要素也在算法变量的调控下发 生了新的更变,主要表现在意识形态内容的传播方 式、受众的信息获取习惯、内容传播的价值导向与 意识形态安全的内外环境上。 正是这些因素的变 更打破了维系意识形态安全的平衡状态,并由此生 成了新的风险威胁。 因而只有理清这些因素的变 化情况,才能进一步剖析算法推荐内置意识形态安 全风险的成因。

  1. 意识形态内容传播分发方式的更迭

  凭借着技术优势,算法推荐在推动信息分发方 式革命性变革的过程中正逐步从技术工具演变为 信息内容的择取者、把关者与分发者,成为形塑社 会意识形态的新媒介工具。 在以“编辑分发”为主 导的报纸、电视、广播等传统大众媒体中,内容的生 产、筛选、审查、择取、分发都交由专业媒体人士把 控,主流媒体凭借对媒介权力的绝对掌控力使得社 会意识形态内容在分发中处于稳定可控的状态, “主流媒体高效的议程设置实效使得主导意识形态 在凝 聚 社 会 价 值 共 识 方 面 处 于 绝 对 的 优 势 地 位” [9] 。 而伴随着算法推荐的兴起,信息处理过程 中的各项“准公权力”却在逐步由专业编辑转移到 算法当中,传统媒体的“精英主义建构”与“一元主 导地位”正逐渐被颠覆。 此时,由技术工具“进化” 为人工智能决策系统的算法推荐凭借其媒介权力 逐步成为主流意识形态塑造中的重要角色,促使了 意识形态内容传播分发方式的转变。

  2. 意识形态受众信息获取习惯的改变

  传统媒体囿于“编辑分发”模式的固有局限性, 往往会将受众假定为“被动接受信息的客体对象” 以及“单一且近似均质的人群”。 鉴于专业媒体对 信息资讯筛选分发的把控,个体对内容的自主选择 权相对有限,此时的受众处于被动的信息接受者位 置。 伴随着算法推荐的广泛应用,其个性化、精准 化的分发特质使得用户与平台之间逐渐建立起了 一种对接联系,用户开始从“想象的受众” 转变为 “可测量的主体”,个体的兴趣、偏好、个人特质、消 费优先级等开始成为信息分发过程的中心评估环 节,信息的传播逻辑开始转变为提升用户满意度、 增强用户粘性为宗旨的“用户至上”。 基于用户的 性别、年龄、职业、学历、收入等个体信息以及用户 的浏览记录、点赞、关注、评论、转发等行为数据,算 法推荐能够实现项目与对象间的关联建模,在将用 户置于信息分发主动位置的基础上,重新确立起了 信息接收客体的主体地位。

  3. 网络信息内容传播价值导向的转换

  传统媒体在版面、栏目的编排设置中需要考虑 信息的实效性、通俗性与热度等因素,社会利益至 上的分发准则也需要将内容的价值要素作为考评 的关键。 依靠专业化、深度化的采编团队,“编辑分 发”模式发挥着“社会膝望者”的作用,在对信息进 行筛选、甄别的基础上,坚持以正确价值导向内容 为受众塑造起看待事物的正确认知与成熟思考体 系。 在通过社会主流价值观整合多样化思想意识 的过程中,传统媒体能够保证主流意识形态在各种 社会意识形态中牢牢确立起主导地位。 而在算法 推荐主导的信息分配机制下,信息“私人订制”时代 的来临以及平台商业逻辑在信息分发导向中的融 入也正逐渐打破传播生态中以重社会价值、重价值 理性为核心的分发目的。 算法技术逐渐成为了用 户本位、平台本位的“迎合者”,而背弃了社会价值 思想进步的“引领者”,网络信息内容传播的价值导 向也逐渐发生了偏移。

  4. 网络意识形态安全内外环境的重塑

  意识形态安全需要维持在一种客观上没有威 胁,主观上没有恐惧,主体间没有冲突的内外环境 里,如此,其才能发挥维系社会稳定与政权合法性, 协调社会成员实现认识、行动统一性,抵御异己敌 对意识形态侵蚀、攻击的维护功能。 以自上而下线 性集中式信息传递为特征的大众媒体对信息议程的设定具有很强的可控性,能够确保指导思想、政 策理论、道德秩序、政治信仰、民族文化等意识形态 要素处于绝对安全、占据主导位置的状态之中。 而 伴随着聚合平台的兴起加之算法推荐技术的驱动, 内容生产与传播渠道正逐渐打破原先由主流媒体 统一掌控的局面,爆炸式信息过载与定点式信息分 发正在弱化主流意识形态教育的统一性特质,意识 形态安全的内部环境受到了干扰。 与此同时,机器 学习算法的“黑箱”属性也使敌对势力能够利用高 度精准、隐蔽化的手段进行非主流意识形态的传播 与渗透,从而使网络意识形态安全的外部环境受到 冲击。

  四、算法伦理考量:意识形态安全风险的 “理性”成因

  任何一项科学技术在创造应用中都被赋予了 两种理性行为,即“价值合理性行为”与“目的合理 性行为”,马克斯·韦伯也将其归纳为工具理性与 价值理性。 工具理性扮演着秉持功利性、效用性至 上的技术“开拓者”角色,价值理性扮演着坚守价值 性、伦理性的社会“守望者”角色,二者之间只有调 适张力才能保证技术向善发展。 算法推荐作为一 项技术所带来的意识形态安全风险也需要基于技 术伦理的两种理性层面考量其成因。

  1. 工具理性是算法推荐的主导理性

  工具理性( Instrumental Reason) 追求“能够以 数学形式进行量化和预测后果以实现目的的行 为” [10] ,在此基础上形成的基础科学、技术科学、应 用科学构成了当今人类文明积淀的基础。 工具理 性强调人的行动在功利性动机的驱使下会注重从 效果最大化的角度利用工具效应作为中介手段以 达到自身目的,具有轻人文、趋于功利化的倾向。 在近代资本主义发展工业现代化的道路上,追求有 用性成为了社会进步的绝对真理,但与此同时工具 理性的逐渐凸显也伴随着价值理性的日渐式微,这 也导致了社会发展中对主体情感和精神价值的漠 视,并引发了一系列价值性思维的滑坡。

  在算法推荐时代,智能算法大大提高了信息分 发的处理效率, 实现了对每一个用户做精准计算 并形成个人信息流的目标。 算法对信息分发效度、 信息传播精准度、信息流量营收的推崇使其蕴含的 工具理性极大膨胀,“在技术光环之下,推荐算法从 不掩饰对资本和利润的追逐,将‘流量为王’奉为圭 臬” [11] 。 在坚持有用性价值目标至上的过程中,思 想意识、义务、尊严、美、规训等信念也被不同程度 地忽略。 平台算法中的传播法则与设计逻辑采用 的是在自然语言处理基础上的标签化、指标化与相 似化,实际上内容价值并没有作为信息价值衡量的 首要标准。 算法的程序设计者在推进技术完善的 过程中也不断通过采用流量池、叠加推荐和热度加 权等模式致力于打造“爆款”、加大“引流”、实现 “圈粉”,以完善平台盈利的变现闭环,这都导致资 本主导下的推荐算法逐渐失去客观性的价值立场, 进而异化成为单纯逐利的工具。

  算法之中主导的工具理性使人们陷入“肤浅、 空洞、贫乏的精神境遇,失去对严肃、崇高、理性的 主动追问” [12] 。 工具理性的作用被无限放大, 在凌 驾于价值理性之上的过程中逐渐变成了一种霸权, 形成支配人、控制人,主导社会、影响社会的无形 力量。

  2. 价值理性的应然“主位”实际缺失

  价值理性也称实质理性,是马克斯·韦伯在其 “合理性”理论中提出的与工具理性相对应的另一 种理性形态,其主张“通过有意识地对一个特定的 行为———伦理的、美学的、宗教的或作任何其他阐 释的———无条件的固有价值的纯粹信仰,不管是否 取得成就” [13] ,是指绝对的不计后果地遵从某些价 值信念而行事的行为。 价值理性遵从一切行动的 出发点应以责任感、道德和诚信等纯粹信仰为基 础,通过纯正向善的动机以及合理合规的手段来实 现自己意欲达到的目的,而不管结果如何。 资本主 义的高度工具理性化会导致价值上的非理性,而二 者间的冲突和悖论也是资本主义社会出现危机与 诸多矛盾的体现。

  从人的最终归宿和终极关怀上看,工具理性应 该是为价值理性所服务的,然而在资本运作逻辑占 主导的算法推荐中,工具理性却在侵占着价值理性 的表达阵地,其不但忽略了以人为本的信息分发逻 辑和传播规则,并且导致了观照社会公共领域的价 值理性的缺位,特别是致使算法推荐在信息分发中 发生了价值评判标准的偏移,从而使得偏离社会主 义意识形态主轨道的信息内容的扩散。 对工具理 性的推崇使算法平台的逐利特性不断强化,工具理 性与价值理性间张力的扩大也淡化着主流意识形 态的价值性导向。

  从根本上说,算法推荐是一种技术工具,是为 人的发展所服务的,是末;而算法推荐分发的信息内容应该带给用户思考、价值和知识,是人的发展 所必须的,是本。 而在如今缺乏规制的算法推荐 中,本末却在倒置,工具理性对价值理性的僭越使 得价值理性的“主位”实际处在缺位的状态下,这就 不可避免地会削弱社会主流意识形态对社会与人 的发展的引导力。

  五、算法规制审视:意识形态安全风险的 治理难题

  算法推荐中暗含的意识形态安全风险在一定 程度上是具有“可预见性”的,但实现对其的有效规 制还尚存在诸多困难,其中的重要原因之一就在于 推荐算法固有的“机器学习”特征与“黑箱”属性阻 碍着实际的监管、审计与治理程序。

  1. 机器学习型算法难以“陈述”常规决策依据

  “机器学习算法”是以人工神经网络为机理的 深度学习方法族中的一类,其具有“从头开始学习” 的特征。 伴随着机器学习算法的长足发展,近年来 推荐算法的技术类型也获得了极大的革新,在给定 数据集上自动进行学习和预测的基础上,其能够 “通过迭代适应和数据累积,以识别出特定因素(输 入)和特定结果(输出)之间的关系” [14] ,进而自主 在海量数据源中捕捉非线性和非直接关联,并以此 作为推荐依据。 但与此同时,机器学习算法的“自 主学习”特征也导致其在训练迭代中难以进行常规 的人工说明,其决策依据也往往无法被轻易量化, 从而为意识形态安全的监管工作带来了“不可解释 性”难题。

  一方面,推荐算法能够进行持续不断的自我迭 代。 推荐算法的“机器学习”属性使其在程序编写 中无需进行统计学意义上的建模,不需要设定先验 规范功能变量。 因为由算法推荐所做出的判定不 依赖基于人的直觉和共识所形成的先验指标,而是 遵循一个通过实证数据确立起来的模型,这种模型 能够自主在训练过程中依据结果不断调整自身参 数与样本权重,并在对模型进行评估与优化的过程 中自主进行更新迭代。 但这种迭代往往不受程序 设计者的控制,具有不确定性,并且它与定量统计 分析模型十分相似,都难以整合无法被轻易量化或 无法进行程序性表达的隐性知识。

  另一方面,“算法黑箱”难以陈述表明判定决策 依据。 算法黑箱是指不具可检查性的算法或用以 喂养和训练该算法的数据源,其存在于人工智能深 度学习的输入与输出之间,是难以为外界所观察、 理解的“隐层”。 在机器学习的加持下,推荐算法模 型日益复杂的自我修正致使其判定机理愈发难以 解释,其反映有关底层数据性质问题与调整自身运 行方式客观遵循的“知识逻辑”正逐渐跳脱出系统 设计者的初始思维,变得无法被充分理解。 常规决 策程序在受到质询时,系统开发者可以通过展示规 则逻辑来表明决策依据,而推荐算法的编写者除了 能够提供先验指标设定外,却常常难以对判定结果 做出阐释,这也导致在监管、审计、认证程序中,推 荐算法的“黑箱”属性阻碍着实际的执法过程。

  2. 监管审查难度大且存在产权争端矛盾

  在数据驱动时代,由算法推荐转向所带来的风 险积累使各国政府都认识到对算法技术进行规制 的必要性与紧迫性,但面对机器学习算法在改变行 为、确认和自动优化系统操作上的审查难度,对其 的监管一直以来都缺乏行业间与政府间的共识,对 这一议题的研究也一直是世界顶级机器学习研究 论坛上的重要话题。

  第一, 审查困难。 理解“正在运行的算法”,特 别是它的更新,对于观察者,包括那些创建初始代 码的人来说,都不是可以立即实现的事情,这就导 致机器学习模型的不透明、不直观性致使程序所有 者难以为外部审查提供合理解释。 为解决这一问 题,欧盟的一般数据保护法规曾提出过“可解释的” 算法,即以决策树的形式或要求算法的决策逻辑可 以追溯到详细的决策参数。 但空泛的“可解释性” 要求只是让算法可以被技术人员解释,至于算法审 查者是否理解或接受则难以界定。 这就导致当审 查机构与被审查者产生争议时,基于算法决策的逻 辑解释总是缺乏说服力,由此产生了审查的客观 障碍。

  第二,产权矛盾。 由一家公司开发的算法通常 被视为该公司的知识产权,算法程序的内部策略或 访问控制权限在更新和设置的过程中都必须确保 只有相关人员可以对训练模型及其输出结果进行 使用或访问,因而编码具有机密性且不能被随意复 制。 但监管机构如果要对算法编码进行审查就必 然需要公司提交源代码以供分析测定,这就面临着 企业核心机密受产权法保护与监管程序会侵害到 企业利益之间的冲突。 特别是披露系统源代码除 了会影响合法的商业利益,还有可能会给企业带来 安全风险问题与用户隐私安全问题,因而谁能对监 管的程序和结果负责是需要商榷的,特别是当透明的初始代码不能被看作是“程序化”的决策时。

  第三,监管窘境。 对算法推荐的规制需要在权 力合法合规使用的背景下加以阐释,各国政府也在 试图对算法进行有效规制的过程中提出了许多构 想,如“创设权力集中的监管机构” “建立新协同机 制”“规定算法规制操作的最大透明度” “创设严格 的纪律标准”“程序性监控”“过程正当性强调” “信 义义务”等。 这些举措能够使“更多数据”和“更优 算法”的技术野心被适当制约,但加强道德规范、持 续监督和建立适当的法律框架,以行政法律约束和 合理执法方式等机制性条件实现程序标准和审查 程度的统一性问题,还需要学术界和务实界进一步 探讨和研究。

  六、算法威胁防治:意识形态安全风险的 应对策略

  预判风险是防范风险的前提,剖析风险成因是 应对风险威胁的先决。 在从算法属性、算法逻辑、 算法变量、算法伦理、算法规制等层面剖析算法推 荐内置意识形态安全风险成因的基础上,我们也需 要进一步探究应对风险的治理之策。

  其一,优化算法逻辑设计,阻断风险传播机制。 针对算法逻辑推演中揭示的意识形态安全风险产 生机制,应优化算法设计,确保算法在逻辑上更加 公正、透明。 具体而言,可以通过引入多样化的数 据输入,增强算法的泛化能力,避免算法在处理数 据时出现过度拟合现象,减少算法对特定数据集的 过度依赖,从而降低算法偏见和歧视的风险。 例 如,在算法训练过程中,应广泛采纳不同来源、不同 类型的数据,以减少数据偏倚对模型结果的影响。 同时,加强对算法运行过程的监控,及时发现并纠 正算法逻辑中的不合理之处。 通过部署自动化监 控工具和引入专家审查机制,可以对算法输出进行 常态化审查,及时发现和纠正潜在的不合理或不公 正的结果,进而能够确保算法输出的公正性和准确 性,有效阻断意识形态安全风险的传播机制,为意 识形态安全提供更加坚实的保障。

  其二,精细管理算法变量,消除风险催化要素。 针对智能算法推荐中的意识形态变量风险,应适应 传播方式更迭,优化内容分发策略。 首先,应根据 受众的不同需求和兴趣变化,实时调整算法模型, 避免单一的信息推送方式导致的过度信息过滤和 极化效应。 在此基础上,还应密切关注受众的信息 获取习惯变化,根据用户的行为模式,不断完善推 荐算法的设计,引导用户获得更加多元、客观的资 讯。 此外,为了营造健康的网络信息生态,必须加 强对网络内容的正向价值引导。 通过算法模型的 优化,引导用户获取具有积极意义的信息,减少负 面信息的传播,努力在社会舆论中营造一种理性、 积极向上的氛围。 与此同时,随着网络意识形态安 全环境的日益复杂,需要加强对内外部环境的监测 和调控,在建立健全意识形态安全防护体系的基础 上,确保意识形态领域的安全与稳定。

  其三,强化算法伦理教育,树立正确风险观念。 算法伦理考量揭示了意识形态安全风险的“理性” 成因,为了有效规避这些风险,需要进一步强化算 法设计者和使用者的伦理教育,提升其伦理意识和 社会责任感。 具体而言,可以通过举办定期的算法 伦理培训、设置算法伦理课程以及制定科学合理的 算法伦理准则等,帮助从业人员正确理解和判断算 法应用中的伦理问题。 应鼓励企业和组织制定严 格的伦理标准,建立完善的伦理审查机制,确保算 法在使用过程中始终遵循社会公德、法律法规以及 全人类的共同价值观念。 算法使用者也应定期关 注算法决策的公平性和透明度,避免对结果的盲目 依赖,特别是避免因算法导致的信息偏差或歧视。

  其四,完善算法规制体系,破解治理难题。 针 对算法规制审视中揭示的治理难题,应完善算法规 制体系,加强算法监管和治理。 一方面,建立健全 算法审查制度,对算法的设计、运行及结果输出进 行全面审查,确保算法符合法律法规和伦理规范。 通过对算法进行事前审查和事后监督,能够有效防 止算法的偏见和不公平问题,保障公众利益。 另一 方面,加强算法监管队伍建设,提升监管人员的专 业素养和执法能力,加强定期培训,确保算法监管 工作的有效性和权威性。 同时,随着算法应用的全 球化,算法监管的国际合作同样显得尤为重要。 应 推动国际间的合作与经验共享,共同面对算法应用 中的全球性挑战,通过多边合作和政策协调,可以 确保算法技术在全球范围内得到负责任的使用。

  结  语

  智能算法推荐作为现代信息技术的重要应用, 其复杂性与影响力日益凸显,而背后所潜藏的意识 形态安全风险亦不容忽视。 在深入探究智能算法 推荐的意识形态风险中,我们不仅要具备敏锐的风 险意识,深刻洞察风险成因的多维特性,还需积极寻求并实施科学有效的防控对策。 唯有如此,才能 有力推动构建多元共治的算法治理体系,进而在新 一轮技术革命浪潮中牢牢掌握意识形态安全建设 的主动权。 这不仅有助于确保马克思主义在我国 各个领域中的指导地位不动摇,还能持续巩固和增 强社会主义意识形态的凝聚力与引领力。 这一系 列举措将为智能算法推荐技术的稳健发展奠定坚 实基础,为社会的和谐稳定与国家的长治久安提供 有力保障。