BT财经

境内金融信息服务备案编号:

【京金信备(2021)5号】

2025年01月18日

注册 / 登录

算法黑洞:舆论场的隐形操控者与治理难题

 

 

编者按

 

在信息爆炸的时代,算法作为连接数据与用户的桥梁,扮演着举足轻重的角色。然而,随着其影响力的日益扩大,算法黑洞问题也逐渐浮出水面,引发了社会各界的广泛关注。本文深度剖析了这一现象的成因、影响及监管挑战,为我们提供了一个全面审视算法治理的窗口。

 

文章开篇即通过农夫山泉董事长钟睒睒的公开批评,将抖音和今日头条的算法问题推向舆论的风口浪尖。这一事件不仅揭示了算法在信息传播和舆论引导中的巨大影响力,更触动了公众对算法透明性和公正性的深切关切。随后,文章通过多个负面舆情事件的剖析,如自动驾驶事故、外卖骑手交通违法、社交媒体操控等,进一步展示了算法黑洞在现实生活中的危害与风险。

 

在探讨算法黑洞对政府治理社会的利弊时,文章既指出了算法在提升信息传播效率、推动商业创新、支持社会治理等方面的积极作用,也深刻揭示了其可能带来的信息茧房、算法歧视、舆论操控等负面影响。这些分析不仅有助于我们全面认识算法的双刃剑效应,更提醒我们警惕算法滥用对社会治理的潜在威胁。

 

面对算法黑洞带来的挑战,文章借鉴了国际经验,详细梳理了欧美及其他国家在算法治理方面的实践探索。从欧盟的《通用数据保护条例》和《人工智能法》,到美国的多元共治模式,再到英国的《算法透明度标准》和加拿大的《自动化决策指令》,这些国际经验为我们提供了宝贵的启示和借鉴。

 

在结语部分,文章提出了针对性的建议和未来展望。建议中既有对法律法规建设、监管机制创新、技术手段应用等方面的具体举措,也有对社会共治、行业自律等方面的呼吁和倡导。未来展望则强调了透明度和公正性在算法监管中的重要性,以及构建适合中国国情的算法治理框架的紧迫性和必要性。

 

综上所述,本文不仅是一篇深度剖析算法黑洞问题的佳作,更是一份为算法治理提供思路和建议的重要参考。我们期待这篇文章能够引发更多人的思考和讨论,共同推动算法技术的健康发展,为社会的和谐与进步贡献力量。

 

01

引言

 

(一)研究背景

 

2024年11月,农夫山泉董事长钟睒睒在赣州农业基地发表讲话,公开批评抖音和今日头条的算法问题,将平台算法黑洞推向舆论热点。此事件揭示了算法在信息传播和舆论引导中的巨大影响力,引发了社会对算法透明性和公正性的广泛关注。根据清华大学人工智能国际治理研究院的研究,算法黑箱问题在全球范围内引发了广泛的讨论,透明和可解释性成为算法治理的重要目标。这一背景下,钟睒睒事件不仅是个案,更是全球算法治理问题的缩影。

 

(二)研究问题

 

本研究旨在探讨网信办是否应对平台算法黑洞进行监管,并分析算法黑洞对政府治理社会的利弊。研究将借鉴国际经验,提出适合中国国情的监管措施。通过分析钟睒睒事件及其他相关案例,本研究将揭示算法黑洞对社会结构、信息传播和舆论引导的深远影响,并评估其对政府治理的挑战和机遇。

 

(三)研究方法

 

本研究采用案例分析法,结合国内外算法治理实践,探讨平台算法黑洞的影响及其监管必要性。通过对钟睒睒事件的深入分析,结合2024年11月清华大学人工智能国际治理研究院的最新数据,研究将对比欧美在算法治理中的成功经验,特别是算法透明度和问责机制的实施效果。此外,本研究将利用统计分析法,对平台算法黑洞引发的负面舆情事件进行定量分析,以揭示其对社会治理的具体影响。通过这些方法,研究将为中国的算法治理提供实证支持和政策建议。

 

02

算法黑洞的负面舆情事件

 

(一)钟睒睒事件

 

钟睒睒在2024年11月的讲话中,直指抖音和今日头条的算法对其个人名誉的侵害,要求平台删除不实信息并公开道歉。这一事件迅速成为舆论焦点,揭示了算法在信息传播中的潜在风险。根据凤凰网的报道,钟睒睒指出,抖音和今日头条的算法不仅影响了其个人声誉,还可能对群体意识形态产生深远影响,甚至接近政治红线。这种算法操控力被视为一种新的政治影响力,能够制造、引导和扭曲舆论(凤凰网,2024年11月22日)。

 

钟睒睒的批评不仅引发了公众对算法黑洞的广泛关注,也促使社会各界反思算法在舆论传播中的角色。清华大学人工智能国际治理研究院指出,算法的“黑箱”特性使其难以被外界理解和监督,增加了算法滥用和歧视的风险(清华大学,2024年11月15日)。在此背景下,钟睒睒事件成为讨论算法透明性和问责机制的催化剂。

 

此外,钟睒睒事件还揭示了算法在商业竞争中的影响力。农夫山泉因网络舆论攻击导致销售额下降18.3%,这表明算法不仅影响个人名誉,还对企业经营产生实质性影响。这种现象引发了对平台算法权力的质疑,呼吁加强对算法的监管和透明度要求,以防止类似事件再次发生。

 

综合来看,钟睒睒事件不仅是一起名誉纠纷,更是对平台算法权力的深刻反思,提示了算法在现代信息社会中的双刃剑效应。通过对事件的分析,我们可以看到,算法的透明性和公正性是未来算法治理的关键所在。

 

(二)其他负面事件

 

1.自动驾驶事故:在2019至2021年间,美国国家公路交通安全管理局的数据显示,特斯拉的Autopilot功能在自动驾驶车祸中占据了超过90%的比例。这一数据反映了自动驾驶技术在安全性方面的重大挑战,尤其是在算法决策过程中可能存在的缺陷和风险。这种高比例的事故率引发了公众对自动驾驶算法透明度和安全性的广泛质疑。

 

2.外卖骑手交通违法:2018年,广州市的执法部门记录了近2000起外卖骑手的交通违法事件。这些违法行为主要是由于骑手们在平台算法设定的时间限制内急于送达外卖,导致超速和逆行等危险驾驶行为频发。这种现象揭示了算法在优化效率与保障安全之间的矛盾,显示出平台在算法设计中对骑手安全保障的不足。

 

3.社交媒体操控:在2016年美国大选期间,Facebook平台被利用进行政治舆论广告投放,剑桥分析公司非法使用了8700万用户的数据进行精准广告投放。这一事件不仅揭示了社交媒体平台在数据保护和隐私方面的漏洞,也反映了算法在信息传播中的操控能力。此类事件引发了全球范围内对算法透明度和数据使用规范的深刻反思,推动了各国对社交媒体平台算法的监管讨论。

 

(三)舆论反应

 

近年来,随着平台算法黑洞问题的频繁曝光,公众和媒体对其关注度显著提高。2024年11月,钟睒睒事件再次将算法黑洞推向舆论的风口浪尖,引发了广泛的社会讨论。根据清华大学人工智能国际治理研究院的研究,算法的黑箱特性和潜在的歧视风险成为公众关注的焦点,专家学者纷纷呼吁加强算法的透明度和公正性,以防止算法滥用对社会造成负面影响。

 

在舆论的推动下,政府和相关机构也加大了对算法的监管力度。国家互联网信息办公室等部门发布的《互联网信息服务算法推荐管理规定》明确了算法推荐服务提供者的责任,要求其保障用户的知情权和选择权。这一规定的出台,反映了政府对舆论关切的积极回应。

 

此外,国际经验也为我国的算法治理提供了借鉴。例如,欧盟通过《通用数据保护条例》(GDPR)和《算法问责及透明度监管框架》,强化了对算法的透明度和问责机制。这些措施在一定程度上缓解了公众对算法不透明和不公正的担忧。

 

总体来看,公众和媒体的持续关注推动了算法治理的进步,促使政府和企业在算法透明度和公正性方面采取更为积极的措施。然而,如何平衡算法的创新发展与社会责任,仍是未来需要持续探索的课题。

 

03

平台算法黑洞对政府治理社会的利弊

 

(一)利

 

1.信息推送效率:算法技术通过分析用户行为和偏好,能够实现精准的信息推送。这种能力不仅提高了信息传播的效率,还满足了用户的个性化需求。例如,算法推荐机制在电商平台的应用,使得用户能够快速找到符合其兴趣的商品,提升了购物体验和平台的用户黏性。

 

2.商业创新:算法的应用推动了商业模式的创新,促进了经济发展。通过算法分析,企业能够更好地理解市场需求和消费者行为,从而优化产品和服务。例如,平台经济中的算法用工模式,通过数据分析优化了人力资源配置,提高了运营效率。这种创新不仅降低了企业的运营成本,还为消费者提供了更便捷的服务,推动了经济的整体增长。

 

3.社会治理支持:算法在社会治理中也发挥了积极作用。通过大数据分析和算法模型,政府可以更有效地进行社会管理。例如,算法可以用于交通流量预测和城市规划,提高城市管理的效率。此外,算法在公共安全领域的应用,如犯罪预测和监控系统,增强了社会的安全性和稳定性。尽管算法在应用过程中存在一些挑战,但其在提升社会治理效率方面的潜力不容忽视。

 

(二)弊

 

1.信息茧房与算法歧视:算法的使用可能导致信息茧房现象,即用户长期接触与自身兴趣和观点相近的信息,造成信息获取的单一化和思考能力的弱化。这种现象不仅限制了用户的视野,还可能加剧社会的极化和分裂。此外,算法歧视问题也不容忽视。根据清华大学的研究,AI模型在性别预测上存在明显偏见,显示出算法在处理数据时可能会强化社会偏见,影响社会公平性。

 

2.舆论操控与网络暴力:算法在信息分发中的应用可能被用于操控舆论,放大极端观点,导致网络暴力的发生。钟睒睒事件中,算法被指控在网络暴力中起到了推波助澜的作用,显示出算法在舆论引导中的潜在风险。算法的标签化分发和推送机制容易形成极化意见,增加了社会分裂的风险。

 

3.监管挑战:算法的复杂性和隐蔽性对政府监管提出了巨大挑战。算法的黑箱特性使得其运行过程难以被外界观察和理解,增加了监管的难度。尽管中国政府已出台《互联网信息服务算法推荐管理规定》等政策,但算法的快速发展和应用多样性使得现有监管手段可能难以全面覆盖,导致治理效果不理想。国际上,欧盟和美国的经验表明,算法治理需要多方协作和持续的政策更新,以应对技术带来的新挑战。

 

(三)政府治理的挑战

 

平台算法黑洞对社会治理带来了多重挑战,主要体现在意识形态安全、社会公平和网民权益的保护等方面。

 

首先,算法黑洞在意识形态安全方面的影响不容忽视。根据钟睒睒在2024年11月的讲话,算法技术已经越过商业界限,具备影响群体意识形态的能力。这种能力使得大型平台能够制造、引导甚至扭曲舆论,形成巨大的政治影响力。这种现象可能导致意识形态传播的无序化,挑战国家意识形态安全。

 

其次,社会公平性受到算法黑洞的威胁。算法歧视的案例表明,算法可能会在性别、种族等方面产生偏见,影响社会的公平正义。清华大学的研究指出,算法在性别预测中存在明显偏见,这种偏见可能在就业、教育等领域产生不公平的后果。此外,大数据杀熟现象也反映了算法在商业应用中对消费者的不公平对待,进一步加剧了社会的不平等。

 

最后,网民权益的保护面临挑战。算法的不透明性和复杂性使得网民难以了解其个人信息如何被使用,侵犯了用户的知情权和选择权。北京市消费者协会的调查显示,超过六成的受访者认为大数据杀熟侵犯了个人信息保护权。网信办的相关规定虽然要求算法推荐服务提供者保障用户的知情权和选择权,但在实际操作中,用户关闭个性化推荐的难度依然很大,显示出算法治理在执行层面的不足。

 

综上所述,平台算法黑洞对政府治理社会带来了复杂的挑战,需要通过加强法律法规建设、提升算法透明度和问责机制、以及促进社会各界的共同参与来应对这些挑战。

 

04

国际算法监管经验借鉴

 

(一)欧美经验

 

1.欧盟:欧盟在算法治理方面取得了显著进展,尤其在透明度和问责机制的强化上。通过《通用数据保护条例》(GDPR),欧盟赋予个人对算法自动化决策的拒绝权和要求人工干预的权利,确保算法的透明性和公正性。此外,2021年出台的《人工智能法》进一步加强了对高风险人工智能应用的监管,要求企业进行算法影响评估和透明度披露。这些措施有效地减少了算法歧视和不当使用的风险,提升了公众对算法应用的信任度。

 

2.美国:美国在算法治理中采用多元共治模式,强调政府、企业和社会各界的共同参与。美国的算法治理框架中,算法影响评估和透明度是核心要素。通过《2021年算法正义与在线平台透明度法案》,美国要求在线平台履行透明度义务,确保算法的公平性和有效性。此外,美国的《2022年算法责任法案》要求对算法的偏见性进行评估,推动算法问责机制的建立。这些措施不仅提升了算法应用的透明度,还促进了算法技术的健康发展。

 

通过对欧美经验的分析,可以看出,透明度和问责机制是有效治理算法黑洞的关键。中国在借鉴这些经验时,应结合本国实际,制定适合的监管框架,确保算法应用的透明、公正和安全。

 

(二)其他国家实践

 

1.英国:英国在算法治理方面采取了积极措施,发布了《算法透明度标准》,旨在提高公共部门在使用算法工具进行自动化决策时的透明度。该标准包括透明度数据标准、透明度模板和行动指南,要求政府和公共服务部门在算法使用过程中披露算法的基本逻辑、目的和使用情况。这一举措不仅提升了政府决策的透明度,还增强了公众对算法应用的信任度。

 

2.加拿大:加拿大通过《自动化决策指令》对算法决策的透明度和责任承担提出了明确要求。该指令规定,政府部门在使用算法进行决策时,必须进行详细的影响评估,确保算法决策的透明性和公正性。此外,加拿大还强调算法决策的责任承担,要求相关部门在算法决策出现问题时,能够迅速识别责任方并采取纠正措施。这一框架不仅保障了算法应用的透明性,还为算法决策的问责提供了法律依据。

 

3.欧盟:欧盟在算法治理方面的实践也值得关注。通过《通用数据保护条例》(GDPR)和《人工智能法》,欧盟建立了全面的算法治理框架。GDPR赋予个人对算法自动化决策的拒绝权和获得人工干预的权利,而《人工智能法》则设计了“人为监督”制度,特别针对高风险人工智能应用,确保算法的使用符合伦理和法律标准。这些措施不仅提升了算法的透明度和问责性,还为其他国家提供了有益的借鉴。

 

(三)国际经验的启示

国际经验在算法治理方面提供了丰富的借鉴,尤其是在透明度和问责机制的建立上。欧盟通过《通用数据保护条例》(GDPR)和《人工智能法》,强调算法的透明度和问责机制,要求企业在算法自动化决策中提供事前拒绝权和事后干预权。这种机制有效地保障了用户的知情权和选择权,减少了算法歧视和不透明带来的风险。

 

英国的《算法透明度标准》则为政府和公共服务部门提供了具体的指导,要求在使用算法工具进行决策时,必须公开算法的基本信息和运行机制。这种做法不仅提高了公共部门的透明度,还增强了公众对算法应用的信任。

 

美国的多元共治模式,通过政府、企业和研究机构的合作,形成了以算法影响评估、算法披露、算法问责为核心的治理框架。这种模式强调风险导向治理,适用于不同领域的算法应用,有助于在保护隐私和促进创新之间取得平衡。

加拿大的《自动化决策指令》则要求对算法决策进行透明度和质量保证评估,确保算法的公平性和有效性。这一措施在保障用户权益的同时,也为企业提供了明确的合规指引。

 

结合中国的国情,这些国际经验表明,建立透明度和问责机制是治理算法黑洞的关键。中国可以借鉴这些经验,制定适合本国的监管措施,如加强算法透明度要求,完善算法问责机制,并通过立法明确算法的开发原则和运行标准,以确保算法的公正性和透明性。

 

05

结论与建议

 

(一)结论

 

平台算法黑洞对社会治理带来了显著挑战,尤其在信息传播、舆论引导和个人权益保护等方面。钟睒睒事件凸显了算法在影响舆论和社会稳定中的潜在风险。中央或中国政府有关部门,如网信办,应对其进行有效监管,以维护社会公平和网络安全,确保算法的使用不偏离法律和道德标准。

 

(二)建议

 

1.法律法规建设:参考《互联网信息服务算法推荐管理规定》,进一步完善相关法律法规,明确算法使用的规范和责任,特别是在透明度、问责机制和用户权益保护方面。

 

2.监管机制创新:建立跨部门、跨领域的监管协调机制,结合《个人信息保护法》和《网络安全法》,加强对算法应用的日常监管和风险评估,确保监管措施的及时性和有效性。

 

3.技术手段应用:利用大数据和人工智能技术,提升监管的精准性和有效性。通过算法审计和影响评估机制,确保算法运行的透明性和公平性。

 

4.社会共治:鼓励公众参与算法监管,推动行业自律和社会监督。借鉴欧美的多元主体参与模式,成立行业协会,制定技术规范,并鼓励企业自我规制。

 

(三)未来展望

 

未来的算法监管应注重透明度和公正性,推动算法技术向善发展,促进社会的和谐与进步。通过国际合作和经验借鉴,构建适合中国国情的算法治理框架,确保算法在促进社会进步的同时,不损害公众利益和社会秩序。



版权声明:本文版权归BT财经所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
帮助中心
联系我们
联系我们

 

商务合作:

 

公司地址

北京市丰台区汉威国际广场一区一号楼629

 

 

商务合作

周先生

Tel: +86-17743514315

Email: info@btimes.com.cn

官方微信公众号

领讯时代文化传媒 | Copyright ©️ 2025 财经时报 版权所有 京ICP备19043396号-7

京公网安备 11010602007380号 | 境内金融信息服务备案编号:京金信备(2021)5号

网信算备110106674807801230011号


声明:未经授权,不得复制、转载或以其他方式使用本网站的内容。BT财经尽最大努力确保数据准确,但不保证数据绝对正确。