网站首页 公文大全 个人文档 实用范文 讲话致辞 实用工具 心得体会 哲学范文 总结范文 范文大全 报告 合同 文书 信函 实用
  • 汇报体会
  • 节日庆典
  • 礼仪
  • 毕业论文
  • 评语寄语
  • 导游词
  • 口号大全
  • 其他范文
  • 百花范文网 > 实用范文 > 其他范文 > 社交媒体平台算法推荐的规制方向探究

    社交媒体平台算法推荐的规制方向探究

    时间:2023-01-10 11:35:16来源:百花范文网本文已影响

    韩宇航

    (上海交通大学媒体与传播学院,上海 201100)

    算法推荐指采用计算机算法分析用户的基本信息、网络浏览情况和网络社交行为等数据,从而推测用户可能感兴趣的内容并向其精准推送信息的新型信息分发方式。

    基于不同的运行机制,常见的算法推荐系统有三种:基于知识的算法推荐系统、基于内容的算法推荐系统和协同过滤的算法推荐系统。第一,基于知识的算法推荐系统以用户和商品属性为基础,对用户和商品了解越多,预期效果就越好。第二,基于内容的算法推荐系统主要依赖于用户的显性或隐性反馈,会向用户推荐与其喜好相似的商品。其中,显性反馈指用户明确点击喜欢、不喜欢按钮或进行打分的行为,这种反馈一般较难获得;
    隐性反馈指用户在看到信息后浏览或购买了相关产品的行为。第三,协同过滤的算法推荐系统更依赖于整个用户群的交互,主要有基于商品和基于用户两种协同过滤形式。

    目前,各大互联网公司的算法推荐系统多为组合形式,比如,今日头条算法推荐系统的运作逻辑就是一个用户对内容满意度的函数,通过输入三个维度的变量 (第一个维度是内容变量,比如文字、视频等;
    第二个维度的变量以职业、年龄等用户特征为代表,第三个维度的变量是所处的环境特征,即场景),模型会生成一个预估,用来判断所推荐的内容在这一场景下对特定用户是否适用。

    (一)隐私侵犯和滥用问题:数据收集引发隐私侵犯和滥用

    算法推荐为了实现个性化的信息推送,就必须广泛收集用户的信息浏览记录,深入分析用户的“数字足迹”,从而形成精准、全面的用户画像,因此,人们在享受算法推荐带来的便利的同时,也面临着信息泄露的风险。

    社交媒体时代,各类传感器和可穿戴设备成为了不易被察觉的数据收集装置,人们日常生活的行为数据乃至生理信息都成为了数据收集的对象,加之互联网对“流量”的追捧以及用户对便利的追求,导致用户的隐私安全面临着前所未有的风险。从2018年暴发的涉及5000多万用户数据泄露的“剑桥分析事件”中可以看到:无论用户是否主动登录其社交媒体账号,平台都可以凭借技术能力、关联经营网络获取到用户在第三方平台的使用痕迹,由此而产生的便是信息的商业化出售和滥用问题。

    (二)算法偏见问题:“黑箱”背后的算法操纵和公平正义缺位

    算法偏见指“算法程序在信息生产和分发过程中失去了客观中立的立场,造成片面或与客观实际不符的信息、观念被生产并传播,从而影响了公众对信息的客观、全面认知”。2021年,在Netflix上线的纪录片 《编码偏见》中,科学家在测试了诸多面部识别商用软件后发现,肤色偏白的男性群体被正确识别的概率高达99%,女性则偏低;
    然而,随着肤色的不断加深,识别正确率也呈指数式下降。

    纵观整个信息生产和分发过程,算法偏见问题一直存在。首先,是输入数据的偏见。机器学习是以社会中已经存在的数据为基础的,只要偏见仍然存在于社会中,机器便会通过这些带有偏见的数据进行更进一步的分析。这就意味着,当带有偏见的数据进入算法程序,还会再次面对带有偏见的算法指令。其次,是算法设计者自身刻意或无意的偏见。算法设计者的偏见直接影响着算法程序的公平与公正,使得本该中立的算法技术也往往带有偏见,带有偏见的数据进入带有偏见的程序后所呈现的便是不够客观的内容,而这些内容也影响着用户的数字媒介使用足迹,从而通过机器学习带来更深度的影响。所以说,当自带偏见的算法系统投入使用,其背后的偏见也在影响和“操纵”着社会的发展和进步。

    一方面,算法偏见的存在使得不同种族、不同性别的人群被区别对待,在一定程度上损害了社会公平;
    另一方面,算法偏见的存在也损害着用户的个人利益,典型代表就是算法杀熟现象,即不同人在同一个网络平台进行消费,同一商品或服务的价格却不一样。算法偏见的存在直接影响着人们接收到信息后的决策,并且,随着技术的发展对社会产生的负面影响会不断加深。

    (三)信息质量问题:算法推荐使得网络信息环境被破坏

    首先,低俗信息并不是智能媒体时代的新产物,但却在人工智能技术的助推下在传媒界愈演愈烈。由于算法推荐以获取流量为目的,其运行也是以用户数据为基础、以用户兴趣为指向的,天生具有“逐热”属性,因此,用户的局限性都被复刻在了算法程序之中,并且,在信息茧房中部分用户的低俗爱好正在被一步步强化,随着算法推荐的深度使用,低俗信息泛滥的问题也逐步严重。

    其次,算法推荐对虚假信息的传播也具有推波助澜的作用。皮尤研究中心调查研究显示,一半以上的专家对“可以利用技术遏止假新闻传播”持悲观态度,事实也似乎正在印证这一点。一方面,算法推荐难以有效识别和抑制假新闻的传播;
    另一方面,算法推荐的特点又为假新闻的广泛传播提供了更大的助力和传播空间。在社交媒体中,借助夸张标题来吸引用户眼球的虚假信息往往会收获更多的流量,而用户点击率的高低又是算法推荐机制衡量信息受欢迎程度的重要指标,因此,就造成了虚假信息屡禁不止的状况。

    2016年,“后真相”被牛津词典评为年度词汇,指情绪和个人的既有倾向在影响个人观点上,扮演着比事实和真相更重要的角色,相对于人们的既有立场和情感倾向,真相是什么显得越来越无关紧要。随着“后真相”时代的到来,人们更倾向于寻找和自身情感需求或既有价值观相符的信息,而并非真相,因此,只要虚假信息披上情感的外衣或利用夸张的标题刺激人们的情绪,人们便会点击浏览,从而产生了一条又一条高流量信息。

    (一)透明化算法,加强算法规制

    首先,通过透明化算法,加强算法规制。近年来,部分互联网企业开始致力于向公众提供更开放、透明化的算法,比如,2019年6月,YouTube宣布将公开其平台的内部算法运行机制,主要表现为:在其推荐内容段下方,向用户解释为何该段视频会被推荐进入用户首页。与此同时,YouTube也赋予了用户更多的主动性,增加了过滤和排序功能,用户可以在首页顶部搜索想要了解的特定主题。

    其次,通过改进算法,纠正算法可能存在的偏见。比如,2018年5月,Facebook推出了 Fairness flow工具,用以检验算法偏差,主要功能为:当算法程序因为人的性别、种族等特性作出有失公平的判断时,Fairness flow就会发出警告提醒;
    同年9月,谷歌也推出了具有相似功能的工具——what-if,帮助开发者衡量算法的公平程度。

    (二)平台赋权用户,净化信息环境

    为了共同维护良好的平台环境,构建多元化的新闻平台用户隐私保护机制,较多媒体平台采取了“自身发力+用户共建”的方式。比如,YouTube不仅加强了平台信息的管控和监管力度,对视频内容实行评级机制,并为用户赋权,引入人工机制,用户通过举报反馈可以标记不良信息;
    还继续沿用了“三振出局”的惩罚系统,即一个账号被举报三次以上将无法再使用,加大了违规账号的惩处力度,与用户协力加强平台内容治理。Facebook敞开技术大门,其新闻室发文提醒用户设置账户的隐私、可见度权限,并介绍了关涉隐私的新功能:在全球范围内正式上线Off-Facebook activity以及第三方授权登录提示。

    (三)政府端发力,维护用户权益

    2018年,欧盟出台了 《通用数据保护条例》(GDPR),旨在保护欧盟境内居民的个人数据和隐私,对网站的数据收集和使用作出了比较完整的规定,即收集数据前要获得用户的许可,并向其解释收集数据的原因,保证在必要时可以删除相关数据信息。2020年7月,美国 《加州消费者隐私法案》(CCPA)正式生效,明确表示滥用cookie的企业可能因侵犯隐私而面临高额处罚。

    2021年8月20日,十三届全国人大常委会第三十次会议表决通过了 《中华人民共和国个人信息保护法》,这是中国首部专门保护个人信息的法律,旨在保护个人信息权益,规范个人信息处理活动,促进个人信息合理利用。法案制定参考了欧盟的 《通用数据保护条例》,对个人信息的保护作了更为明确和严格的规定。

    (一)加强监管,完善算法设计

    首先,由于算法推荐是以数据为基础的,因此,规制算法推荐可以先从数据着手,净化并管理算法推荐需要的数据。其次,加强监管,避免算法设计者将个人偏见代入算法程序,并将算法监管和算法自觉贯彻于算法设计、运行的全过程。最后,重视事后的补救,对因算法偏见而引起的社会不公现象,要通过法律程序补偿权益受损者,并对技术方酌情处罚。一方面,要加强算法设计方的媒介伦理意识;
    另一方面,要强化政府、电信主管部门、公安部门和其他监管者的责任意识,对技术方进行合理有效的监管,在社会公平和科技发展之间找到合适的平衡。

    (二)通过立法,加强隐私保护

    无论是用户采取保密措施予以保护的直接隐私,还是技术方在用户公开信息和行为中挖掘的间接隐私,其保护都应根据信息特性,通过用户和数据使用者两方协力完成。

    首先,针对间接隐私,应坚持事前告知、“告知许可”原则。一方面,应在收集数据前告知用户哪些信息可能会被收集,并规范数据使用者的行为;
    另一方面,应在加强数据收集使用监管的同时坚持“先告知,再许可”的原则,即先告知用户算法可能会收集哪些信息以及存在的风险,在征得用户许可后进行信息数据收集。其次,针对直接隐私,应着重对数据使用者进行责任规范。由于网络时代的数据量较为庞大,完全执行“告知许可”原则会降低信息传播的效率,因此,可以通过立法的形式规范数据滥用和非法使用数据的行为,一旦数据使用者侵害了用户的隐私权利,必须依法进行处罚。

    (三)透明化算法,防止算法操纵

    人们把算法称为“黑箱”,一方面,是因为其程序的复杂性和智能性;
    另一方面,则是因为其运行程序和决策机制的不透明性。算法的“黑箱”特性使得用户对算法的运行和决策机制抱有较大的好奇与质疑,无形中加剧了用户对人工智能的不安情绪。

    加快算法的透明化,不仅可以缓解用户的不安情绪,也可以防止数据和权力的绝对集中,因此,应通过法律要求数据拥有者定期公开其算法运行机制,解释算法的设计原理,并将算法程序透明化,以消除用户的误解和怀疑,避免算法和科技公司对数据的深度操纵。

    (四)用户、平台协力,净化网络空间

    首先,平台方应制定相关条例遏制不良内容的传播,从算法推荐机制入手,对各种假新闻和擦边信息的推荐作出调整,减少可能误导用户的内容推荐。其次,平台方可以赋予用户更多实际性的权力,推出用户举报后对平台的惩罚机制,使平台与用户合力净化内容环境。比如,一条消息如果被多名用户举报或被同名用户多次举报,就应该对其内容进行再次审核,必要时应避免该内容发布,同时完善申诉机制,赋予用户合理范围内的监督权,从而实现内容管理体制的透明化、高效化。

    算法推荐机制不仅改变了用户获取信息的方式,其“投其所好”的特点也不可避免地造成了“信息茧房”效应的扩大,背后的算法偏见更是用“看不见的手”影响着社会发展。因此,算法推荐应兼具工具理性和价值理性,在法律法规和公众的监督下,加强内容质量把控,将社会人文价值导向渗入其中。

    猜你喜欢 算法内容用户 基于用户和电路的攻击识别方法电子乐园·上旬刊(2022年5期)2022-04-092021少儿出版用户触达能力指数出版人(2022年3期)2022-03-23Travellng thg World Full—time for Rree阅读与作文(英语初中版)(2019年8期)2019-08-27信用卡资深用户瞭望东方周刊(2017年35期)2017-09-22学习算法的“三种境界”中学生数理化·高一版(2017年1期)2017-04-25算法框图的补全中学生数理化·高一版(2017年1期)2017-04-25算法初步知识盘点中学生数理化·高一版(2017年1期)2017-04-25

    相关热词搜索:探究 社交 算法

    • 范文大全
    • 说说大全
    • 学习资料
    • 语录
    • 生肖
    • 解梦
    • 十二星座