文件曝光fb内部测试 证演算法「导人向激进」(图)

发布 : 2021-10-24  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈



近期备受丑闻和揭密困扰的全球最大社交平台facebook(fb)上周五(22日)再爆出连串丑闻。美国多家传媒联合报道,早前公开爆料指控fb为了盈利蓄意隐瞒问题的吹哨人公开更多文件,指fb内部进行的研究发现,其人工智能演算法会引导用户激进化,有例子显示测试用的新帐户短短几日就被fb建议加入极右组织,页面充斥激进内容。另外,再多一名fb吹哨人指控fb知道高层漠视和淡化仇恨言论,亦明知有极右组织利用fb推动进行1月6日国会山庄骚乱(见另稿)。

37岁的fb前产品经理豪根(Frances Haugen,图)本月初上国会参议院听证会大爆fb唯利是图,不惜漠视其演算法加剧分化和负面思想的问题。多家传媒从豪根手中取得文件后集体分析,并于上周五联合发表新一轮报道。

报道指出,fb内部研究文件指公司深知其应用程式和服务对人们造成的损害,但不单止没有公开承认,亦没有尝试修正。

明知问题拒认 未尝试修正

美国全国广播公司(NBC)报道,fb于2019年夏天进行一项实验,研究人员模拟一个名为史密斯(Carol Smith)的白人母亲开设帐户,登记时自称是来自美国北卡罗莱纳州的保守派,并点选了「对政治、育儿有兴趣」、「基督教」等选项,然后点选追随时任总统特朗普和被视为保守派的传媒霍士新闻。文件显示,虽然「史密斯」从未表示对阴谋论有兴趣,但在帐户开设短短2日内,fb就在其个人页面向她建议加入与阴谋论组织QAnon相关的极右群组。史密斯没有理会,但fb演算法续将相关资讯灌输给她,一周内其帐户就充斥那些涉嫌违反fb守则的组织之贴文和专页,包括「极端、阴谋论式和令人惊吓的内容」。

fb反驳指核心假定错误

根据曝光文件,除了史密斯,fb研究人员在2019至2020年间也创制其他「测试用户」帐户,以了解fb透过其建议系统误导和分化用户的情况。研究小组在报告称,测试持续发现fb将一些用户推向极端,直至去到充斥暴力阴谋论的狭窄角落内,有一小部分人因此被激进化。

fb发表声明,称有关报道的核心假定错误,强调虽然fb要赚钱,但如果认为这是要用人们安全和福祉去换取,是误解fb商业利益所在。发言人说:「虽然这(史密斯)只是一个虚构用户的研究,但这正是公司致力改善系统、协助为我们决定移除QAnon的一个完美例子。」

文件显示,到去年夏天,fb仍是数以千计合共有数以百万计粉丝的QAnon组织专页之「宿主」,直至后来备受争议才封锁这些专页。文件引述一名早前离开fb的研究员质疑fb行动速度太慢,「我们超过一年前已知道,我们的建议系统可以很快令用户堕进阴谋论和组织的方向」。

Twitter认演算法助长右翼

承诺改善

网络监察智库「史丹福互联网观测平台」(SEI)技术研究经理迪雷斯塔(Renˆme DiResta)说,这些文件相当于确认外界研究人员多年来所指、但fb一直否认的演算法问题,「fb基本上就是协助组成一个教派」。

另一社交平台Twitter上周五(22日)发表27页报告,承认分析过7个国家(英美加法德日和西班牙)民选官员的贴文后发现,其演算法在德国以外6个国家,都倾向推高右翼政客的言论,右派传媒的报道亦似乎获较多重视。Twitter表示未知其演算法出现偏差原因,但承诺会改善。

(NBC/卫报/纽约时报)