(资料图)
本文作者:复旦大学校友王芳芳博士
《对不起,我操控了你的大脑》by Christopher Wylie。作者是剑桥分析公司(Cambridge Analytica)的创始人之一,该公司因利用脸书数据,被指控操纵了2016年英国脱欧和美国大选而为世人所知(并与俄罗斯信息部门有联系,即通俄门),作者作为第一个吹哨人,曝光了这家公司。当然到底有没有,其实一直都没有直接的证据,虽然有很大的嫌疑。即使已经了解剑桥分析的相关信息,看完这书还是背后一凉,人类的主观能动性,在算法的世界还能维持多久?
社交媒体用户的点赞、状态更新、群聊、关注和点击规律等蛛丝马迹一旦集合到一起,就能准确揭示一个人的人格。剑桥分析主要是通过大数据算法对个人进行心理画像,并通过定向精准投放线上叙事(包括广告、新闻等)改变公众的意见。这种技术本身是中性的,用于行善还是作恶完全取决于使用这种技术的人。应对极端主义,可以在运动中制造混乱,例如利用手机上的即时通信散步谣言、通过安插卧底来激怒人群和逮捕示威者,如此可以在巴基斯坦打击“圣战”组织,但也可以为埃及受伊斯兰极端主义支持的独裁政府创造属于他们的暴政。问题的关键在于怎么定义极端主义。实际情况是,技术人员想怎么定义就可以怎么定义,而对技术人员,目前缺乏伦理规范。
信息心理战的理论基础是人都存在认知偏差。认知偏差导致人们对信息做出有缺陷的主观解读。认知偏差有很多种,如有一种称为“身份动机性推理”,这种偏差导致人们根据某个信息在本质上是构建还是危及集体身份来决定接受还是摒弃这一信息,而不看信息本身的特点,因为这种偏差,民主党人和共和党人会在观看了同样的新闻广播之后得出截然相反的结论。某些新闻会将某种身份移植到观众的脑海中,然后观众会把某种思想争论看成是对他们身份的攻击,进而激发了逆反效用,观众得知不同的观点后更加坚定了原先的信念,因为他们把这种观点视为对个人自由的威胁。
信息战中,有效荷载往往是一个故事,可以是真的,也可以是假的。最有效的洗脑方式是直接改变自我的概念,即操控者试图从目标那里“窃取”自我的概念,并用他自己的概念替代。这个做法的第一步一般是抑制对方的叙事,然后主导目标周围的信息环境。剑桥分析通过识别那些具有神经质和黑暗三人格特质(自恋、马基雅维利主义和精神病态)的人,以及那些比普通公民更容易因冲动引发怒气或接受阴谋论的人。剑桥分析会瞄准他们,通过脸书群组、广告或文章等向他们灌输特定叙事(他们认同的),这些叙事更可能煽动具有此类特质的极小众群体。一旦最初选定的那些个体暴露在新叙事下的次数足够多,就可以安排他们相互见面(剑桥分析操纵),这样他们就能形成一个团体,而后进行组织。他们会相互交流听来的谣言,相互加剧彼此的偏执。接着,定向瞄准那些在谣言的狂轰滥炸下开始半信半疑的人。就这样,你一步一步地从内部动摇一个组织。
剑桥分析通过在脸书上发布应用程序来收集数据,只要用户使用了那个应用程序,他们就能接收到那个人的脸书数据,外加那个人所有好友的数据。脸书并未规定应用程序在收集用户好友的数据前必须征得其好友的同意,因为在它看来,成为脸书用户就等同于允许脸书拿走用户数据——即便用户的好友根本不知道某个应用程序正在采集他们的私人数据。就这样,剑桥分析获取了脸书8700万用户的信息。一般情况下,脸书鼓励这样的数据研究,因为他们可以利用这样的研究,提升用户参与度。脸书在知道之后又隐藏了近一年才公布了这个消息,没有人知道自己的数据被分析、自己被定向投放信息了。
日后,信息和数据可能会用于战争,网络空间可能成为第五战场。“脸书和推特这样的公共网络平台的服务器获得信息,进行宣传”,从而攻击对手,在这些“强大的信息技术的武装下,侵略者会竭力扩大攻击面,覆盖进攻目标国的所有公共机构,主要是大众媒体和宗教组织、文化机构、非政府组织、经费来自海外的公共运动和接受外国资助、从事研究的学者”。
目前大部分手机APP的使用条款和条件要求获得麦克风和相机权限,这就是为什么有人会觉得自己刚跟朋友讨论过什么东西,第二天这个东西就可能出现在你的淘宝推荐里面。信息时代,我们的身份、行为和注意力已经成为高风险数据交易中的商品,在这种经济刺激的驱动下,平台和用户间出现了严重的信息不对称。为了把用户行为转化成利润,平台需要了解用户行为的方方面面,它们秘密设计出来的算法正在以过去无法想象的方式操控人的思想(而你甚至都没有察觉到你的想法发生了变化),而用户却对平台的行为一无所知。我们一直以为自己有主观能动性,但是在算法支配的世界中,我们的主观能动性却被“有动机、能思考的环境操控了”。
关键词:
上一篇:原神喂养呜呜葡萄第二天攻略
下一篇:最后一页
X 关闭
X 关闭