当前位置:东北信息网 -> 调查

数字化时代,算法如何干扰你的决策?

时间:2018-04-28 11:27:17

  

思客问答banner

 

  文|王俊景 倪可馨(实习)

  脸书(Facebook)五千万用户数据泄露事件“激起千层浪”。脸书用户发起了“删除脸书”(#deletefacebook)活动,特斯拉创始人埃隆·马斯克也为此在脸书上关闭了特斯拉和SpaceX两家公司的主页。

  可能你没有脸书账号,但下面这些情况你是否次曾相识?

  搜索过的商品出现在淘宝首页的“猜你喜欢”,点赞过一次萌宠视频就会收到来自抖音的更多推送,点击头条明星八卦会刷到更多娱乐新闻。

  你喜欢什么,首页就拼命给你推送什么,似乎通过一块屏幕就能传达出你想要的世界的模样。而带给你这样“美妙”感觉的,正是更懂你的算法。

  算法如何了解你的全部?

  

算法比你自己更了解你自己。

 

  算法比你自己更了解你自己。

  今天的网络世界里,构成一个网民个体的,不是身体发肤,而是数据。

  虽然数字化的个体只是一串串0和1的存储字符,但用户信息在大数据算法的支持下显露无遗。仅是购物数据一项,就能提供足够丰富的个人信息,比如真实姓名、联系方式和购物偏好等。在你的聊天记录、通话时长、地理位置和社交行为等信息提供的支持下,数据拥有者足以推断出你的生活习惯,甚至价值观。

  在大数据的逻辑里,一切都靠数据说话。通过浏览网页、使用App,你“主动献上”自己的数据,你提供的数据越多,平台对你的了解就越完整。整合后的数据较为精准、详细,之后通过各种建模分析,足够刻画一个“数字化的你”,甚至比你自己更了解你自己。

  而驱动数据并支撑这类精准“用户画像”的核心是算法。

  算法是系统计算的具体步骤,常用于计算、数据处理和自动推理。算法不需要后台人工控制就可以根据获取的一个或多个预设变量值,自动推算出可能的结果并推送给用户。

  然而对于用户来说,目前大部分算法只能看到数据输入过程和输出结果,中间不透明的过程只有少数“局内人”掌握。这个中间过程就是马里兰大学教授弗兰克·帕斯奎尔(Frank Pasquale)提出的“算法黑箱(Black Box)”。“黑箱”不仅意味着算法有我们不能观察的“隐层”,还意味着我们也无法理解机器和人工智能提供算法的逻辑。

  脸书用户数据泄漏事件恰好反映出了一个痛点:普通人对于数据隐私的不安全感大部分来自对“算法黑箱”的各种“无从得知”。用户们不知道自己的哪些数据被记录,在何时被调用,不知道算法如何设计和整合数据,不知道数据被谁读取和使用,又被传输给了谁,用作什么目的。

  正如帕斯奎尔教授在《黑箱社会》一书中说,“在大数据时代,我们只是信息的产生者,却不知道我们的信息将被用于何处,又会产生什么样的后果。”

  算法怎样干扰你的决策?

  

似乎控制了数据和算法,就控制了人的思想。

 

  似乎控制了数据和算法,就控制了人的思想。

  算法专家凯文·斯拉文在TED演讲中说,“算法提炼自这个世界,来源于这个世界,而现在则开始塑造这个世界。”

  此次脸书数据泄露事件的爆料者怀利(Christopher Wylie)透露,非法获取这5000万份数据的政治咨询公司剑桥分析(Cambridge Analytica),通过对脸书用户数据建立模型,分析政治偏好和预测投票选择。借助Facebook的广告投放系统,这家公司可以对每个用户定制有高度针对性的新闻推送和广告,潜移默化地干扰人们对英国“脱欧”公投和美国2016年总统大选等事件的看法。

  那么他们具体怎样“操盘”选票?剑桥分析有三大宝:心理学模型、大数据分析和定向广告。

  在英国电视四台(News 4)的一段暗访视频中,“剑桥分析”市场总监特恩布尔坦言,剑桥分析会根据用户在社交网络上的数据,定向传达信息。比如,通过心理学模型算法筛选出的严谨型的人,会在推荐内容中增加展示恶性抢劫案的画面。针对摇摆州犹豫不决的中间选民,则推送有针对性的新闻乃至假新闻。强调形势的严峻性,从而潜移默化地影响和操控他们的心理。而针对容易被煽动起来的“少数裔”,就推送种族歧视言论。

  “总之就是投其所好,实施高度精准的个性定制”,特恩布尔说。然而用户却对互联网公司的“润物细无声”毫不知情,人们的行为方式、看法甚至思想观念,都可以通过数据的过滤及呈现,潜移默化地被控制和影响。隐性洗脑在大数据时代已经成为现实,似乎控制了数据和算法,就控制了人的思想。

  因此,我们不难发现,脸书泄露事件反映出一个基本事实:算法本身并不中立,算法由人构想、设计、使用,在文化、政治、价值认同等方面很可能出现偏差。因此算法是可操控的,完全有可能被用作“隐形”的恶意武器,成为操控决策的工具。

  如何不被算法“绑架”?

  

今天的网络世界里,构成一个网民个体的,不是身体发肤,而是数据。

 

  今天的网络世界里,构成一个网民个体的,不是身体发肤,而是数据。

  虽然扎克伯格在国会“过堂”时向用户诚恳道歉,表示脸书未来会加强对用户数据隐私的保护,但不可否认的是,包括脸书、谷歌在内的大多数互联网企业越来越依赖这种“黑箱”策略,并将“黑箱算法”看作是让其处于行业竞争优势的秘密武器,没有哪个企业愿意主动公开解释自己的算法过程。正如《经济学人》所说:“数据是新时代的石油”,掌握着油田的开采技术的“大佬”们自然不会将自己的秘密公开。

  针对“算法黑箱”带来的风险,欧盟将于今年5月25日生效《统一数据保护条例》(GDRR),这一法案中要求科技公司解释其所有算法的输出原理,并且用户有权在对算法决策不满意时选择退出。比如公众有权利要求各种系统、应用程序停止记录和使用自己的行为数据。

  同时,这项法案要求用户行为数据被采集之后,也不能永久保留,其时限最多为一年半。同时,用户可以要求相关企业将其数据彻底删除。这意味着数字化时代下,我们拥有了“被遗忘权”,可以自行选择让自己从互联网上“消失”,不再被算法绑架。

  《未来简史》曾预言,未来的时代将会进入算法社会。在算法驱动下,各类App和网站让我们的生活更加便利,但同时算法“黑箱”也让用户和科技公司之间的不对称性更加隐蔽。

  而解决算法黑箱带来的风险,更需要各国政府从法律层面加强监管,避免相关算法被恶意设计或使用。在这一点上,欧盟出台的《统一数据保护条例》率先迈出一步,在算法方面要求企业把选择权还给用户,这给了自然人数据主权更多的尊重和保护。只有把算法关进笼子,才能保证用户做出忠于自己的判断,减少对未来科技的焦虑。

  而拥有算法技术的科技企业,也要给算法赋予正向价值观,用企业责任弥补信息不对称,增加用户对未来科技的信心。

  

2018-04-1950

 

  

组 3 拷贝 2

 

  

组 2 拷贝 2
    免责声明:本文仅代表作者或其来源网站个人观点,不代表本网站的观点和立场,与本网站无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如因作品内容侵权需删除与其他问题需要同本网联系的,请在30日内通过本网的邮箱或电话联系。
来源: 新华网思客  作者:   编辑: 王金雷
  • 商贸
  • 独家
  • 娱乐
  • 体育
  • 健康
  • 文化
道外区黎华街道组织参观船舶博
道外区黎华街道组织参观船舶博

延寿县长寿山五一登山热:青山揽客 踏春而行

低息企业贷款,轻松缓解资金压力
低息企业贷款,轻松缓解资金压力

猎芯网携手星坤连接原厂亮相慕尼黑上海电子展!

好莱客案例|90㎡三居打造出工作间、�
好莱客案例|90㎡三居打造出工作间、�

传统音乐正成为电影叙事的点睛之笔

辽宁队第4个离队之人出炉!CBA总决赛
辽宁队第4个离队之人出炉!CBA总决赛

青训筑基+赛事赋能 大连打造国际知名足球城

平房区人民检察院举办检企共建庆“七
平房区人民检察院举办检企共建庆“七

延寿县丨安山乡开展主题党日活动

香坊区启动2025年全民义务植树活动
香坊区启动2025年全民义务植树活动

香坊区启动2025年全民义务植树活动