3.1 阅读专题

阅读材料一:直面人工智能伦理风险,发展“负责任的AI”



提到人工智能的伦理挑战,很多人的第一反应或许是“机器人大开杀戒统治地球”。


       早到艾萨克·阿西莫夫(Isaac Asimov)提出“机器人三定律”,再到《西部世界》、《机械姬》、《黑客帝国》、《终结者》等影视剧,都对人工智能伦理问题做出了思考,人工智能可以解放人类劳动力,但也有可能损害人类的利益,将大众引向深渊。




       AI的伦理问题包含复杂而深刻的内涵。人工智能的算法来自于数据,当数据里带有潜在的价值观倾向,隐含着偏见等问题,被系统学习吸收,谁来维护民众的共识,保证社会的公平?当机器自我进化拥有了自主意识,脱离人的控制,人类作为其生产创作者,是否依旧能够稳稳地掌握全局?当不成熟的人工智能技术陷入异常,造成失误,甚至非法入侵而伤害人类,谁该为此承担责任?


       如果说影视剧里人工智能带来的灾难还有着“危言耸听”和“艺术加工”的成分,那么现实中层出不穷的问题则提醒着我们建立人工智能伦理准则刻不容缓。像谷歌和Uber的自动驾驶汽车造成人员伤亡、机器人伤人事件、保险公司利用脸书数据预测事故发生率涉嫌存在偏见等都现实中的真实案例,也是人工智能存在伦理和道德风险的例证。


       “当车祸无法避免时,自动驾驶汽车该如何取舍,是优先保护马路上的行人,还是优先保护车内人员?”耶鲁大学技术与伦理研究中心主任、黑斯廷斯中心高级顾问温德尔·瓦拉赫(Wendell Wallach),在他的著作《道德机器:如何让机器人明辨是非》中抛出这样一个问题。




       我们生活在技术发展超乎寻常的年代,新技术带给人类翻天覆地的变化,这些变化令人惊叹也令人畏惧。“技术进入汽车,成为人类命运的决定因素,如果系统失灵,谁将承担责任?自动驾驶只是触及到技术伦理与道德的冰山一角。”瓦拉赫写到,家庭机器人、自动金融系统等已经能够影响人类的生活,并将产生难以预料的伦理后果,人类应该尽快有所行动,让伦理和科技的发展同时进行。


       人工智能公司CognitiveScale的执行主席Manoj Saxena指出,人们迫切需要一套融入智能产品的全新的道德规范和法律。“首先教育每个人都需要仔细设计和控制人工智能系统,以便反映公司或社会的核心价值观......同时还提供透明度,人工可解释性和审计线索,以便在出现问题时建立信任和控制。”


       Manoj拥有密歇根大学的工商管理硕士学位以及印度伯拉理工学院的管理学硕士学位,在担任CognitiveScale公司CEO之前,Manoj曾是IBM沃特森项目的总经理,他也是该项目的第一任总经理。此外,他还在五年内创办并出售了两家由风投机构支持的初创公司,是专注于认知科学的创业者基金IV的创始董事总经理。 同时他也是一家致力于解决人工智能与其伦理问题的非盈利组织——AI Global的创始主席,并且,他还在德克萨斯大学奥斯汀分校教授一门关于人工智能的伦理挑战的课程。


       不仅如此,Manoj还指出,人工智能可能带来的最坏的结果是自动化的战争。他指出“人们通常认为,通过AI,我们可以减少损失,因为AI可以以非常精确的方式达到目标,但问题是,AI还有很多的未知之处。当前的AI是不可信赖的,如果被使用在可以成为大规模杀伤力武器的东西里,很有可能(因为技术还在成熟)造成前所未有的大规模破坏。”


       他强调,要建立“负责任的AI”,他认为AI确实可以帮助人类做出更好的决策,但是它仍然需要人类,仍然是人类在同理心、道德方面做出决策,AI只是增强人的能力。“我认为这就是AI将带我们进入的世界,人类在这个世界里可以做更多更大的事情,而不只是AI的世界。在后者里,我们只是坐在椅子上的傀儡。”




       作为一家主要为医疗保健、商业和金融服务行业开发智能软件的人工智能公司,CognitiveScale的客户包括微软、因特尔等国际知名企业和美国当地医疗和金融机构等。这些公司和机构与用户的切身利益密切相关,因此,CognitiveScale对人工智能的伦理问题表现出了高度关注。Manoj特别指出,人工智能的伦理问题不仅关乎用户的利益,也对人工智能公司的盈利和发展有重大影响。




       法国著名管理咨询公司凯捷(Capgemini)最近的一项调查显示,用户对于人工智能服务和产品的道德性越来越重视,80%以上的消费者会偏向于购买并使用在道德上风评良好的公司的产品。在接受调查的消费者中,62%的受访者表示他们会更加信任他们认为符合道德标准的人工智能互动,61%的受访者表示会与朋友和家人分享积极的体验,59%的受访者表示会对公司有更高的忠诚度,55%的受访者表示他们会购买更多产品,并在社交媒体上提供高收视率和积极反馈。


       与此对应的是,该研究同时表明,用户一旦发现自己的隐私和安全受到了人工智能的威胁,会极大地降低对这家公司的评价:41%的受访者表示如果与人工智能的问题,他们会投诉,36%的受访者会要求合理解释,34%的受访者将停止使用该公司的产品。




       这是因为,虽然目前可能AI仍是一个相对较为新鲜的事物,但人工智能系统产生的伦理问题已被广大用户觉察。超过一半的消费者(66%)表示他们已经经历过人工智能伦理问题的影响。例如,未经医疗保健同意收集个人患者数据,某些企业通过大数据“杀熟”等等。


       人工智能时代,我们要在技术与人本身之间、在机器与人类社会之间达到再平衡,寻找和谐相处的结合点,找到和谐出行的最佳路径。制度建设就是掌控和调节这些关系的最根本的手段,所以建立规则、完善制度都是极为重要而又亟待解决的事情。硅谷之桥也会持续关注该领域的最新进展,期待见证一个更加和谐、规范、以人为本的人工智能时代。


阅读材料二:

                                                如何做到管理与伦理合一?

       中国的企业必须要走上一条路,叫做管理跟伦理要合一,全世界只有中国人要求这一点,其他人很少。我举个例子,只有中国人会讲这句话,凭他那种德性也想管我吗?你看,把管理和德性合在一起。外国人听不到这样的话,外国人的私人生活是个人生活,品德修养是个人品德修养,跟管理一点关系都没有。

       你不可以说他的德性不好,所以我不向他报告,中国人就可以。所以我们要求你管别人,就要先把自己管好,外国人也听不到这样的话,你把自己管好再说,你再来管我。你自己都管不好,你凭什么管我?你看这些话都是我们平常经常能听到的话,但是在国外你是听不到这样的话的。

伦理是内心世界的东西



       管理是外在的伦理,那么你就了解到伦理完全是内心世界的东西,我们如果把伦理变成外面的礼貌就糟糕了,那是不对的。你有没有发现外国人很有礼貌但是他一点都不关心你,中国人没有什么礼貌,但是他很关心你,你仔细去看好了。外国人他是非常有礼貌的,但是那是形式化的,跟内心没有关系,中国人是不重视形式的。

       所以像这些你什么时候搞清楚,你就知道怎么去待人。中国人不相信人家的话,但是他会相信自己的感觉,我感觉到这个人很可靠,他就相信你了,你再三保证我很可靠,他又不相信你了。


       因为他会觉得,你会强调你很可靠,就表示你存心要骗我,你好好去体会。所以,中国人口才好的人,人际关系经常不好,大家要小心这一点,我们今天所有毛病都是三个字带来的---话太多,把自己搞垮了。

管理,是理别人,管自己



       伦理是内在的管理,所以一个人把自己管好就叫做伦理,把别人管好就叫做管理,这是不一样的,那我们又说人是不能管的,所以管理就是管自己,理别人。对别人要理,不能管,对自己要管不能理。


       可见我们把管理两个字分的非常清楚,管是什么?管就是给他压力、约束他、要求他,凡是你对别人用这种管的态度,大概都没有太大的效果,因为那是对自己的,人要管自己,人要约束自己,人要告诉自己不可以这样、不可以那样,而不是对别人。对于别人要怎么样?要看得起他,只要你看不起他,你用什么办法都没有用。

中国的管理者重在抓心



       我不晓得各位听到这里,你听出什么东西来了没有,中国人是重视心的民族,我们一切都跟心产生很密切的关系,我请问你,你当领导,你最关心你的干部什么事情?你告诉我。

       外国人最关心他的部署能不能干,有没有能力、有没有责任感、能不能把事情做好,他是关心这些的。中国人不是,中国人如果这样的话你带不了人的,最后你会发现所有人都在骗你,因为你只要重视这些东西,那你一定上当,你最后一定吃亏、一定被骗。

       所以很多人跟我抱怨说中国人最会骗人,我经常上当,就是他学的西方那一套想法,中国人当领导的什么都不要计较,什么都不在乎,你只要抓住一点就够了,你的干部心里头有没有你的存在就够了。我们最在乎你心中有没有我,你心中没有我,你越有礼貌我越怕你,因为你一定想骗我,不然那么有礼貌干什么?你心中没有我你对我越好我越提防,因为我最后是被你干掉的。

       这是西方人怎么样都不可能了解的事情,所以西方人要宣誓、要保证、要签合同,这套对中国人都没有用,统统没有用。因为中国人这套是不能用嘴巴、不能用文字表达出来的。


对上对下都要让人感觉到你的用心



       我不相信各位听完课以后,你会跟你上面的领导去说,我跟你保证我心中有你,我不相信的。你如果这么说,他就吓晕了头了,他心想你在搞什么东西?你慢慢体会到中国很多事情,不能用嘴巴讲的。所以我们现在学的西方沟通好像什么都要把内心的东西讲出来,这是不对的。

       你要让你上面的人感觉到你心中有他,你就成了。你要让底下的人感觉到你的心中有他,他就替你卖力了。讲起来很容易,做起来有难度的,你一定要把中国人这些事情搞清楚你才做得到。

       所以为什么光是四个字安人之道要讲那么久,它一定有道理的,西方没有这么复杂的。西方就是把合同定好,然后他签了,大家说清楚,我给你多少钱,你负责给我赚多少钱,或者你负责给我做什么工作,然后按时考核,那对中国人都没有什么用的。

       中国人你问他,我请你帮忙你一个月要多少钱?他说随便你给,然后你给他多少钱,他都不高兴,随便你给,你就这么随便?你要他签合同他就签,签了他根本不认账嘛。

       你看我们什么都有,就是没有效果而已。这样你就知道了,管理要跟伦理合在一起,你会成功,一分开来你就惨了。因为在我们中国,伦理跟管理是分不开的,伦理这个思想是我国所固有的东西,不管是儒家、道家、末家、明家、法家、不管哪一家,它都是以伦理学术为主的,没有例外的。


机器智能时代,坚守人类道德更重要


阅读材料三:川普不可怕,可怕的是他背后这家公司

向互联网大数据势力低头。

       这五年来,只要你生活在地球上,就一定听说过大数据这个词。大数据,就是我们所做的一切事,不论是线上还是线下,留下的所有数字脚印。每一次刷卡购物,每一次网络搜索,每一次打开手机 app ,乃至社交网络上的每一个赞,都会被记录下来。

       2013 年,剑桥大学心理测量学中心的在读博士迈克尔·科辛斯基( Michal Kosinski )公布了一项突破性的研究,他们开发了一种心理分析模型,可以把和心理学上的“五大性格特质” 和社交网络上“点赞”记录结合起来,能判断出一个人的性别、性取向、政治倾向等等特质。

       五大性格特质 OCEAN :开放性 openness 、尽责性 conscientiousness 、外向性 extraversion 、亲和性 agreeableness 、神经过敏性 neuroticism 。

       举个例子,赞过化妆品牌 MAC 的男人相对更有可能是 Gay ;赞过“武当派”乐队( Wu-Tang Clan )的通常是直男直女;Lady Gaga 的歌迷通常外向奔放;赞过哲学话题的人很可能内敛闷骚。你知道吗?手机上的运动传感器和健康体能记录,不仅能暴露出你的移动速度和位移,还能顺便检验一下你现在是不是有小情绪了。

       厉害的来了,根据 Facebook 上的 68 个“赞/喜欢”,这个模型就可以准确判断出你的肤色(准确率 95% )、性取向(准确率 88% ),以及左还是右的政治倾向(准确率 85% )……还包括智力程度、宗教信仰,以及烟酒、毒品的使用情况等等,它甚至能判断出你的父母是否离异。

0b88dbeaf76bee307b4d09b1790a27b4.gif


       这些零散的信息本身都不是那么可靠,但一旦这个模型匹配上大数据,将成百上千的个人数据整合一下,预测结果就可以准确到令人发指的程度,可以完全推测出一个人的需求、恐惧和行事方式:凭借一个人在 Facebook 上的 10 个“赞”,就能赛过身边同事对这个人的了解;70 个“赞”,就可以超过好友对 TA 的了解;150 个赞,赛过父母;300 个赞,赛过身边的另一半。再多一点的话,甚至可以超过一个人对自己本身的了解。

       更重要的是,反过来也行得通:这个模型既可以用数据画出一个人的心理特征,也可以反过来,用这些数据锁定具有某种心理特征的人:隐藏的虐恋爱好者,坐立不安的戒烟者,对某种商品有潜在购买欲望的人,还有所有摇摆不定的政党支持者。只要你使用互联网,就会在大数据面前无所遁形。

       这个模型不但是一个打开心扉的“算命水晶球”,也可以是一部挖掘人性的“人肉搜索器”,这才是关键。

giphy-5.gif


       研究发现,如果将产品信息和消费者特质相匹配,最多可以增加 63% 的用户点击量和 1400 多条对话。如果你是个给 MAC 口红点过赞的年轻男子,可能你很快就会收到同性交友软件的注册邀请。

       我们的智能手机本身就是一份庞大的心理问卷,我们在有意无意之间,一直在不断填写着这份问卷。所以,问题来了,

如果有人滥用这部强大的搜索引擎,用它来摆布别人,结果会怎么样?

       这个人出现了,而且他已经成功了。他叫亚历山大·尼克斯(Alexander Nix),他就是美国现任总统川普雇用的数字战略主管,剑桥分析(Cambridge Analytica)公司的首席执行官。

v2-06c63830540d0cee08b8acf6791cd541_b.jpg


       说剑桥分析( Cambridge Analytica )这家公司是川普竞选的幕后大 boss 也不为过。CEO 亚历山大·尼克斯在演讲中曾经说:“川普发的几乎所有 Twitter 都有数据支持。”而且川普竞选中的所有行为都是经过 CA 公司精心计算的。

川3.gif


       CA 公司有三大法宝:OCEAN 模型、大数据分析、定向广告。首先,他们从各种地方买个人数据,比如土地登记信息、汽车数据、购物数据、优惠券、俱乐部会员,你读什么杂志、去哪个教堂……再把这些数据与选民名册和大数据——包括 Facebook 点赞——整合到一起,一起放进模型,原先的数字足迹,一下子变成了完整又具体的大活人,他们有担忧、有需求、有兴趣、有癖好,还附带手机号码、信用卡类型、电子邮箱和家庭住址。CA 公司甚至说,他们可以为 2.2 亿美国成年人画像。

       如果喜欢 MAC 化妆品牌的男性相对更有可能是 gay ,同样的道理,模型认为,倾向于购买美国本土汽车的人就有可能投票给川普。

timg.gif


       CA 公司独辟蹊径地使用了心理学指标,将美国人口划分为 32 种性格特质,而且只将 17 个州作为重点,经过模型分析做出判断。

他们是如何洗脑的呢?

       比如想要巩固美国公民拥护枪支使用权这个概念,CA 公司会通过社交网络向你定向传达一些信息。根据 OCEAN 模型,如果你是神经质型和严谨型的人,就要突出入室抢劫的威胁,多给你展示一些恶性抢劫案的画面;如果你是封闭亲和型的人呢?你可能会更关心传统和家庭,就多来点儿一家老小在夕阳下举枪打野鸭的和谐景象。

       在总统大选期间,CA 公司的手段玩得溜到飞起:比如在迈阿密的小海地社区,CA 公司定向投放 2010 年海地地震的内容,表现当时克林顿基金会滥用救灾款的丑事;黑人用户会在 Facebook 看到希拉里称黑人男性为“超级掠夺者”的视频。

timg-2.gif


       在密歇根州肯特郡,CA 投放了 3 篇让就业回归美国的文章,73% 的定向选民都点击了其中一篇——所以那还等啥,马上在那儿安排一场川普竞选集会!赶快讲讲经济复苏。

       在川普和希拉里展开第三场电视辩论的时候,CA 公司用川普的观点在 Facebook 上精心测试了 17.5 万个版本的广告,然后跟踪人们在网络上的举动和兴趣,恰如其分地投放 4 到 5 万条,不同版本的差别都仅仅是细节:比如标题、颜色、照片、视频……

timg-3.gif


       然后就是等待猎物的反馈:比如某人是宾夕法尼亚州一个摇摆不定的选民,他有没有点击关于希拉里邮件门的帖子呢?点了,就显示更多的内容,看看希拉里是如何失职的。没点?自动脚本就换个标题,或者换个切入点——比如这个人容易听信权威,标题就自动更正为:《情报部门高官一致认为:希拉里邮件门事件危及国家安全》。

       CEO 尼克斯在一次采访里说:“我们可以对一个村庄或小区,乃至每个人,进行有针对性的宣传。”

       这些广告帖被叫做“暗帖”(dark posts)。因为这些竞选宣传,多数是投放在社交媒体或数字电视上,很少展示在主流电视上,并不是所有人可见的,只有符合具体特征的、被锁定的目标才会看到,也不用受到政府部门的监管,做到了真正的“阅后即焚”。这就是他们的目的:让潜在的希拉里支持者(包括摇摆不定的左翼人士、黑人,以及年轻女性)放弃投票。

       所以在大选最后的关键时期,当川普决定在几个“蓝州”(历来倒向民主党的几个州,包括密歇根、宾夕法尼亚和威斯康辛)举行集会演讲的时候,希拉里团队差点儿笑掉大牙。但其实是因为 Facebook 暗帖的点击情况,让 CA 公司察觉到这几个州并不是铁板一块。

       从2012年大选到2016年大选,美国各州共和党/民主党获胜比例的变化幅度。川普最后当上总统,关键就在于密歇根、宾夕法尼亚和威斯康辛这几个蓝州的倒戈。

大选最后时期,川普团队转战密歇根和威斯康辛巡回演讲,就是大数据分析做出的决定。

       2016 年 7 月,川普的拉票队还配备了一款叫 Groundgame 的手机 app ,这是一款选举拉票应用,结合了选民数据和“地理空间可视化技术”,可以鉴定某户居民的政治观点和性格类型。

v2-82f3c7f84ef51b8fb4be16d989e29a4e_b.png

v2-82f3c7f84ef51b8fb4be16d989e29a4e_b.png

特朗普竞选和英国脱欧运动都用到了一个应用:Groundgame。这是一款选举拉票应用,结合了选民数据和“地理空间可视化技术”。.png


       特朗普竞选和英国脱欧运动都用到了一个应用:Groundgame。这是一款选举拉票应用,结合了选民数据和地理空间可视化技术


x_lon_analytica_161104.nbcnews-ux-1080-600.jpg


       针对每户人家对川普观点的接受程度,app 会自动产生一个评定。只有那些接受和川普有关的消息推送的家庭,拉票员才会上门。拉票员们还配了对话指南,按照家庭的性格类型,进行有针对性的宣传,再收集反馈,最后这些数据会再回到川普团队的操作界面上。综合起来,可以看出哪些宣传信息在哪些地方最有效。

image-1080762-860_poster_16x9-ydtb-1080762.jpg


       当初,英国脱欧运动的宣传员用的也是这个 app 。CA 公司在英国脱欧运动中也发挥了不小的作用。

       虽然希拉里团队在大选里也雇佣了类似的公司,但希拉里手上,没有心理测定学分析这件大杀器。而且希拉里团队还是采取传统的调查方法,依靠性别、种族来划分选民,想当然地觉得,只要是女性、或者只要是非裔美国人,对候选人的印象应该都是一样的,所以,所有女性选民收到的消息都是一样的,所有黑人选民收到的消息也是千篇一律,而且希拉里的竞选广告在传统媒体上铺得漫天遍野,精英阶层一致看好,就是这样,希拉里团队误以为自己已经妥妥地赢了。

timg-4.gif


后来的事情我们都知道了。

       对于 CA 这家公司,目前我们只知道他们正全速挺进美国商业市场,它的母公司也在和欧洲、亚洲和拉美的右翼政党和政府合作。其实,拥有这种能耐的科技公司并不只有 CA 一家,只不过现在最炙手可热的就数它了。

       这家公司浮出水面,代表着一个新时代的到来。今后无论你是想要在政治或商业上取得成功,就必须要理解这套互联网大数据的玩法。

       你觉得接下去,等待我们的将是什么呢?

       在过去的政治竞选宣传里,传统新闻媒体就像是冷兵器,以文字作为载体,在纸媒、电台和电视上相互讨伐。而在互联网时代,新媒体像是病毒——因人而异、自我强化、让人上瘾,直接深入到用户的私人精神世界里。

       近十年来,硅谷致力于构建种种平台,目的就是让用户对数字内容成瘾,但还仅仅是停留在商业层面。2016 年,CA 公司率先在政治层面将它用了起来。可能未来政治比的不是观点,不是背景,不是财力,甚至不是大数据。大数据谁都能获取,连败选的希拉里也能,而是这套潜移默化地操纵精神、改变行为的算法。

       只要你在互联网上留下过蛛丝马迹,就可能会被某些机构盯上。如果是 CA 这种通过数据挖掘进行政治运作的公司,就可以准确定向,在网络上贴身跟踪着你,向你发送为你私人订制的信息,来改变你的判断和思考。

       你所看到的一切,都出自无孔不入的精心设计。你以为的独立思考,都受着无所不在的网络干预。时间久了,你的生活究竟是属于你自己,还是属于那个为你制造假象的人呢?