- ISBN:9787521721218
- 装帧:一般纯质纸
- 册数:暂无
- 重量:暂无
- 开本:16开
- 页数:144
- 出版时间:2020-09-01
- 条形码:9787521721218 ; 978-7-5217-2121-8
本书特色
★紧密贴合人工智能领域的热点新闻事件,如AlphaGo战胜人类围棋棋手、自动驾驶汽车进入市场后的是非、人工智能语音助手与智能家居的爆火、各大互联网平台推荐算法带来的行业变革、人工智能引发的隐私泄露问题等,具有广泛讨论价值与深远影响力。 ★由点及面搭建系统性知识结构:针对话题事件延申出的学科概念,提供基础注释,降低阅读难度。清晰梳理学科从古至今的要点事件,帮助读者快速建立学科系统认知。 ★特色洋葱式分层阅读:内容由深到浅,策展式排版。内容重点分明,适合碎片化阅读场景。可满足不同喜好读者的阅读需求,在不同难度的文本间自由跳接。 ★装帧设计新潮时尚:入围英国图书设计与制作奖,全彩印刷。
内容简介
系列介绍:The Big Idea引导读者带着问题意识对21世纪人类面对的重大议题展开独立思考。The Big Idea系列主要面向一二线城市的潮流青年。希望启发他们用提问的方式主动接近21世纪关键的议题,在独立思考问题的过程中搜集必要的新知与讯息,在解答问题的同时建立新的认知体系。本册介绍:人工智能早已融入我们的日常生活,但关于它的争论从它被构想那天起就从未停止。《人工智能会取代我们吗?》一书梳理了过去60年人工智能的爆炸式发展,总结了人工智能给我们带来的诸多好处和潜在威胁,是一本兼具知识性与思想性的科普小书,适合对人工智能认识不多、在好奇与戒惧间摇摆的人们阅读。
目录
导言
1. 人工智能的发展
2. 人工智能如今的能力
3. 人工智能如今的局限和问题
4. 人工智能的未来
结语
延伸阅读
索引
节选
一个总是做出荒唐决定的算法并不必然是危险的,因为人们很容易察觉并处理掉它的错误。还有一个更为隐蔽的后果,需要我们万分警惕:人工智能算法可能会根据种族、性别或意识形态隐约但系统性地对某些人群给予区别对待。 谷歌的**代自动相片标签系统曾将非裔人误认为大猩猩,激起了人们的愤怒,就是一个广为人知的负面案例。普洛帕布利卡(ProPublica)在2016年对一款用于预测罪犯重新犯罪概率的风险评估软件——孔帕斯(COMPAS)进行了调查,结果显示,虽然该软件并没有专门针对种族做出明确设计,但是它依然对黑人抱有偏见。 2017年的一项研究表明,算法在单词联想中也会表现出偏见:男性更可能与工作、数学和科学联想到一起,而女性则会同家庭和艺术联想在一起。这些偏见会对就业招聘产生直接影响。例如,如果一款人工智能程序认为“男性”与“程序员”两个词有固有的联系,那么,当它在为一个计算机编程职位检索简历的时候,就很可能会将有着一个听起来像男性的名字的简历排到面试表的顶部。偏见也同样为翻译软件带来了麻烦。例如,在谷歌翻译将其他语言中的一个中性代词翻译为英语的时候,如果这个代词在语境中指的是一位医生,他就会将这个词翻译为男性的“他”(he),而如果这个代词在语境指的是护士,它就会将其翻译为女性的“她”(she)。另外,语音识别软件在处理女性声音和方言时效果要差得多,这就使得那些使用非标准发音方式的社会重要成员受到了排斥。 另外一些算法可能已经以一种不易察觉的方式扭曲了人们接受医疗或保险的类型,改变了他们在刑事司法系统中的待遇,或者对哪些家庭更有可能虐待儿童做出了不恰当的预测。偏见和不公正侵蚀了人类与人工智能系统之间的信任;它并不能像人们一开始预测的那样成为一个对社会贡献巨大的均衡器——在从一个中立的角度做出影响生活的决定这件事上,人工智能可能并不比人类做得更好。如果真是如此,那么社会为什么要接受机器,让它们作为银行从业者、招聘人员、警察或法官“更公正”的替代品呢? 一般情况下,偏见产生的原因并不是那些武装在学习型算法上的冰冷、严格的统计方法。人工智能学习者通常只是掌握了训练数据中自带的偏见而已,而这些数据的源头是社会本身。换言之,算法反映的是它们的创作者的偏见,在问题严重时,它们甚至会加深或验证我们已经拥有的偏见。“过滤气泡”就是一个例子:脸书开发的新闻算法总是对那些病毒式投稿偏爱有加,以至于将事实真相都抛诸脑后,这严重影响了公众对社交互动和重大新闻事件的看法。该公司的人工智能使社会关系紧张、加深了政治上的两极分化,引发了极大的愤慨,这使得马克??扎克伯格不得不做出承诺,将从根本上改变算法,以促进“更深入、更有意义的交流”。 通过使用人工智能算法来定位易受宣传影响的选民团体,剑桥分析公司介入到了2016年美国总统大选和英国脱欧运动中,这可能已经改变了民主和历史的发展轨迹。此外,随着关于用户偏好和兴趣特征的数据被大量记录下来并得到分析,新闻和媒体创作者就可以将内容精准投放给被细致区分出来的各社会群体——这种区分甚至能细到个人层面。这就给推荐系统以及控制它们的政党打开了一扇方便之门,让他们能够操纵特定网络人群的想法和感受。 减少人工智能中的偏见和不公将是一场旷日持久的战斗,随着深度学习应用在我们社会中的进一步渗透,这场战斗必将变得更加激烈。 目前,我们尚没有找到消除偏见的捷径。有人主张,让人工智能算法参数完全透明是解决问题的关键;但是另外一些人却认为,这种透明反而会为给政党利用系统牟取利益提供方便。IBM正在试验一些在决策过程中会引入人类的价值观的人工智能系统,研究人员希望能帮助这些系统找到并理解自身同人类在决策过程中的不一致性。他们的想法是要建立一个拥有道德感的人工智能系统,但是,由于人类价值观各异,“道德”难以界定,这种进路有其内在的困难。对于这个挑战,一个流行的想法是把界定道德这件事“外包”给普罗大众,用普通人做出的决定来教人工智能系统如何行动。有人则主张对数据进行培训,他们认为拥有各种专长、社会经济背景雄厚的团队可以更好地帮 助我们在来源中消除偏见。 2017年底,一个名为“IEEE关于人工智能和自治系统伦理考虑的全球倡议”的组织创建了一个“古典伦理”委员会,目的是要对像佛教和儒家这样的非西方价值体系进行整理,让对于“应该用怎样的价值观来构建一个有伦理感的人工智能”这一问题的回答更加多元化。或许连人工智能开发人员都会感到惊讶的是,人工智能系统正在为人性提供一面镜子,它反映出我们*好的和*糟糕的一些倾向。
作者简介
雪莉??范,加州大学旧金山分校神经科学家。研究方向为大脑老化和复壮可能性。她同时是一名科普作家,主要关注生物科技、人工智能和神经科学相关的话题,曾在《科学美国人Mind》《探索》《饮食障碍的科学》和《英属哥伦比亚大学医学期刊》等刊物发表大量科普文章。她还是在线刊物《奇点》的特约编辑,该刊物旨在记录科技的进步。
-
鸟与兽的通俗生活
¥11.9¥39.8 -
那颗星星不在星图上-寻找太阳系的疆界
¥7.8¥29.0 -
时间简史(插图版)
¥14.4¥45.0 -
宇宙已知和未知的一切
¥16.3¥48.0 -
雌雄争霸战
¥20.2¥65.0 -
科学全知道-那些古怪有趣的科学现象
¥13.5¥45.0 -
零号病人(新视野人文丛书)
¥22.5¥49.0 -
物理学家的智性冒险
¥15.1¥56.0 -
趣味代数学
¥13.0¥42.0 -
不可思议的科学史/鬼谷藏龙
¥17.7¥56.0 -
数学课 从一到无穷
¥30.6¥68.0 -
科学全知道:那些尖端新奇的科学理论
¥13.5¥45.0 -
物种起源
¥9.0¥36.0 -
你一定要懂的化学知识
¥11.5¥28.0 -
我的世界观
¥9.4¥36.0 -
怪奇问题事件簿
¥14.6¥39.0 -
你一定爱读的古怪科学
¥14.9¥49.8 -
远方的家
¥7.4¥24.8 -
请教机长-关于航空旅行你应该知道的事
¥11.9¥39.8 -
看花是种世界观
¥18.0¥58.0