×
Spark快速大数据分析

Spark快速大数据分析

1星价 ¥28.9 (4.9折)
2星价¥28.9 定价¥59.0

温馨提示:5折以下图书主要为出版社尾货,大部分为全新(有塑封/无塑封),个别图书品相8-9成新、切口有划线标记、光盘等附件不全详细品相说明>>

图文详情
  • ISBN:9787115403094
  • 装帧:一般胶版纸
  • 册数:暂无
  • 重量:暂无
  • 开本:16开
  • 页数:209
  • 出版时间:2015-09-01
  • 条形码:9787115403094 ; 978-7-115-40309-4

本书特色

本书由 spark 开发者及核心成员共同打造,讲解了网络大数据时代应运而生的、能高效迅捷地分析处理数据的工具——spark,它带领读者快速掌握用 spark 收集、计算、简化和保存海量数据的方法,学会交互、迭代和增量式分析,解决分区、数据本地化和自定义序列化等问题。

内容简介

spark开发者出品! 《spark快速大数据分析》是一本为spark初学者准备的书,它没有过多深入实现细节,而是更多关注上层用户的具体用法。不过,本书绝不仅仅限于spark的用法,它对spark的核心概念和基本原理也有较为全面的介绍,让读者能够知其然且知其所以然。 本书介绍了开源集群计算系统apache spark,它可以加速数据分析的实现和运行。利用spark,你可以用python、java以及scala的简易api来快速操控大规模数据集。 本书由spark开发者编写,可以让数据科学家和工程师即刻上手。你能学到如何使用简短的代码实现复杂的并行作业,还能了解从简单的批处理作业到流处理以及机器学习等应用。

目录

目录推荐序  xi译者序  xiv序  xvi前言  xvii第1章 spark数据分析导论  11.1 spark是什么  11.2 一个大一统的软件栈  21.2.1 spark core  21.2.2 spark sql  31.2.3 spark streaming  31.2.4 mllib  31.2.5 graphx  31.2.6 集群管理器  41.3 spark的用户和用途  41.3.1 数据科学任务  41.3.2 数据处理应用  51.4 spark简史  51.5 spark的版本和发布  61.6 spark的存储层次  6第2章 spark下载与入门  72.1 下载spark  72.2 spark中python和scala的shell  92.3 spark 核心概念简介  122.4 独立应用  142.4.1 初始化sparkcontext  152.4.2 构建独立应用  162.5 总结  19第3章 rdd编程  213.1 rdd基础  213.2 创建rdd  233.3 rdd操作  243.3.1 转化操作  243.3.2 行动操作  263.3.3 惰性求值  273.4 向spark传递函数  273.4.1 python  273.4.2 scala  283.4.3 java  293.5 常见的转化操作和行动操作  303.5.1 基本rdd  303.5.2 在不同rdd类型间转换  373.6 持久化( 缓存)  393.7 总结  40第4章 键值对操作  414.1 动机  414.2 创建pair rdd  424.3 pair rdd的转化操作  424.3.1 聚合操作  454.3.2 数据分组  494.3.3 连接  504.3.4 数据排序  514.4 pair rdd的行动操作  524.5 数据分区(进阶)  524.5.1 获取rdd的分区方式  554.5.2 从分区中获益的操作  564.5.3 影响分区方式的操作  574.5.4 示例:pagerank  574.5.5 自定义分区方式  594.6 总结  61第5章 数据读取与保存  635.1 动机  635.2 文件格式  645.2.1 文本文件  645.2.2 json  665.2.3 逗号分隔值与制表符分隔值  685.2.4 sequencefile  715.2.5 对象文件  735.2.6 hadoop输入输出格式  735.2.7 文件压缩  775.3 文件系统  785.3.1 本地/“常规”文件系统  785.3.2 amazon s3  785.3.3 hdfs  795.4 spark sql中的结构化数据  795.4.1 apache hive  805.4.2 json  805.5 数据库  815.5.1 java数据库连接  815.5.2 cassandra  825.5.3 hbase  845.5.4 elasticsearch  855.6 总结  86第6章 spark编程进阶  876.1 简介  876.2 累加器  886.2.1 累加器与容错性  906.2.2 自定义累加器  916.3 广播变量  916.4 基于分区进行操作  946.5 与外部程序间的管道  966.6 数值rdd 的操作  996.7 总结  100第7章 在集群上运行spark  1017.1 简介  1017.2 spark运行时架构  1017.2.1 驱动器节点  1027.2.2 执行器节点  1037.2.3 集群管理器  1037.2.4 启动一个程序  1047.2.5 小结  1047.3 使用spark-submit 部署应用  1057.4 打包代码与依赖  1077.4.1 使用maven构建的用java编写的spark应用  1087.4.2 使用sbt构建的用scala编写的spark应用  1097.4.3 依赖冲突   1117.5 spark应用内与应用间调度  1117.6 集群管理器  1127.6.1 独立集群管理器  1127.6.2 hadoop yarn  1157.6.3 apache mesos  1167.6.4 amazon ec2  1177.7 选择合适的集群管理器  1207.8 总结  121第8章 spark调优与调试  1238.1 使用sparkconf配置spark  1238.2 spark执行的组成部分:作业、任务和步骤  1278.3 查找信息  1318.3.1 spark网页用户界面  1318.3.2 驱动器进程和执行器进程的日志  1348.4 关键性能考量  1358.4.1 并行度  1358.4.2 序列化格式  1368.4.3 内存管理  1378.4.4 硬件供给  1388.5 总结  139第9章 spark sql  1419.1 连接spark sql  1429.2 在应用中使用spark sql  1449.2.1 初始化spark sql  1449.2.2 基本查询示例  1459.2.3 schemardd  1469.2.4 缓存  1489.3 读取和存储数据  1499.3.1 apache hive  1499.3.2 parquet  1509.3.3 json  1509.3.4 基于rdd  1529.4 jdbc/odbc服务器  1539.4.1 使用beeline  1559.4.2 长生命周期的表与查询  1569.5 用户自定义函数  1569.5.1 spark sql udf  1569.5.2 hive udf  1579.6 spark sql性能  1589.7 总结  159第10章 spark streaming  16110.1 一个简单的例子  16210.2 架构与抽象  16410.3 转化操作  16710.3.1 无状态转化操作  16710.3.2 有状态转化操作  16910.4 输出操作  17310.5 输入源  17510.5.1 核心数据源  17510.5.2 附加数据源  17610.5.3 多数据源与集群规模  17910.6 24/7不间断运行  18010.6.1 检查点机制  18010.6.2 驱动器程序容错  18110.6.3 工作节点容错  18210.6.4 接收器容错  18210.6.5 处理保证  18310.7 streaming用户界面  18310.8 性能考量  18410.8.1 批次和窗口大小  18410.8.2 并行度  18410.8.3 垃圾回收和内存使用  18510.9 总结  185第11章 基于mllib的机器学习  18711.1 概述  18711.2 系统要求  18811.3 机器学习基础  18911.4 数据类型  19211.5 算法  19411.5.1 特征提取  19411.5.2 统计  19611.5.3 分类与回归  19711.5.4 聚类  20211.5.5 协同过滤与推荐  20311.5.6 降维  20411.5.7 模型评估  20611.6 一些提示与性能考量  20611.6.1 准备特征  20611.6.2 配置算法  20711.6.3 缓存rdd以重复使用  20711.6.4 识别稀疏程度  20711.6.5 并行度  20711.7 流水线api  20811.8 总结  209作者简介  210封面介绍  210
展开全部

相关资料

“spark是构建大数据应用流行的框架,而如果有人要我推荐一些指南书籍,《spark快速大数据分析》无疑会排在首位。” ——ben lorica,o'reilly首席数据科学家

作者简介

Holden Karau是Databricks的软件开发工程师,活跃于开源社区。她还著有《Spark快速数据处理》。 Andy Konwinski是Databricks联合创始人,Apache Spark项目技术专家,还是Apache Mesos项目的联合发起人。 Patrick Wendell是Databricks联合创始人,也是Apache Spark项目技术专家。他还负责维护Spark核心引擎的几个子系统。 Matei Zaharia是Databricks的CTO,同时也是Apache Spark项目发起人以及Apache基金会副主席。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航