您好,欢迎访问一九零五行业门户网

apache spark 是什么

spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速。spark非常小巧玲珑,由加州伯克利大学amp实验室的matei为主的小团队所开发。使用的语言是scala,项目的core部分的代码只有63个scala文件,非常短小精悍。
spark 是一种与 hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 spark 在某些工作负载方面表现得更加优越,换句话说,spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
spark 是在 scala 语言中实现的,它将 scala 用作其应用程序框架。与 hadoop 不同,spark 和 scala 能够紧密集成,其中的 scala 可以像操作本地集合对象一样轻松地操作分布式数据集。
尽管创建 spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 hadoop 的补充,可以在 hadoop 文件系统中并行运行。通过名为mesos的第三方集群框架可以支持此行为。spark 由加州大学伯克利分校 amp 实验室 (algorithms, machines, and people lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。
spark 集群计算架构
虽然 spark 与 hadoop 有相似之处,但它提供了具有有用差异的一个新的集群计算框架。首先,spark 是为集群计算中的特定类型的工作负载而设计,即那些在并行操作之间重用工作数据集(比如机器学习算法)的工作负载。为了优化这些类型的工作负载,spark 引进了内存集群计算的概念,可在内存集群计算中将数据集缓存在内存中,以缩短访问延迟。
spark 还引进了名为弹性分布式数据集(rdd) 的抽象。rdd 是分布在一组节点中的只读对象集合。这些集合是弹性的,如果数据集一部分丢失,则可以对它们进行重建。重建部分数据集的过程依赖于容错机制,该机制可以维护 血统(即允许基于数据衍生过程重建部分数据集的信息)。rdd 被表示为一个 scala 对象,并且可以从文件中创建它;一个并行化的切片(遍布于节点之间);另一个 rdd 的转换形式;并且最终会彻底改变现有 rdd 的持久性,比如请求缓存在内存中。
spark 中的应用程序称为驱动程序,这些驱动程序可实现在单一节点上执行的操作或在一组节点上并行执行的操作。与 hadoop 类似,spark 支持单节点集群或多节点集群。对于多节点操作,spark 依赖于 mesos 集群管理器。mesos 为分布式应用程序的资源共享和隔离提供了一个有效平台。该设置充许 spark 与 hadoop 共存于节点的一个共享池中。
更多apache的相关技术文章,请访问apache教程栏目进行学习!
以上就是apache spark 是什么的详细内容。
其它类似信息

推荐信息