转载

Apache Spark 1.3 发布,开源集群计算环境

3月21日 深圳 OSC 源创会开始报名罗,送华为海思开发板

Apache Spark 1.3 发布,1.3 版本引入了期待已久的 DataFrame API,这是 Spark 的 RDD 抽象设计来简单快速支持大数据集的变革。同时在流转换 ML 和 SQL 的大量提升。

DateFrame API 示例:

# Constructs a DataFrame from a JSON dataset. users = context.load("s3n://path/to/users.json", "json")  # Create a new DataFrame that contains “young users” only young = users.filter(users.age < 21)  # Alternatively, using Pandas-like syntax young = users[users.age < 21]  # DataFrame's support existing RDD operators print("Young users: " + young.count())

详细介绍请看 发行说明 。

Spark 是一种与Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。

Spark 是在Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。

尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoo 文件系统中并行运行。通过名为 Mesos 的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。

Apache Spark 1.3 发布,开源集群计算环境 Apache Spark 1.3 发布,开源集群计算环境

正文到此结束
Loading...