博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
[Spark]Spark RDD 指南一 引入Spark
阅读量:6884 次
发布时间:2019-06-27

本文共 1286 字,大约阅读时间需要 4 分钟。

2.3.0版本

1. Java版

Spark 2.1.1适用于Java 7及更高版本。 如果您使用的是Java 8,则Spark支持使用lambda表达式来简洁地编写函数,否则可以使用org.apache.spark.api.java.function包中的类。

请注意,从Spark 2.0.0开始,不支持Java 7,并且可能会在Spark 2.2.0中删除(Note that support for Java 7 is deprecated as of Spark 2.0.0 and may be removed in Spark 2.2.0)。

要在Java中编写Spark应用程序,您需要在Spark上添加依赖关系。 Spark可通过Maven 仓库获得:

groupId = org.apache.sparkartifactId = spark-core_2.11version = 2.1.0

另外,如果希望访问HDFS集群,则需要根据你的HDFS版本添加hadoop-client的依赖:

groupId = org.apache.hadoopartifactId = hadoop-clientversion = 

最后,您需要将一些Spark类导入到程序中。 添加以下行:

import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;

2. Scala版

默认情况下,Spark 2.1.1在Scala 2.11上构建并分布式运行(Spark 2.1.1 is built and distributed to work with Scala 2.11 by default)。 (Spark可以与其他版本的Scala一起构建。)要在Scala中编写应用程序,您将需要使用兼容的Scala版本(例如2.11.X)。

要在Java中编写Spark应用程序,您需要在Spark上添加依赖关系。 Spark可通过Maven 仓库获得:

groupId = org.apache.sparkartifactId = spark-core_2.11version = 2.1.1

另外,如果希望访问HDFS集群,则需要根据你的HDFS版本添加hadoop-client的依赖:

groupId = org.apache.hadoopartifactId = hadoop-clientversion = 

最后,您需要将一些Spark类导入到程序中。 添加以下行:

import org.apache.spark.SparkContextimport org.apache.spark.SparkConf

备注

在Spark 1.3.0之前,您需要显式导入org.apache.spark.SparkContext._才能启用基本的隐式转换。

原文:

转载地址:http://kbibl.baihongyu.com/

你可能感兴趣的文章
普通PC机上安装XenServer
查看>>
fuse-dfs的设定手册
查看>>
SharePoint 2010 & Office 2010 reach RTM !
查看>>
Vmware vSphere 5.0实战教程之二 vMotion及Storage vMotion实战
查看>>
你的Winxp是不是原版,一看就知
查看>>
C# 8.0的三个令人兴奋的新特性
查看>>
关于ip_conntrack跟踪连接满导致网络丢包问题的分析
查看>>
烂泥:linux学习之VNC远程控制(一)
查看>>
IT技术晋级之路-VM中系统安装
查看>>
SNIA持久化内存峰会:虚拟机、数据库、SDS进展曝光
查看>>
[Android]AndroidInject增加sqlite3数据库映射注解(ORM)
查看>>
Oracle RAC负载均衡和透明应用失败切换的配置和测试过程(二、配置实例)
查看>>
xhEditor for .net (支持上传,远程抓图)
查看>>
bleve搜索引擎是支持基于field搜索的
查看>>
CVS配置
查看>>
SharePoint 2013中的爬网最佳做法
查看>>
汉字转换为拼音以及缩写(javascript)
查看>>
Python中使用自定义类class作为海量数据结构时内存占用巨大的问题
查看>>
explain
查看>>
在纯AS工程中嵌入个别字体方法 (转载)
查看>>