個人的な学習ニーズがあるため、 Spark
のインストール方法を調べましょうが、個人的な財源のため、まだクラスターに参加していません。まず、スタンドアロンバージョンの Spark
を試してみましょう。後で拡張がある場合は、クラスターインストールチュートリアルを同期的に更新します。
以下のすべての操作は、
root
ユーザーに基づいています。
Spark
は Scala
に依存しているため、 Spark
をインストールする前に Scala
をインストールする必要があります。それでは、まず Scala
をインストールしましょう。まず、[Scala公式ウェブサイト](https://www.scala-lang.org/download/2.12.2.html)にアクセスして、 Scala
の圧縮パッケージをダウンロードします。
次に、圧縮されたパッケージをCentosサーバーにアップロードします。アップロード方法については、ここでは詳しく説明しません。
圧縮されたパッケージを / opt / scala
ディレクトリに置き、解凍します。
解凍コマンド
tar -xvf scala-2.12.2.tgz
/ etc / profile
に環境変数を追加し、 export SCALA_HOME = / opt / scala / scala-2.12.2
を追加し、 path
に$ {SCALA_HOME} / bin:
を追加します。
以下は私の環境変数です。
export JAVA_HOME=/usr/local/java/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export SCALA_HOME=/opt/scala/scala-2.12.2export PATH=${JAVA_HOME}/bin:${SCALA_HOME}/bin:$PATH
次に、 scala
を確認できます。
この時点で、 scala
のインストールが完了し、次のステップは Spark
のインストールです~~~
Scala
と同じように、まず買い物に行ってパッケージをダウンロードしてから、サーバーにアップロードしましょう。
同様に、圧縮パッケージを / opt / spark
ディレクトリに配置し、解凍します。
解凍コマンド
tar -xvf spark-2.4.3-bin-hadoop2.7.tgz
小さな違いと同様に、 / etc / profile
に環境変数を追加し、 export SPARK_HOME = / opt / spark / spark-2.4.3-bin-hadoop2.7
を追加し、 path
に$ {SPARK_HOME} / binを追加します。 :
。
以下は私の環境変数です。
export JAVA_HOME=/usr/local/java/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export SCALA_HOME=/opt/scala/scala-2.12.2export SPARK_HOME=/opt/spark/spark-2.4.3-bin-hadoop2.7export PATH=${JAVA_HOME}/bin:${SPARK_HOME}/bin:${SCALA_HOME}/bin:$PATH
まず、解凍されたファイルの conf
ディレクトリ(/ opt / spark / spark-2.4.3-bin-hadoop2.7 / conf /
)に入ると、テンプレートファイルがあることがわかります。copy
一食分。
cp spark-env.sh.template spark-env.sh
コピーしたファイルを編集し、次のコンテンツを追加します。
export JAVA_HOME=/usr/local/java/jdk1.8.0_221
export SCALA_HOME=/opt/scala/scala-2.12.2export SPARK_HOME=/opt/spark/spark-2.4.3-bin-hadoop2.7export SPARK_MASTER_IP=learn
export SPARK_EXECUTOR_MEMORY=1G
同様に、 slaves
のコピーをコピーします
cp slaves.template slaves
slaves
を編集します。内容は localhost
です。
localhost
次に、次のディレクトリで / opt / spark / spark-2.4.3-bin-hadoop2.7
を実行してテストできます。
. /bin/run-example SparkPi 10
ここで、実行が成功したことがわかります。
上記と同じように、 / opt / spark / spark-2.4.3-bin-hadoop2.7
ディレクトリにもあります。実行します。
. /bin/spark-shell
次の結果を確認できます。
これまでのところ、スタンドアロンバージョンの Spark
がインストールされています~~~
Recommended Posts