做网站常见的语言,关键词设定在网站上,平面设计主要做什么的,整合wordpress和discuz文章目录 1、服务启动2、修改配置3、验证4、开发环境编写代码操作hive 1、服务启动
# 启动hdfs和yarn
start-all.sh
# 日志服务也需要启动一下
mapred --daemon start historyserver
# 启动spark的日志服务
/opt/installs/spark/sbin/start-history-server.sh
#启动hive的meta… 文章目录 1、服务启动2、修改配置3、验证4、开发环境编写代码操作hive 1、服务启动
# 启动hdfs和yarn
start-all.sh
# 日志服务也需要启动一下
mapred --daemon start historyserver
# 启动spark的日志服务
/opt/installs/spark/sbin/start-history-server.sh
#启动hive的metastore服务
h-server start metastore2、修改配置
cd /opt/installs/spark/conf
# 新增hive-site.xml
vi hive-site.xml# 在这个文件中编写如下配置
?xml version1.0?
?xml-stylesheet typetext/xsl hrefconfiguration.xsl?
configurationpropertynamehive.metastore.uris/namevaluethrift://bigdata01:9083/value/property
/configuration# 接着将该文件进行分发
xsync.sh hive-site.xmlxsync是一个自己编写的shell脚本脚本编写详情链接 大数据集群搭建以及使用过程中几个实用的shell脚本
3、验证
linux黑窗口进入spark
/opt/installs/spark/bin/pyspark --master local[2]进入后通过内置对象spark查询hive数据库或者表
spark.sql(show databases).show()
spark.sql(select * from mydb01.student).show()4、开发环境编写代码操作hive
其中环境需要修改成自己的路径
import os
import refrom pyspark.sql import SparkSessionif __name__ __main__:# 配置环境os.environ[JAVA_HOME] D:/devs/javajdk/jdk8# 配置Hadoop的路径就是前面解压的那个路径os.environ[HADOOP_HOME] D:/learn_tools/hadoop-3.3.1# 配置base环境Python解析器的路径os.environ[PYSPARK_PYTHON] D:/learn_apps/anaconda/python.exe # 配置base环境Python解析器的路径os.environ[PYSPARK_DRIVER_PYTHON] D:/learn_apps/anaconda/python.exeos.environ[HADOOP_USER_NAME] rootspark SparkSession \.builder \.appName(HiveAPP) \.master(local[2]) \.config(spark.sql.warehouse.dir, hdfs://node01:9820/user/hive/warehouse) \.config(hive.metastore.uris, thrift://node01:9083) \.config(spark.sql.shuffle.partitions, 2) \.enableHiveSupport() \.getOrCreate()# 查询所有数学课程成绩大于语文课程成绩的学生学号resultDf spark.sql(select * from mydb01.t1)resultDf.show()spark.stop()