当前位置: 首页 > news >正文

网站建设管理工作范文做网站都去哪里找模板

网站建设管理工作范文,做网站都去哪里找模板,网站慢用台服务器做跳板,做网站建多大的画布Hadoop伪分布式安装教程 一、安装背景1.1 软件列表1.2 系统软件列表 二、安装Hadoop2.1 安装 Java 环境2.1.1 前期准备2.1.2 文件传输2.1.3 解压文件2.1.4 配置 jdk 的环境变量2.1.5 输入 java、javac、java -version 命令检验 jdk 是否安装成功 2.2 Hadoop 下载地址[hadoop](h… Hadoop伪分布式安装教程 一、安装背景1.1 软件列表1.2 系统软件列表 二、安装Hadoop2.1 安装 Java 环境2.1.1 前期准备2.1.2 文件传输2.1.3 解压文件2.1.4 配置 jdk 的环境变量2.1.5 输入 java、javac、java -version 命令检验 jdk 是否安装成功 2.2 Hadoop 下载地址[hadoop](https://archive.apache.org/dist/hadoop/common/)hadoop-3.1.3.tar.gz 文件2.2.1 传输文件2.2.2 解压文件2.2.3 进入hadoop2.2.4 将 Hadoop 添加到环境变量2.2.5 测试是否安装成功2.2.6 在伪分布式中我们主要是修改Hadoop的两个配置文件core-site.xml、hdfs-site.xml2.2.7 Hadoop初始化2.2.8 拓展 Hadoop 目录 结构2.2.9 报错 三、安装 hive3.1 文件传输3.2 解压文件3.3 修改名称3.4 修改/etc/profile添加环境变量3.5 初始化元数据库默认是derby数据库 三、MySQL安装1. 安装MySQL1) 安装MySQL服务器2) 安装MySQL客户端3)配置MySQL4) 测试MySQL5配置MySQL6)一些 MySQL 命令7报错解决方法8navicte 连接 四、配置Hive元数据存储到MySQL1. 配置元数据到MySQL1新建Hive元数据库2在$HIVE_HOME/conf目录下新建hive-site.xml文件3初始化Hive元数据库修改为采用MySQL存储元数据4启动Hive5使用Hive6查看MySQL中的元数据 五、Hive服务部署5.1 Hadoop端配置5.2 Hive端配置5.3 测试 一、安装背景 语雀博客地址链接: 《Hadoop伪分布式安装教程》 1.1 软件列表 Unbuntu 24.04LTSjava 1.8Hadoop 3.1.3Hive 3.1.3mysql 8vmware 17profinshell inshell 大数据软件资源链接hadoophivejava1.8mysql8.jar https://pan.baidu.com/s/1k63c-srXl6CQACVyGjhlkg?pwd5vqr 提取码5vqr --来自百度网盘超级会员V6的分享1.2 系统软件列表 openssh-serverssh 连接sudo apt-get install ssh-contact-service ssh 登陆时直接使用 root 最高级别用户登陆即可 教程详见 Linux学习笔记文章第一部分 root权限的设置 Linux学习笔记文章 vim文本编辑sudo apt-get install vimnet-toolsifconfig 查看 IP 地址ip addr 也可以直接查看sudo apt-get install net-tools 二、安装Hadoop 2.1 安装 Java 环境 2.1.1 前期准备 首先在根目录下创建文件夹 Downloads 用来存放传输上来的文件在 opt 目录下创建 module 文件用来存放使用解压出来的大数据软件 pwd可以查看当前的位置信息 # 回到根目录 cd .. # 创建Downloads mkdir Downloads # 去到opt目录下 cd .. cd opt mkdir module2.1.2 文件传输 将 jdk-8u411-linux-x64.tar.gz 安装传到虚拟机上 2.1.3 解压文件 # 解压文件 tar -zxvf jdk-8u411-linux-x64.tar.gz -C /opt/module/ # 进入Java目录并改名 cd /opt/module/ mv jdk1.8.0_411 jdk1.82.1.4 配置 jdk 的环境变量 vim /etc/profile # 添加以下内容 # JAVAHOME export JAVA_HOME/opt/module/jdk1.8 export CLASSPATH.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH$PATH:$JAVA_HOME/bin # 让配置文件生效 source /etc/profile2.1.5 输入 java、javac、java -version 命令检验 jdk 是否安装成功 2.2 Hadoop 下载地址hadoophadoop-3.1.3.tar.gz 文件 2.2.1 传输文件 用文件传输工具将hadoop-3.1.3.tar.gz导入到 Downloads目录里面注意 非 root 用户操作上传文件操作可能会失败 2.2.2 解压文件 # 解压安装文件到/opt/module 下面 tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/ #查看是否解压成功 ls /opt/module/ hadoop-3.1.32.2.3 进入hadoop # 进入hadoop解压位置 cd /opt/module ll # 修改hadoop-3.1.3名字 mv hadoop-3.1.3 hadoop # 进入hadoop-3.1.3 cd hadoop2.2.4 将 Hadoop 添加到环境变量 # 1 打开/etc/profile vim /etc/profile # 2在 my_env.sh 文件末尾添加如下内容 # HADOOP_HOME export HADOOP_HOME/opt/module/hadoop export PATH$PATH:$HADOOP_HOME/bin export PATH$PATH:$HADOOP_HOME/sbin # 3让修改后的文件生效 source /etc/profile2.2.5 测试是否安装成功 hadoop version Hadoop 3.1.3 2.2.6 在伪分布式中我们主要是修改Hadoop的两个配置文件core-site.xml、hdfs-site.xml # 进入到hadoop目录下 cd /opt/module/hadoop # 进入core-site.xml目录 cd ./etc/hadoop # 我们通过执行以下两个命令来实现对core-site.xml配置文件进行修改 vim core-site.xml # 在configuration-/configuration标签中加入以下配置 propertynamehadoop.tmp.dir/namevaluefile:/opt/module/hadoop/tmp/valuedescriptionAbase for other temporary directories./description/property propertynamefs.defaultFS/namevaluehdfs://localhost:9000/value /property # 对hdfs-site.xml配置文件进行修改 vim hdfs-site.xml # 在configuration-/configuration标签中加入以下配置 propertynamedfs.replication/namevalue1/value /property propertynamedfs.namenode.name.dir/namevaluefile:/opt/module/hadoop/tmp/dfs/name/value /property propertynamedfs.datanode.data.dir/namevaluefile:/opt/module/hadoop/tmp/dfs/data/value /property2.2.7 Hadoop初始化 初始化工作比较简单只需要执行以下命令即可 cd /opt/module/hadoop #进入hadoop目录 ./bin/hdfs namenode -format #初始化hadoop成功的话会看到 “successfully formatted” 的提示具体返回信息类似如下初始工作完成之后我们就可以开启Hadoop了具体命令如下 cd /opt/module/hadoop ./sbin/start-dfs.sh #start-dfs.sh是个完整的可执行文件中间没有空格本地 web 访问hadoop虚拟机 web 访问hadoop启动完成后我们可以通过输入jps命令来进行验证Hadoop伪分布式是否配置成功 2.2.8 拓展 Hadoop 目录 结构 bin 目录存放对 Hadoop 相关服务hdfsyarnmapred进行操作的脚本etc 目录Hadoop 的配置文件目录存放 Hadoop 的配置文件lib 目录存放 Hadoop 的本地库对数据进行压缩解压缩功能sbin 目录存放启动或停止 Hadoop 相关服务的脚本share 目录存放 Hadoop 的依赖 jar 包、文档、和官方案例 2.2.9 报错 hadoop 启动时报如下错误 Starting namenodes on [localhost] ERROR: Attempting to operate on hdfs namenode as root ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes ERROR: Attempting to operate on hdfs datanode as root ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation. Starting secondary namenodes [cai4-VMware-Virtual-Platform] ERROR: Attempting to operate on hdfs secondarynamenode as root ERROR: but there is no HDFS_SECONDARYNAMENODE_USER defined. Aborting operation.Starting namenodes on [localhost] localhost: Warning: Permanently added localhost (ED25519) to the list of known hosts. localhost: rootlocalhost: Permission denied (publickey,password). Starting datanodes localhost: rootlocalhost: Permission denied (publickey,password). Starting secondary namenodes [cai4-VMware-Virtual-Platform] cai4-VMware-Virtual-Platform: Warning: Permanently added cai4-vmware-virtual-platform (ED25519) to the list of known hosts. cai4-VMware-Virtual-Platform: rootcai4-vmware-virtual-platform: Permission denied (publickey,password).localhost: ERROR: JAVA_HOME is not set and could not be found. Starting datanodes localhost: ERROR: JAVA_HOME is not set and could not be found. Starting secondary namenodes [cai4-VMware-Virtual-Platform] cai4-VMware-Virtual-Platform: ERROR: JAVA_HOME is not set and could not be found.解决方法 # 输入如下命令在环境变量中添加下面的配置 vi /etc/profile # 然后向里面加入如下的内容 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot export YARN_NODEMANAGER_USERroot # 输入如下命令使改动生效 source /etc/profile//Linux命令---实现SSH免密登录 exit # 退出前面的登录 cd ~/.ssh/ # 若没有该目录请先执行一次ssh localhost ssh-keygen -t rsa # 回车后一直回车直到出现图形化界面 cat ./id_rsa.pub ./authorized_keys # 加入授权# 修改hadoop-env.sh (我的hadoop安装在/usr/local/ 目录下) vim /opt/module/hadoop/etc/hadoop/hadoop-env.sh # 将原本的JAVA_HOME 替换为绝对路径就可以了 #export JAVA_HOME${JAVA_HOME} export JAVA_HOME/opt/module/jdk1.8.三、安装 hive 3.1 文件传输 把 apache-hive-3.1.3-bin.tar.gz上传到Linux的/Downloads 目录下 3.2 解压文件 解压apache-hive-3.1.3-bin.tar.gz到/opt/module/ 目录下面 tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module/3.3 修改名称 修改apache-hive-3.1.3-bin的名称为hive cd /opt/module mv apache-hive-3.1.3-bin hive3.4 修改/etc/profile添加环境变量 vim /etc/profile # 1添加内容 # HIVE_HOME export HIVE_HOME/opt/module/hive export PATH$PATH:$HIVE_HOME/bin source /etc/profile3.5 初始化元数据库默认是derby数据库 cd /opt/module/hive bin/schematool -dbType derby -initSchema报错 Exception in thread main java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)Vat org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)at org.apache.hadoop.mapred.JobConf.setJar(JobConf.java:518)at org.apache.hadoop.mapred.JobConf.setJarByClass(JobConf.java:536)at org.apache.hadoop.mapred.JobConf.init(JobConf.java:430)at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:5144)at org.apache.hadoop.hive.conf.HiveConf.init(HiveConf.java:5107)at org.apache.hive.beeline.HiveSchemaTool.init(HiveSchemaTool.java:96)at org.apache.hive.beeline.HiveSchemaTool.main(HiveSchemaTool.java:1473)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.lang.reflect.Method.invoke(Method.java:498)at org.apache.hadoop.util.RunJar.run(RunJar.java:318)at org.apache.hadoop.util.RunJar.main(RunJar.java:232)原因是hadoop和hive的两个guava.jar版本不一致两个jar位置分别位于下面两个目录 /opt/module/hive/lib/guava-19.0.jar /opt/module/hadoop/share/hadoop/common/lib/guava-27.0-jre.jar # 解决办法是删除低版本的那个将高版本的复制到低版本目录下。 cd /opt/module/hive/lib rm -f guava-19.0.jar cp /opt/module/hadoop/share/hadoop/common/lib/guava-27.0-jre.jar . # 再次运行schematool -dbType derby -initSchema即可成功初始化元数据库。三、MySQL安装 1. 安装MySQL 1) 安装MySQL服务器 apt-get install mysql-server在安装过程中系统将提示您创建root密码。选择一个安全的并确保记住它因为后面需要用到这个密码。 2) 安装MySQL客户端 apt-get install mysql-client3)配置MySQL 运行MySQL初始化安全脚本 mysql_secure_installation4) 测试MySQL 无论你如何安装它MySQL应该已经开始自动运行。要测试它请检查其状态。 systemctl status mysql.service将看到类似于以下内容的输出 5配置MySQL # 更改MySQL密码策略 set global validate_password_policy0; set global validate_password_length1; update user set host% where userroot; ALTER USER root% IDENTIFIED WITH mysql_native_password BY 123456; flush privileges;6)一些 MySQL 命令 # 设置MySQL服务开机自启动 service mysql enable 或 systemctl enable mysql.service # 停止MySQL服务开机自启动 service mysql disable 或 systemctl disable mysql.service # 重启MySQL数据库服务 service mysql restart 或 systemctl restart mysql.service # MySQL的配置文件 vim /etc/mysql/mysql.conf.d/mysqld.cnf7报错 Failed to restart mysqld.service: Unit mysqld.service not found.“The MySQL server is running with the --skip-grant-tables option so it cannot execute”Navicat报错10061ERROR 1819 (HY000): Your password does not satisfy the current policy requirements 解决方法 sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf # bind-address 127.0.0.1 mysql -u root -p use mysql select host,user from user; update user set host% where userroot; flush privileges; grant all privileges on *.* to root%; ALTER USER root% IDENTIFIED WITH mysql_native_password BY root_pwd; ## 授权root远程登录 后面的root_pwd代表登录密码 flush privileges;解决方法 /etc/init.d/mysql startflush privileges; ALTER USER rootlocalhost IDENTIFIED BY 123456;8navicte 连接 四、配置Hive元数据存储到MySQL 1. 配置元数据到MySQL 1新建Hive元数据库 #登录MySQL mysql -uroot -p123456 #创建Hive元数据库 create database metastore; quit;2在$HIVE_HOME/conf目录下新建hive-site.xml文件 vim $HIVE_HOME/conf/hive-site.xml # 添加如下内容 ?xml version1.0? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl?configuration!-- jdbc连接的URL --propertynamejavax.jdo.option.ConnectionURL/namevaluejdbc:mysql://localhost:3306/metastore?useSSLfalse/value/property!-- jdbc连接的Driver--propertynamejavax.jdo.option.ConnectionDriverName/namevaluecom.mysql.jdbc.Driver/value/property!-- jdbc连接的username--propertynamejavax.jdo.option.ConnectionUserName/namevalueroot/value/property!-- jdbc连接的password --propertynamejavax.jdo.option.ConnectionPassword/namevalue123456/value/property!-- Hive默认在HDFS的工作目录 --propertynamehive.metastore.warehouse.dir/namevalue/opt/module/hive/warehouse/value/property /configuration3初始化Hive元数据库修改为采用MySQL存储元数据 cd /opt/module/hive bin/schematool -dbType mysql -initSchema -verbose4启动Hive hive5使用Hive show databases; show tables; create table stu(id int, name string); insert into stu values(1,ss); select * from stu;6查看MySQL中的元数据 查看元数据库中存储的库信息DBS 查看元数据库中存储的表信息TBLS 查看元数据库中存储的表中列相关信息COLUMNS_V2 五、Hive服务部署 5.1 Hadoop端配置 hivesever2的模拟用户功能依赖于Hadoop提供的proxy user代理用户功能只有Hadoop中的代理用户才能模拟其他用户的身份访问Hadoop集群。因此需要将hiveserver2的启动用户设置为Hadoop的代理用户配置方式如下修改配置文件core-site.xml然后记得分发三台机器: cd $HADOOP_HOME/etc/hadoop vim core-site.xml # 增加如下配置 !-- 配置访问hadoop的权限能够让hive访问到 -- propertynamehadoop.proxyuser.root.hosts/namevalue*/value /property propertynamehadoop.proxyuser.root.users/namevalue*/value /property5.2 Hive端配置 在hive-site.xml文件中添加如下配置信息: # 查看主机名 hostname cai4-VMware-Virtual-Platform # 更改主机名 hostnamectl set-hostname hadoop100 # 同步更改/etc/hosts内容 !-- 指定hiveserver2连接的host -- propertynamehive.server2.thrift.bind.host/namevaluehadoop/value /property !-- 指定hiveserver2连接的端口号 -- propertynamehive.server2.thrift.port/namevalue10000/value /property5.3 测试 # 启动hiveserver2 hive --service hiveserver2 # 若报错Error starting HiveServer2 on attempt 1 , will retry in 60000ms # 在 hive-site.xml 中添加如下配置propertynamehive.server2.active.passive.ha.enable/namevaluetrue/valuedescriptionWhether HiveServer2 Active/Passive High Availability be enabled when Hive Interactive sessions are enabled.This will also require hive.server2.support.dynamic.service.discovery to be enabled./description/property # 重新启动hiveserver2服务 hive --service hiveserver2 #使用命令行客户端beeline进行远程访问 启动beeline客户端 beeline -u jdbc:hive2://192.168.191.28:10000 -n root其中hive --service hiveserver2命令启动后界面如下为正常且未连接远程之前皆为正常 # 重启hadoop sbin/stop-all.sh sbin/start-all.sh # 重启hive ps -aux|grep hive 查找进程命令 kill -9 2323 #启动metastore服务 hive --service metastore
http://www.ho-use.cn/article/10812746.html

相关文章:

  • win7如何做网站服务器做销售的什么网站好
  • 新网站的建设工作在网站做淘宝推广
  • php网站开发账号密码查备案网站
  • 星月教你做网站网站目标规划
  • 众搜科技做百度网站文件网站建设
  • 公司网站做的好的网站建设域名备案谁负责
  • 给公司做网站风险网络推广学校培训
  • 网站插件代码下载商丘关键词优化推广
  • 珠海网站建设 amp 超凡科技中国移动积分兑换商城官方网站
  • 高端网站建站建造师人才网
  • 免费源码html网站免费网站模板 带后台
  • 无锡网站制作方案网页如何设计
  • 手机做任务网站北京响应式网站建设公司
  • 广州建设网站专家做网站录入和查询需求
  • 网站做三方登陆需要注册公司不做网站维护工资多少
  • excel网站做链接性价比高seo排名
  • 高端的家居行业网站开发通辽网站建设招聘
  • 深圳建设网站的公司新乡网站建设方案
  • 内蒙古赤峰市建设局网站wordpress页面样板
  • 石狮网站开发如何看一个网站是谁做的
  • 网站建设平台报价做衣服 网站
  • 网站轮播图上海门户网站建设
  • 银行门户网站开发python代码大全
  • 桂林医院网站建设注册域名和购买域名
  • 自己做网站怎么编代码全网响应式网站
  • 网站建设在开封找谁做wordpress菜单栏不显示不出来
  • 玉林住房和城乡建设局网站官网网站建设邯郸
  • 买域名后 怎么做网站南宁建设网站培训
  • 网站后台管理系统需求网站建设温江
  • 聊城网站案例六安公司做网站