HA高可用集群部署_热点
注意:需要安装jdk,但jdk已经在第4章装过,这里直接装zookeeper
(资料图)
#解压并安装zookeeper[root@master ~]# lsanaconda-ks.cfgapache-hive-2.0.0-bin.tar.gzhadoop-2.7.1.tar.gzjdk-8u152-linux-x64.tar.gzmysql-community-client-5.7.18-1.el7.x86_64.rpmmysql-community-common-5.7.18-1.el7.x86_64.rpmmysql-community-devel-5.7.18-1.el7.x86_64.rpmmysql-community-libs-5.7.18-1.el7.x86_64.rpmmysql-community-server-5.7.18-1.el7.x86_64.rpmmysql-connector-java-5.1.46.jarsqoop-1.4.7.bin__hadoop-2.6.0.tar.gzzookeeper-3.4.8.tar.gz[root@master ~]# tar xf zookeeper-3.4.8.tar.gz -C /usr/local/src/[root@master ~]# cd /usr/local/src/[root@master src]# lshadoop hive jdk sqoop zookeeper-3.4.8[root@master src]# mv zookeeper-3.4.8 zookeeper[root@master src]# lshadoop hive jdk sqoop zookeeper
创建zookeeper数据目录[root@master src]# mkdir /usr/local/src/zookeeper/data[root@master src]# mkdir /usr/local/src/zookeeper/logs
配置环境变量[root@master src]# vi /etc/profile.d/zookeeper.shexport ZK_HOME=/usr/local/src/zookeeperexport PATH=$PATH:$ZK_HOME/bin
修改zoo.cfg配置文件[root@master src]# cd /usr/local/src/zookeeper/conf/[root@master conf]# lsconfiguration.xsl log4j.properties zoo_sample.cfg[root@master conf]# cp zoo_sample.cfg zoo.cfg [root@master conf]# vi zoo.cfg #修改dataDir=/usr/local/src/zookeeper/data#增加dataLogDir=/usr/local/src/zookeeper/logsserver.1=master:2888:3888server.2=slave1:2888:3888server.3=slave2:2888:3888
创建myid配置文件[root@master conf]# cd ..[root@master zookeeper]# cd data/[root@master data]# echo "1" > myid
分发Zookeeper集群配置文件#发送环境变量文件到slave1,slave2[root@master data]# scp -r /etc/profile.d/zookeeper.sh slave1:/etc/profile.d/[root@master data]# scp -r /etc/profile.d/zookeeper.sh slave2:/etc/profile.d/#发送zookeeper配置文件到slave1,slave2[root@master ~]# scp -r /usr/local/src/zookeeper/ slave1:/usr/local/src/[root@master ~]# scp -r /usr/local/src/zookeeper/ slave2:/usr/local/src/
修改myid配置#slave1[root@slave1 ~]# echo "2" > /usr/local/src/zookeeper/data/myid #slave2[root@slave2 ~]# echo "3" > /usr/local/src/zookeeper/data/myid #查看3个节点[root@master ~]# cat /usr/local/src/zookeeper/data/myid 1[root@slave1 ~]# cat /usr/local/src/zookeeper/data/myid 2[root@slave2 ~]# cat /usr/local/src/zookeeper/data/myid 3
修改文件所属权限[root@master ~]# chown -R hadoop.hadoop /usr/local/src/[root@slave1 ~]# chown -R hadoop.hadoop /usr/local/src/[root@slave2 ~]# chown -R hadoop.hadoop /usr/local/src/
查看防火墙和selinux,如果没关就关掉#以master为例,slave1,slave2同样要做[root@master ~]# systemctl disable --now firewalld[root@master ~]# systemctl status firewalld● firewalld.service - firewalld - dynamic firewall daemon Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; ve> Active: inactive (dead) Docs: man:firewalld(1)[root@master ~]# vi /etc/selinux/config SELINUX=disabled
切换hadoop用户,启动zookeeper[root@master ~]# su - hadoop[root@slave1 ~]# su - hadoop[root@slave2 ~]# su - hadoop#启动zookeeper[hadoop@master ~]$ zkServer.sh startZooKeeper JMX enabled by defaultUsing config: /usr/local/src/zookeeper/bin/../conf/zoo.cfgStarting zookeeper ... STARTED[hadoop@master ~]$ zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /usr/local/src/zookeeper/bin/../conf/zoo.cfgMode: follower[hadoop@slave1 ~]$ zkServer.sh startZooKeeper JMX enabled by defaultUsing config: /usr/local/src/zookeeper/bin/../conf/zoo.cfgStarting zookeeper ... STARTED[hadoop@slave1 ~]$ zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /usr/local/src/zookeeper/bin/../conf/zoo.cfgMode: leader[hadoop@slave2 ~]$ zkServer.sh startZooKeeper JMX enabled by defaultUsing config: /usr/local/src/zookeeper/bin/../conf/zoo.cfgStarting zookeeper ... STARTED[hadoop@slave2 ~]$ zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /usr/local/src/zookeeper/bin/../conf/zoo.cfgMode: follower
查看集群[hadoop@master ~]$ jps1522 QuorumPeerMain1579 Jps[hadoop@slave1 ~]$ jps1368 Jps1309 QuorumPeerMain[hadoop@slave2 ~]$ jps1330 QuorumPeerMain1387 Jps
Hadoop HA集群部署注意:ssh免密登录在第4章已经配过,这里直接配HA
配置密钥加几条:
将masterr创建的公钥发给slave1
[hadoop@master ~]$ scp ~/.ssh/authorized_keys root@slave1:~/.ssh/root@slave1"s password: authorized_keys 100% 567 672.2KB/s 00:00
将slave1的私钥加到公钥里
[hadoop@slave1 ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
将公钥发给slave2,master
[hadoop@slave1 ~]$ ssh-copy-id slave2[hadoop@slave1 ~]$ ssh-copy-id master
删除第4章安装的hadoop#删除环境变量,三个节点都要做[root@master ~]# rm -rf /etc/profile.d/hadoop.sh[root@slave1 ~]# rm -rf /etc/profile.d/hadoop.sh[root@slave2 ~]# rm -rf /etc/profile.d/hadoop.sh#删除hadoop[root@master ~]# rm -rf /usr/local/src/hadoop/[root@slave1 ~]# rm -rf /usr/local/src/hadoop/[root@slave2 ~]# rm -rf /usr/local/src/hadoop/
配置hadoop环境变量[root@master ~]# vi /etc/profile.d/hadoop.shexport HADOOP_HOME=/usr/local/src/hadoopexport HADOOP_PREFIX=$HADOOP_HOMEexport HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_INSTALL=$HADOOP_HOMEexport HADOOP_OPTS="Djava.library.path=$HADOOP_INSTALL/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport JAVA_HOME=/usr/local/src/jdkexport PATH=$PATH:$JAVA_HOME/binexport ZK_HOME=/usr/local/src/zookeeperexport PATH=$PATH:$ZK_HOME/bin
配置 hadoop-env.sh 配置文件[root@master ~]# tar -xf hadoop-2.7.1.tar.gz -C /usr/local/src/[root@master ~]# mv /usr/local/src/hadoop-2.7.1/ /usr/local/src/hadoop[root@master ~]# cd /usr/local/src/hadoop/etc/hadoop/[root@master hadoop]# vi hadoop-env.sh #在最下面添加如下配置:export JAVA_HOME=/usr/local/src/jdk
配置 core-site.xml 配置文件[root@master hadoop]# vi core-site.xml fs.defaultFS hdfs://mycluster hadoop.tmp.dir file:/usr/local/src/hadoop/tmp ha.zookeeper.quorum master:2181,slave1:2181,slave2:2181 ha.zookeeper.session-timeout.ms 30000 ms fs.trash.interval 1440
配置 hdfs-site.xml 配置文件[root@master hadoop]# vi hdfs-site.xml dfs.qjournal.start-segment.timeout.ms 60000 dfs.nameservices mycluster dfs.ha.namenodes.mycluster master,slave1 dfs.namenode.rpc-address.mycluster.master master:8020 dfs.namenode.rpc-address.mycluster.slave1 slave1:8020 dfs.namenode.http-address.mycluster.master master:50070 dfs.namenode.http-address.mycluster.slave1 slave1:50070 dfs.namenode.shared.edits.dir qjournal://master:8485;slave1:8485;slave2:8485/mycluster dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence shell(/bin/true) dfs.permissions.enabled false dfs.support.append true dfs.ha.fencing.ssh.private-key-files /root/.ssh/id_rsa dfs.replication 2 dfs.namenode.name.dir /usr/local/src/hadoop/tmp/hdfs/nn dfs.datanode.data.dir /usr/local/src/hadoop/tmp/hdfs/dn dfs.journalnode.edits.dir /usr/local/src/hadoop/tmp/hdfs/jn dfs.ha.automatic-failover.enabled true dfs.webhdfs.enabled true dfs.ha.fencing.ssh.connect-timeout 30000 ha.failover-controller.cli-check.rpc-timeout.ms 60000
配置mapred-site.xml配置文件[root@master ~]# cd /usr/local/src/hadoop/etc/hadoop/[root@master hadoop]# cp mapred-site.xml.template mapred-site.xml mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888
配置yarn-site.xml配置文件 yarn.resourcemanager.ha.enabled true yarn.resourcemanager.cluster-id yrc yarn.resourcemanager.ha.rm-ids rm1,rm2 yarn.resourcemanager.hostname.rm1 master yarn.resourcemanager.hostname.rm2 slave1 yarn.resourcemanager.zk-address master:2181,slave1:2181,slave2:2181 yarn.nodemanager.aux-services mapreduce_shuffle yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 86400 yarn.resourcemanager.recovery.enabled true yarn.resourcemanager.store.class org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
配置slaves配置文件[root@master hadoop]# vi slaves#删除localhost添加以下masterslave1slave2
创建数据存放目录#namenode、datanode、journalnode 等存放数据的公共目录为/usr/local/src/hadoop/tmp[root@master hadoop]# mkdir -p /usr/local/src/hadoop//tmp/hdfs/{nn,dn,jn}[root@master hadoop]# mkdir -p /usr/local/src/hadoop/tmp/logs
分发文件到其他节点#分发环境变量文件[root@master hadoop]# scp -r /etc/profile.d/hadoop.sh slave1:/etc/profile.d/hadoop.sh 100% 601 496.6KB/s 00:00 [root@master hadoop]# scp -r /etc/profile.d/hadoop.sh slave2:/etc/profile.d/hadoop.sh 100% 601 314.7KB/s 00:00 #分发hadoop配置目录[root@master hadoop]# scp -r /usr/local/src/hadoop/ slave1:/usr/local/src/[root@master hadoop]# scp -r /usr/local/src/hadoop/ slave2:/usr/local/src/
修改目录所有者和所有者组[root@master ~]# chown -R hadoop.hadoop /usr/local/src/[root@slave1 ~]# chown -R hadoop.hadoop /usr/local/src/[root@slave2 ~]# chown -R hadoop.hadoop /usr/local/src/
生效环境变量#在切换hadoop用户时会自动导入,为了以防万一,还是手动source一下[root@master ~]# source /etc/profile.d/hadoop.sh [root@slave1 ~]# source /etc/profile.d/hadoop.sh [root@slave2 ~]# source /etc/profile.d/hadoop.sh
HA高可用集群启动HA的启动启动journalnode守护进程#切换hadoop用户[hadoop@master ~]$ hadoop-daemons.sh start journalnodemaster: starting journalnode, logging to /usr/local/src/hadoop/logs/hadoop-hadoop-journalnode-master.outslave1: starting journalnode, logging to /usr/local/src/hadoop/logs/hadoop-hadoop-journalnode-slave1.outslave2: starting journalnode, logging to /usr/local/src/hadoop/logs/hadoop-hadoop-journalnode-slave2.out
初始化namenode[hadoop@master ~]$ hdfs namenode -format............23/05/28 13:58:27 INFO namenode.FSImage: Allocated new BlockPoolId: BP-793703415-192.168.88.10-168525350764723/05/28 13:58:27 INFO common.Storage: Storage directory /usr/local/src/hadoop/tmp/hdfs/nn has been successfully formatted.23/05/28 13:58:28 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 023/05/28 13:58:28 INFO util.ExitUtil: Exiting with status 023/05/28 13:58:28 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************SHUTDOWN_MSG: Shutting down NameNode at master/192.168.88.10************************************************************/
注册ZNode#要先启动zookeeper不然会报错[hadoop@master ~]$ zkServer.sh start[hadoop@slave1 ~]$ zkServer.sh start[hadoop@slave2 ~]$ zkServer.sh start[hadoop@master ~]$ hdfs zkfc -formatZK......23/05/28 14:01:08 INFO zookeeper.ClientCnxn: Opening socket connection to server slave2/192.168.88.30:2181. Will not attempt to authenticate using SASL (unknown error)23/05/28 14:01:08 INFO zookeeper.ClientCnxn: Socket connection established to slave2/192.168.88.30:2181, initiating session23/05/28 14:01:08 INFO zookeeper.ClientCnxn: Session establishment complete on server slave2/192.168.88.30:2181, sessionid = 0x38860f220b90000, negotiated timeout = 3000023/05/28 14:01:08 INFO ha.ActiveStandbyElector: Successfully created /hadoop-ha/mycluster in ZK.23/05/28 14:01:08 INFO ha.ActiveStandbyElector: Session connected.23/05/28 14:01:08 INFO zookeeper.ZooKeeper: Session: 0x38860f220b90000 closed23/05/28 14:01:08 INFO zookeeper.ClientCnxn: EventThread shut down
启动hdfs[hadoop@master ~]$ start-all.sh
同步master数据#复制 namenode 元数据到其它节点(在 master 节点执行)[hadoop@master ~]$ scp -r /usr/local/src/hadoop/tmp/hdfs/nn/* slave1:/usr/local/src/hadoop/tmp/hdfs/nn/VERSION 100% 204 189.8KB/s 00:00 seen_txid 100% 2 1.3KB/s 00:00 fsimage_0000000000000000000.md5 100% 62 38.1KB/s 00:00 fsimage_0000000000000000000 100% 353 378.0KB/s 00:00 edits_inprogress_0000000000000000001 100% 1024KB 5.0MB/s 00:00 in_use.lock 100% 11 6.4KB/s 00:00 [hadoop@master ~]$ scp -r /usr/local/src/hadoop/tmp/hdfs/nn/* slave2:/usr/local/src/hadoop/tmp/hdfs/nn/VERSION 100% 204 294.1KB/s 00:00 seen_txid 100% 2 2.2KB/s 00:00 fsimage_0000000000000000000.md5 100% 62 65.8KB/s 00:00 fsimage_0000000000000000000 100% 353 554.6KB/s 00:00 edits_inprogress_0000000000000000001 100% 1024KB 6.7MB/s 00:00 in_use.lock 100% 11 8.9KB/s 00:00
在slave1上启动resourcemanager和namenode进程[hadoop@slave1 ~]$ yarn-daemons.sh start resourcemanager[hadoop@slave1 ~]$ hadoop-daemon.sh start namenode[hadoop@slave1 ~]$ jps1489 JournalNode1841 DFSZKFailoverController1922 NodeManager2658 NameNode2738 Jps1702 DataNode2441 ResourceManager1551 QuorumPeerMain
启动MapReduce任务历史服务器[hadoop@master ~]$ yarn-daemon.sh start proxyserverstarting proxyserver, logging to /usr/local/src/hadoop/logs/yarn-hadoop-proxyserver-master.out[hadoop@master ~]$ mr-jobhistory-daemon.sh start historyserverstarting historyserver, logging to /usr/local/src/hadoop/logs/mapred-hadoop-historyserver-master.out
查看端口和进程[hadoop@master ~]$ jps3297 JobHistoryServer2260 DataNode2564 DFSZKFailoverController2788 NodeManager2678 ResourceManager2122 NameNode3371 Jps1727 JournalNode1919 QuorumPeerMain[hadoop@slave1 ~]$ jps1489 JournalNode1841 DFSZKFailoverController1922 NodeManager2658 NameNode2738 Jps1702 DataNode2441 ResourceManager1551 QuorumPeerMain[hadoop@slave2 ~]$ jps1792 NodeManager1577 QuorumPeerMain2282 Jps1515 JournalNode1647 DataNode
查看网页显示master:50070
slave1:50070
master:8088
HA的测试创建一个测试文件[hadoop@master ~]$ vi rainmom.txtHello WorldHello Hadoop
在hdfs创建文件夹[hadoop@master ~]$ hadoop fs -mkdir /input
将rainmom.txt传输到input上[hadoop@master ~]$ hadoop fs -put ~/rainmom.txt /input
进入到jar包测试文件目录下,测试mapreduce[hadoop@master ~]$ cd /usr/local/src/hadoop/share/hadoop/mapreduce/[hadoop@master mapreduce]$ hadoop jar hadoop-mapreduce-examples-2.7.1.jar wordcount /input/rainmom.txt /output.....23/05/28 14:35:37 INFO mapreduce.Job: Running job: job_1685253795384_000123/05/28 14:35:48 INFO mapreduce.Job: Job job_1685253795384_0001 running in uber mode : false23/05/28 14:35:48 INFO mapreduce.Job: map 0% reduce 0%23/05/28 14:35:57 INFO mapreduce.Job: map 100% reduce 0%23/05/28 14:36:09 INFO mapreduce.Job: map 100% reduce 100%23/05/28 14:36:10 INFO mapreduce.Job: Job job_1685253795384_0001 completed successfully....
查看hdfs下的传输结果[hadoop@master ~]$ hadoop fs -ls -R /output-rw-r--r-- 2 hadoop supergroup 0 2023-05-28 14:36 /output/_SUCCESS-rw-r--r-- 2 hadoop supergroup 25 2023-05-28 14:36 /output/part-r-00000
查看文件测试的结果[hadoop@master ~]$ hadoop fs -cat /output/part-r-00000Hadoop1Hello2World1
高可用性验证自动切换服务状态#格式:hdfs haadmin -failover --forcefence --forceactive 主 备[hadoop@master ~]$ hdfs haadmin -failover --forcefence --forceactive slave1 master#这里注意一点,执行这条命令,会出现:forcefence and forceactive flagsnot supported with auto-failover enabled.的提示,这句话表示,配置了自动切换之后,就不能进行手动切换了,故此次切换失败, 该意思是在配置故障自动切换(dfs.ha.automatic-failover.enabled=true)之后,无法手动进行,可将该参数更改为false(不需要重启进程)后,重新执行该命令即可。# dfs.ha.automatic-failover.enabled参数需要在hdfs-site.xml或者core-site.xml中修改[hadoop@master ~]$ vi /usr/local/src/hadoop/etc/hadoop/hdfs-site.xml dfs.ha.automatic-failover.enabled true #查看状态[hadoop@master ~]$ hdfs haadmin -getServiceState slave1standby[hadoop@master ~]$ hdfs haadmin -getServiceState masteractive
手动切换服务状态#在 maste 停止并启动 namenode[hadoop@master ~]$ hadoop-daemon.sh stop namenodestopping namenode#查看状态[hadoop@master ~]$ hdfs haadmin -getServiceState master23/05/28 14:53:55 INFO ipc.Client: Retrying connect to server: master/192.168.88.10:8020. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=1, sleepTime=1000 MILLISECONDS)Operation failed: Call From master/192.168.88.10 to master:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused[hadoop@master ~]$ hdfs haadmin -getServiceState slave1active#重新启动[hadoop@master ~]$ hadoop-daemon.sh start namenodestarting namenode, logging to /usr/local/src/hadoop/logs/hadoop-hadoop-namenode-master.out#再次查看状态[hadoop@master ~]$ hdfs haadmin -getServiceState slave1active[hadoop@master ~]$ hdfs haadmin -getServiceState masterstandby
查看web服务端master:50070
slave1:50070
标签:
-
2023-05-28 21:14:04
HA高可用集群部署_热点<
HA高可用集群部署 高可用ZooKeeper集群部署 zookeeper安装部署注意:需要安装jdk,但jdk已经在第4章装
-
2023-05-28 21:04:59
河南你早丨河南连发暴雨预警;周口市2县1区发布最新人事任免;苹果将关闭“我的照片流”服务<
⭐河南连发暴雨预警!气象、交通、应急管理等多部门发布紧急提醒。⭐5月27日,河南省自然资源厅和河南省气
-
2023-05-28 19:28:35
pantone中文什么意思(pantone什么意思)-热议<
关于pantone中文什么意思,pantone什么意思这个很多人还不知道,现在让我们一起来看看吧!1、专色。2、
-
2023-05-28 18:14:50
丰田新一代C-HR最新谍照 设计更时髦/年内发布<
近日,我们从外媒获得一组丰田新一代C-HR的最新测试谍照。新车将采用全新的设计语言,并在年内发布。C-HR是
-
2023-05-28 17:18:42
活动预告|2023年科技工作者日暨北京市科协成立60周年专场演出-当前视点<
专场演出2023年科技工作者日暨北京市科协成立60周年2023年5月30日全国科技工作者日当晚,市科协将举办专场
-
2023-05-28 21:14:04
HA高可用集群部署_热点
HA高可用集群部署 高可用ZooKeeper集群部署 zookeeper安装部署注意:需要安装jdk,但jdk已经在第4章装
-
2023-05-28 21:04:59
河南你早丨河南连发暴雨预警;周口市2县1区发布最新人事任免;苹果将关闭“我的照片流”服务
⭐河南连发暴雨预警!气象、交通、应急管理等多部门发布紧急提醒。⭐5月27日,河南省自然资源厅和河南省气
-
2023-05-28 20:35:22
新华全媒+丨11年过去了,那些爬悬崖天梯上学的孩子们长大了
拼版照片:上图为2023年5月20日,蒙俐谷在大化瑶族自治县第二中学高二年级教室里学习(新华社记者胡星宇摄
-
2023-05-28 19:28:35
pantone中文什么意思(pantone什么意思)-热议
关于pantone中文什么意思,pantone什么意思这个很多人还不知道,现在让我们一起来看看吧!1、专色。2、
-
2023-05-28 19:38:33
当前消息!《英雄联盟》2023LPL夏季赛宣传片 战队海报公开!
《英雄联盟》赛事官方今天(5月28日)公开了2023LPL夏季赛宣传片“ThePowerofY
-
2023-05-28 18:14:50
丰田新一代C-HR最新谍照 设计更时髦/年内发布
近日,我们从外媒获得一组丰田新一代C-HR的最新测试谍照。新车将采用全新的设计语言,并在年内发布。C-HR是
-
2023-05-28 18:25:49
the rain久石让纯音乐 therain久石让免费下载 全球热文
今天来聊聊关于the,rain久石让纯音乐,therain久石让免费下载的文章,现在就为大家来简单介绍下the,rain
-
2023-05-28 17:18:42
活动预告|2023年科技工作者日暨北京市科协成立60周年专场演出-当前视点
专场演出2023年科技工作者日暨北京市科协成立60周年2023年5月30日全国科技工作者日当晚,市科协将举办专场
-
2023-05-28 17:15:53
每日讯息!孙颖莎4比0打哭早田希娜!赛后受访感动日乒新一姐,日本队服气了
孙颖莎4比0打哭早田希娜!赛后受访感动日乒新一姐,日本队服气了,国乒,日乒,八强,孙颖莎,奥运会,世乒赛,早
-
2023-05-28 16:19:57
部落与弯刀攻略毒蝎比武大会(天神比武大会一周只能打一次)
1、25级暗月飞艇×1技能选择飞弹和诱饵 25级熊猫人水灵×1技能选择水流喷射、湍流漩涡和喷泉 25级
-
2023-05-28 16:24:23
上将廖锡龙被双开 廖锡龙贪了多少钱
今天来聊聊关于上将廖锡龙被双开,廖锡龙贪了多少钱的文章,现在就为大家来简单介绍下上将廖锡龙被双开,廖
-
2023-05-28 15:24:46
高温惊厥后脑电图会异常吗(高温惊厥)
1、根据症状及发病原因考虑是由于高热引起的热痉挛是小儿发热易引起的并发症建议定期做脑电图检查排除癫痫
-
2023-05-28 15:09:02
干洗是怎么洗的为啥表面不干净(干洗是怎么洗的)
诸多的对于干洗是怎么洗的为啥表面不干净,干洗是怎么洗的这个问题都颇为感兴趣的,为大家梳理了下
-
2023-05-28 14:17:39
校企合作的优势对企业而言 校企合作的优势-当前速讯
今天来聊聊关于校企合作的优势对企业而言,校企合作的优势的文章,现在就为大家来简单介绍下校企合作的优势
-
2023-05-28 14:03:01
世界关注:分析人士:美债务危机是“寅吃卯粮”所致 积重难返
美国债务危机引起了国际社会的广泛关注。分析人士认为,美国债务危机是美国“寅吃卯粮”、历届政府长期管理
-
2023-05-28 13:41:06
EYRC Architects的Spring Road房子沿着树木繁茂的加州山顶走下去 天天新要闻
这座位于旧金山附近的房子是用陶土和玻璃包裹的堆积的盒子,美国工作室EYRCArchitects设计的这个房子是为企业
-
2023-05-28 13:36:30
每日动态!“良友”回归!一幅海派都市生活长卷在这里展开
“作为中国近现代第一本大型综合性彩色画报,《良友》汇聚承载了中国现代城市文明孕育与发展的几乎所有社会
-
2023-05-28 12:42:06
如何满足多样化养老需求?这是“上海方案”→|世界新视野
前不久,刚刚公布的截止到去年年底的数据显示,上海户籍人口当中,60岁以上人口占总人口的比例已经达到
-
2023-05-28 12:41:28
对方全责保险理赔流程怎么走_对方全责保险理赔流程
1、方法全责的情况下,损失应当由全责方承担。2、双方事故需要在事故现场打110处理,通常打110后交警会给出
-
2023-05-28 11:33:45
天天关注:注意!达州4县(市、区)未来24小时有地质灾害气象预警
注意!达州4县(市、区)未来24小时有地质灾害气象预警
-
2023-05-28 11:48:14
GPT的背后,从命运多舛到颠覆世界,人工神经网络的跌宕80年 信息
ChatGPT等大型语言预训练神经网络模型已经成为广为人知的名字,GPT背后的算法内核——人工神经网络算法,却
-
2023-05-28 11:09:41
2023中关村论坛|点绿成金-环球讯息
当经济增长从单纯的要素驱动变成科技创新驱动,高质量发展成为时代的主题,践行“双碳”正在推动一场深刻的
-
2023-05-28 10:44:33
“节”尽所能呵护绿色琴岛 鼓浪屿内厝社区开展垃圾分类主题宣传
垃圾分类宣传融入趣味互动游戏。26日上午,根据首届全国城市生活垃圾分类宣传周活动要求,围绕“让垃圾分类
-
2023-05-28 09:50:16
社保卡有四种颜色?人社部:莫信!均为误读!
近日,网上频频出现“社保卡有四种颜色”的“科普”↓这些“科普”称社保卡有四种颜色针对的人群不同,功能
-
2023-05-28 10:01:58
花翅小卷蛾属-环球看点
1、花翅小卷蛾属(学名:Lobesia)是鳞翅目卷蛾科新小卷蛾亚科新小卷蛾族的一个属。以上就是【花翅小卷蛾属
-
2023-05-28 09:41:03
泰安市岱岳区做强工匠品牌 助力新型工业化建设
齐鲁网·闪电新闻5月26日讯 5月26日,泰安市岱岳区人民政府新闻办公室召开新闻发布会,岱岳区总工会有关负
-
2023-05-28 09:24:29
德兴市气象台发布高温黄色预警信号【III级/较重】【2023-05-27】
德兴市气象台2023年05月27日11时21分发布高温黄色预警信号:预计未来三天,昄大乡、大茅山镇、海口镇、花桥
-
2023-05-28 08:30:20
市、县纪检监察机关联合大接访 践初心听民声解民忧
为进一步畅通纪检监察信访举报渠道,推进纪检监察机关干部深入基层开展领导接访、带信下访、重点回访、调研
-
2023-05-28 08:32:31
丰顺县新时代文明实践暨省计生协青春健康送课活动走进大同学校_焦点滚动
5月25日,由省计生协指导,县新时代文明实践志愿服务总队主办,县卫健局、团县委、县教育局、县计生协、县
-
2023-05-28 06:56:33
八号当铺第一部结局_八号当铺第一部|全球短讯
1、韩诺从典当柜中取领万长寿的五十年寿命和孙卓的爱情,他决定带着这些典当物为孙卓最后一次圆梦。2、另一
-
特写:风吹稻香忆袁老——袁隆平逝世一周年的墓前追思
2022-05-23 16:13:29 -
北京5月21日区域核酸筛查初筛10管混采阳性
2022-05-23 16:13:29 -
北京两地由高风险降为中风险 一地降为低风险地区
2022-05-23 16:13:29 -
5月21日15时至22日15时,北京新增本土新冠肺炎病毒感染者94例
2022-05-23 16:13:29 -
108岁病人顺利出院,瑞金医院卢湾分院已收治10位百岁老人
2022-05-23 16:13:29 -
生态花园助力乡村振兴 重庆小山村展现“乡土美学”
2022-05-23 16:13:29 -
上海金山政务服务场所逐步恢复服务
2022-05-23 16:13:29