SSH Password-less login

作者:Rui 发布时间:September 9, 2015 分类:Linux,CLOUD 浏览:709

工作中有管理多台Linux主机,经常SSH远程登录其他主机,每次输入密码比较麻烦,SSH Password-less login 是解决这个问题比较好的方法之一。该文章记录一下SSH Password-less login 的具体使用步骤。

####设置环境

SSH client : 10.147.15.71
SSH Remote Login Server: 10.147.6.205

该示例中,我们要设置从 IP 71的服务器SSH 自动登录205的服务器

Step 1: 创建 Authentication SSH-Kegen Keys – (10.147.15.71)

# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/xp017734/.ssh/id_rsa): [Press enter key]
Created directory '/home/xp017734/.ssh'.
Enter passphrase (empty for no passphrase): [Press enter key]
Enter same passphrase again: [Press enter key]
Your identification has been saved in /home/xp017734/.ssh/id_rsa.
Your public key has been saved in /home/xp017734/.ssh/id_rsa.pub.
The key fingerprint is:
5f:ad:40:00:8a:d1:9b:99:b3:b0:f8:08:99:c3:ed:d3 xp017734@cbjlx9438
The key's randomart image is:
+--[ RSA 2048]----+
|        ..oooE.++|
|         o. o.o  |
|          ..   . |
|         o  . . o|
|        S .  . + |
|       . .    . o|
|      . o o    ..|
|       + +       |
|        +.       |
+-----------------+

阅读剩余部分...

Hadoop – All specified directories are failed to load

作者:Rui 发布时间:September 9, 2015 分类:JAVA,Hadoop,BIGDATA 浏览:1,306

Exception:

2015-09-22 15:57:54,057 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/data/hdfs/datanode: namenode clusterID = CID-ad31220c-f6e0-4c35-8731-b448f323f208; datanode clusterID = CID-b6802f1e-304b-4df7-8957-23a2958fa83b
2015-09-22 15:57:54,058 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to Master/10.147.6.205:9000. Exiting. 
java.io.IOException: All specified directories are failed to load.

namenode 和 datanode的version 不一致导致的错误

解决办法:

打开 usr/local/hadoop/dfs/datanode/current/VERSION 改变

CID-b6802f1e-304b-4df7-8957-23a2958fa83b

为:

CID-ad31220c-f6e0-4c35-8731-b448f323f208

Tips:

当你重新格式化namenode时,都要重新检查 namenode 和 datanode的version 的是否一致,他们必须要有一致的clusterID和namespaceID 才能够正常启动datanode

java.io.IOException: No FileSystem for scheme: hdfs

作者:Rui 发布时间:September 9, 2015 分类:JAVA,Hadoop,BIGDATA 浏览:1,114

Exception : java.io.IOException: No FileSystem for scheme: hdfs

出现这个错误是因为缺少hadoop-hdfs jar包,在项目中进行如下依赖配置即可

<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-hdfs</artifactId>
    <version>2.5.1</version>
</dependency>

Apache Ivy 简介

作者:Rui 发布时间:September 9, 2015 分类:JAVA,BIGDATA 浏览:1,227

Apache Ivy 一个灵活的包依赖管理软件,主要为Ant 添加包管理的功能。Ivy借助maven2的来解析依赖包。Apache Nutch就是使用该项目 来管理依赖包的。

使用简介

定义Ivy配置文件 Ivy.xml

<ivy-module version="2.0">
    <info organisation="org.apache" module="hello-ivy"/>
    <dependencies>
        <dependency org="commons-lang" name="commons-lang" rev="2.0"/>
        <dependency org="commons-cli" name="commons-cli" rev="1.0"/>
    </dependencies>
</ivy-module>

这样定义依赖和mavenPOM定义的中依赖类似:

<dependency>
    <groupId>commons-lang</groupId>
    <artifactId>commons-lang</artifactId>
    <version>2.0</version>
</dependency>

阅读剩余部分...

Typecho主题: Material

作者:Rui 发布时间:September 9, 2015 分类:WEB 浏览:1,367

下载代码

git clone https://github.com/uidea/typecho-theme-modernist.git themes/modernist

启用

外观 -> Material Theme -> 启用即可