lushan 使用方法步骤部署lushan访问示例生成数据脚本转化MapReduce直接生成支持命令 介绍
lushan 是一个基于 Memcache 协议的 key-value 数据库, 可以动态挂载多个库, 用来进行静态数据的存储,
适用于存储更新频次较低的数据. 可以作为redis的有效补充, 以节省昂贵的内存服务器成本, lushan不像redis那样需要将数据完全存在内存中,
而是结合使用内存和硬盘, 内存只用来存储索引文件, 硬盘则用来存储真正的数据文件. 另外在写入时不能像redis那样实时写入,
而是通过加载离线的静态数据文件完成(例如用MapReduce生成的数据)
lushan的每个库由数据文件和索引文件组成, 数据文件命名为dat, 索引文件命名为idx, 目录命名为hdict_xxxxxxxxxxx,
后面是时间编号. 索引文件由一个个key-pos对组成. 其中key就是key-value结构中需要查询的key, 而pos则包含两部分信息,
它的前40位表示value在dat文件中的偏离值off, 后20位表示value的长度length,
通过off和length来共同定位dat文件中的value
关于lushan的实现原理可以参考微博推荐博客的这篇博文: http://www.wbrecom.com/?p=453
使用方法
依赖的第三方源码包
- libevent1.4
步骤
-
git clone https://github.com/wbrecom/lushan.git
-
创建lushan编译环境
SOURCE_DIR=/tmp/lushan_environment/
mkdir ”$SOURCE_DIR”
-
复制lushan项目源码到lushan编译环境目录
cp -r lushan "$SOURCE_DIR"
-
编译libevent
cd "$SOURCE_DIR"lushan/depend/libevent-1.4.14b-stable
./configure –prefix=”$SOURCE_DIR”libevent
make && make install -
编译lushan
cd "$SOURCE_DIR"lushan/src
修改common.mk, 将LIBEVENT_HOME的值修改为刚才安装libevent的目录
LIBEVENT_DIR=”$SOURCE_DIR”libevent
sed -i “s#LIBEVENT_HOME.*#LIBEVENT_HOME = $LIBEVENT_DIR#g” common.mk
make
部署lushan
-
创建lushan部署环境
SOURCE_DIR=/tmp/lushan_environment/
DEPLOY_DIR=/tmp/lushan_deploy/
mkdir -p $DEPLOY_DIR -
创建bin conf hdb logs upload目录
cp -r "$SOURCE_DIR"lushan/bin $DEPLOY_DIRcp -r "$SOURCE_DIR"lushan/conf $DEPLOY_DIRcp -r "$SOURCE_DIR"lushan/hdb $DEPLOY_DIRcp -r "$SOURCE_DIR"lushan/logs $DEPLOY_DIRcp -r "$SOURCE_DIR"lushan/upload $DEPLOY_DIR
-
替换编译好的lushan程序
cp "$SOURCE_DIR"lushan/src/hyper_dict "$DEPLOY_DIR"bin
-
HDB_DIR="$DEPLOY_DIR"hdb
sed -i “s#HDB_PATH=.#HDB_PATH=$HDB_DIR#g” ”$DEPLOY_DIR”conf/hyper_dict.conf
UPLOAD_DIR=”$DEPLOY_DIR”upload
sed -i “s#UPLOAD_PATH=.#UPLOAD_PATH=$UPLOAD_DIR#g” ”$DEPLOY_DIR”conf/hyper_dict.conf -
挂载数据
将含有数据文件的目录复制到hdb目录下(数据文件目录命名为hdict_$datetime)
该目录包含choic.flg done.flg dat idx这4个文件
cp -r hdict_20150820131415 "$DEPLOY_DIR"hdb/1
-
启动lushan
bash "$DEPLOY_DIR"bin/hyper_dict.sh
-
补充: 动态挂载数据
将含有数据文件的目录复制到upload目录下(数据文件目录命名为hdict_$datetime)
该目录包含done.flg dat idx这3个文件
cp -r hdict_20150820142244 "$DEPLOY_DIR"upload/2 touch "$DEPLOY_DIR"upload/2/hdict_20150820142244/done.flg
访问示例
启动后即可通过stats命令查看lushan状态
echo -ne "stats\r\n" | nc 127.0.0.1 9999
echo -ne "get 1-123456\r\n" | nc 127.0.0.1 9999
生成数据
脚本转化
0. 有一个原始的数据文件dat, 每行都是key-value结构, 用:分隔, key必须为整数 1. 通过tools/generate_idx.py脚本生成索引文件 2. 如果数据文件的key是无序的, 可使用index_sort程序对索引文件排序 3. 新建hditc_xxxxxxxxx目录, 将idx文件和dat文件放到该目录下
MapReduce直接生成
如果是在hadoop上用MapReduce直接生成数据, 则需要使用tools/LushanFileOutputFormat.java,
指定MapReudce的输出格式类为LushanFileOutputFormat
job.setoutputFormat(LushanFileOutputFormat.class)
支持命令
- info
查看库是否挂载成功, 显示每个库的信息, 打开时间, 当前处理的请求量, 库里面有多少条记录
- stats
查看lushan本身的状态, 主要是通信部分的信息(例如: 当前等待处理队列里有多少请求, 有多少请求在等待队列里超时了). 这些信息,
有利于知道服务是否稳定, 是否性能满足要求
- randomkey
- get
取得一个或多个key的value
- open reopen
动态挂载库
- stats reset(慎用)
重置lushan统计信息
- close
关闭客户端连接
lushan 使用方法步骤部署lushan访问示例生成数据脚本转化MapReduce直接生成支持命令 官网
https://github.com/wbrecom/lushan
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。