# 语法 : grant 参数后面用逗号分隔# 权限用五个字母表示: "RWXCA". # READ('R'), WRITE('W'), EXEC('X'), CREATE('C'), ADMIN('A') # 例如,给用户‘test'分配对表t1有读写的权限, > grant 'test','RW','t1' 2) 查看权限 # 语法:user_permission # 例如,查看表t1的权限列表 > user_permission 't1'
3) 收回权限 # 与分配权限类似,语法:revoke # 例如,收回test用户在表t1上的权限 > revoke 'test','t1' 表数据的增删改查: 1) 添加数据 # 语法:put ,,,, # 例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认 > put 't1','rowkey001','f1:col1','value01' 2) 查询数据——查询某行记录 # 语法:get ,,[,....] # 例如:查询表t1,rowkey001中的f1下的col1的值 > get 't1','rowkey001', 'f1:col1' # 或者: > get 't1','rowkey001', {COLUMN=>'f1:col1'} # 查询表t1,rowke002中的f1下的所有列值 hbase(main)> get 't1','rowkey001' 3) 查询数据——扫描表 # 语法:scan , {COLUMNS => [ ,.... ], LIMIT => num}# 另外,还可以添加STARTROW、TIMERANGE和FITLER等高级功能 # 例如:扫描表t1的前5条数据 > scan 't1',{LIMIT=>5} 4) 查询表中的数据行数 # 语法:count , {INTERVAL => intervalNum, CACHE => cacheNum}# INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度 # 例如,查询表t1中的行数,每100条显示一次,缓存区为500 > count 't1', {INTERVAL => 100, CACHE => 500} 5) 删除数据——删除行中的某个列值 # 语法:delete , , , ,必须指定列名 # 例如:删除表t1,rowkey001中的f1:col1的数据 > delete 't1','rowkey001','f1:col1' 6) 删除数据——删除行 # 语法:deleteall , , , ,可以不指定列名,删除整行数据 # 例如:删除表t1,rowk001的数据 > deleteall 't1','rowkey001' 7) 删除数据——删除表中的所有数据 # 语法: truncate # 其具体过程是:disable table -> drop table -> create table # 例如:删除表t1的所有数据 > truncate 't1'
Region管理: 1) 移动Region # 语法:move 'encodeRegionName', 'ServerName' # encodeRegionName指的regioName后面的编码,ServerName指的是master-status的Region Servers列表 # 示例 >move '4343995a58be8e5bbc739', 'db-41.xxx.xxx.org,60020,139' |
2) 开启/关闭region # 语法:balance_switch true|false hbase(main)> balance_switch |
3) 手动split # 语法:split 'regionName', 'splitKey' |
4) 手动触发major compaction #语法: #Compact all regions in a table: > major_compact 't1' #Compact an entire region: > major_compact 'r1' #Compact a single column family within a region: > major_compact 'r1', 'c1' #Compact a single column family within a table: > major_compact 't1', 'c1' |
此时你已经学会了安装hadoop集群,了解了HDFS文件系统,MapReduce计算框架和Zookeeper协作服务(Zookeeper数据模型、访问控制、应用场景),今天学完了HBase,下一篇我们介绍hadoop的数据库工具——Hive。
如何用4个月学会Hadoop开发并找到年薪25万工作? 免费分享一套17年最新Hadoop大数据教程和100道Hadoop大数据必会面试题。 因为链接经常被和谐,需要的朋友请加微信 ganshiyun666 来获取最新下载链接,注明“51CTO” 教程已帮助300+人成功转型Hadoop开发,90%起薪超过20K,工资比之前翻了一倍。 百度Hadoop核心架构师亲自录制 内容包括0基础入门、Hadoop生态系统、真实商业项目实战3大部分。其中商业案例可以让你接触真实的生产环境,训练自己的开发能力。
分享题目:(第6.2篇)大数据发展背后的强力推手——HBase分布式存储系统
文章路径:http://scgulin.cn/article/ijjhpp.html
|
|
|
|
|
|
|
|
|
|