在HBase的應(yīng)用開(kāi)發(fā)中,當(dāng)一個(gè)表的Row key范圍和分布已知,建議預(yù)分region,請(qǐng)問(wèn)調(diào)用如下代碼(片段)對(duì)某個(gè)表進(jìn)行預(yù)分region后,這個(gè)表會(huì)創(chuàng)建幾個(gè)region//創(chuàng)建一個(gè)預(yù)劃分region的表。()
byte[][]splits=newbyte[4][];
splits[0]=Bytes.toBytes(“A”);
splits[1]=BytestoBytes(“H”);
splits[2]=Bytes.toBytes(“O”);
splits[3]=BytestoBytes(“U”);
admin.create Table(htd,splits);
A.3
B.4
C.5
D.6
您可能感興趣的試卷
你可能感興趣的試題
A.預(yù)分region,使region分布均勻,ᨀ高并發(fā)
B.查詢(xún)頻繁屬性放在rowkey前面部分
C.使用二級(jí)索引,適應(yīng)更多查詢(xún)場(chǎng)景
D.同時(shí)讀取的數(shù)據(jù)存放在同一個(gè)cell中
A.支持分布式和流式采集
B.借助MapReduce任務(wù)并行采集
C.只能采集結(jié)構(gòu)化數(shù)據(jù)
D.借助外部定時(shí)任務(wù)來(lái)觸發(fā)數(shù)據(jù)采集
A.(1)數(shù)據(jù)從source到channel;(2)sink從channel取數(shù)據(jù)
B.(1)數(shù)據(jù)從channle到source;(2)sink從source取數(shù)據(jù)
C.(1)數(shù)據(jù)從sink到channle;(2)source從channel取數(shù)據(jù)
A.流數(shù)據(jù)監(jiān)控
B.網(wǎng)站的實(shí)時(shí)訪問(wèn)統(tǒng)計(jì)
C.離線日志分析
D.交通流量分析
A.要求Python版本不低于2.6.6,不高于2.7.0
B.客戶(hù)端必須裝有setuptools,且版本不低于5.0
C.hive_python_client腳本ᨀ供了直接執(zhí)行SQL的功能,如hive_python_client’showtables
D.Python二次開(kāi)發(fā)不支持安全集群
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說(shuō)法錯(cuò)誤的是?()
FusionLnsigh HD,Oozie支持HDFS Action。()
以下業(yè)務(wù)應(yīng)用中,哪個(gè)不是Hive適用的場(chǎng)景?()
Redis不適用與下面那些場(chǎng)景?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫(xiě)回Kafka。()
Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()
關(guān)于Kafka的Producer,如下說(shuō)法正確的是?()
Flume寫(xiě)入HDFS時(shí),文件的生成當(dāng)時(shí)有哪些?()
Fusionlnsight HD中,一個(gè)部署在Tomcat上的應(yīng)用,需訪問(wèn)HBase服務(wù),這種場(chǎng)景下推薦使用機(jī)機(jī)賬號(hào)。()
用戶(hù)要開(kāi)發(fā)一個(gè)應(yīng)用去訪問(wèn)HBase服務(wù),先申請(qǐng)了一個(gè)機(jī)機(jī)賬號(hào)teste1,并給它設(shè)置訪問(wèn)HBase服務(wù)的權(quán)限:然后下載該賬戶(hù)的keytab文件,并使用該賬號(hào)運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問(wèn)Hive服務(wù),那么在給tested用戶(hù)補(bǔ)充授予了訪問(wèn)Hive組件權(quán)限后,需重新下載該用戶(hù)的keytab文件。()