首页 > 考试题库
题目内容 (请给出正确答案)
[单选题]

HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是()

A.一次写入,少次读写

B.多次写入,少次读写

C.一次写入,多次读写

D.多次写入,多次读写

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,…”相关的问题
第1题
HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是128M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是()

A.一次写入,少次读取

B.多次写入,少次读取

C.一次写入,多次读取

D.多次写入,多次读取

点击查看答案
第2题
Hadoop实现了一个分布式文件系统,其中一个组件是HDFS。关于HDFS,下列说法中正确的有()。

A.为海量的数据提供了存储

B.有高容错性的特点,并且设计用来部署在低廉的硬件上

C.它提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序

D.为海量的数据提供了计算

E.放宽了POSIX的要求,可以以流的形式访问件系统中的数据

点击查看答案
第3题
HDFS专为解决大数据存储问题而产生的,其具备了强大的跨平台兼容性,支持批和流数据读写,实现了低延时数据访问,并兼容廉价的硬件设备。()
点击查看答案
第4题
Hive是基于hadoop的数据仓库软件,可以查询和管理PB级别的分布式数据。以下关于Hive特性的描述不正确的是()

A.仅支持MapReduce计算引擎

B.易用易编程

C.可直接访问HDFS文件以及HBase

D.灵活方便的ETL(extract/transform/load)

点击查看答案
第5题
关于HBase集群,其底层存储是基于HDFS系统,所以默认具有()副本模式,在数据丢失后可进行数据恢复。

A.1

B.2

C.3

D.4

点击查看答案
第6题
以下属于ELK的功能的是()。

A.伪分布式执行架构

B.支持向量处理引擎

C.SQL的并行分析查询

D.直接访问HDFS数据

点击查看答案
第7题
大数据迁移方案通常把平台数据分为冷数据、热数据和实时数据三类,分别以不同的迁移方式迁移上云。以下关于三类数据的描述中,哪些选项是正确的?()

A.冷数据一般而言指的是百TB级别或以上、不更新、偶尔访问的数据,如大量历史详单数据

B.通常近期业务访问的HDFS数据目录、Hive表的近期分区目录以及HBase活动表目录下最可能是热数据

C.通常HDFS上的归档业务数据、Hive历史表/历史分区数据、HBase历史表数据最可能是冷数据

D.实时数据,通常是实时上报到Hive或写入MySQL且不需要实时访问或处理的业务数据

点击查看答案
第8题
大数据迁移方案通常把平台数据分为冷数据、热数据和实时数据三类,分别以不同的迁移方式迁移上云。以下关于三类数据的描述中,哪些选项是正确的?()

A.冷数据一般而言指的是百TB级别或以上、不更新、偶尔访问的数据,如大量历史详单数据

B.通常近期业务访问的HDFS数据目录、Hive表的近期分区目录以及HBase活动表目录下最可能是热数据

C.通常HDFS上的归档业务数据、Hive历史表/历史分区数据、HBage历史表数据最可能是冷数据

D.实时数据,通常是实时上报到Hive或写入MySQL且不需要实时访问或处理的业务数据

点击查看答案
第9题
HDFS有哪些特点?()

A.保存多个副本,且提供容错机制,副本丢失或宕机自动恢复。

B.运行在廉价的机器上

C.适合大数据的处理

D.适合低延迟数据访问

点击查看答案
第10题
超大内存型弹性云服务器内存要求高,数据量大并且数据访问量大,同时要求快速的数据交换和处理以及低延迟的存储资源。主要支持OLAP场景,如内存数据库、大数据处理引擎以及数据挖掘等应用。下面哪个服务器型号支持创建超大内存型弹性云服务器?()

A.华为1288 V5

B.华为2288 V5

C.华为2288H V5

D.联想SR850

点击查看答案
退出 登录/注册
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改