HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是128M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是()
A.一次写入,少次读取
B.多次写入,少次读取
C.一次写入,多次读取
D.多次写入,多次读取
C、一次写入,多次读取
A.一次写入,少次读取
B.多次写入,少次读取
C.一次写入,多次读取
D.多次写入,多次读取
C、一次写入,多次读取
A.一次写入,少次读写
B.多次写入,少次读写
C.一次写入,多次读写
D.多次写入,多次读写
A.华为1288 V5
B.华为2288 V5
C.华为2288H V5
D.联想SR850
A.Storm是一种NativeStreamProcessingSystem,即对流数据的处理是基于每条数据进行
B.Storm其并行计算是基于有Spout和Bolt组成的有向拓扑图ToPology来实现
C.Topology:定义了串行计算的逻辑模型(或者称抽象模型),也即从功能和架构的角度设计了计算的步骤和流程。
D.Topology里的Spout和Bolt的功能是靠worker节点上的Task来实现
B.大规模并行计算:在分布式并行环境中将一个任务分解成更多份细粒度的子任务,这些子任务在空闲的处理节点之间被调度和快速处理之后,最终通过特定的规则进行合并生成最终的结果。典型技术为MapReduce
C.结构化分布式数据存储:类似文件系统采用数据库来存储结构化数据,云计算也需要采用特殊技术实现结构化数据存储,典型技术为BigTable/Dynamo等
D.分布式文件系统:可扩展的支持海量数据的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,提供容错功能(通常保留数据的3份拷贝),典型技术为GFS/HDFS/KFS等
A.Hive:一个基于Hadoop的数据仓库工具,用于对Hadoop文件中的数据集进行数据整理、特殊查询和分析存储
B.Zookeeper:针对谷歌Chubby的一个开源实现,是高效可靠的协同工作系统
C.HDFS:分布式文件系统,是Hadoop项目的两大核心之一,是谷歌GFS的开源实现
D.HBase:提供高可靠性、高性能、分布式的行式数据库,是谷歌BigTable的开源实现