HBase是Hadoop数据库(columnar)。当您需要对大数据进行随机,实时读/写访问时,请使用它。该项目的目标是托管非常大的表 - 数十亿行X百万列 - 在商品硬件集群上。
我正在使用 HBase-Spark 连接器在 Hbase 中编写内容,但我想根据 DS 中的列为每一行分配一个时间戳。有可能做这样的事情吗?这是我想做的一个例子
在 Java 中捕获 Apache HBase 项目中的依赖关系问题
当我今天深入研究 apache hbase 项目的源代码时,我在跟踪依赖项来访问其源代码时遇到了一些困难:HBase Unsafe,这在
HBase:无法存储数据(org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException)
无法使用table.put(p)方法存储数据,抛出异常: 线程“main”中的异常 org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException:失败 1 个操作:org.
我们如何在没有快照的情况下重命名或复制 MapR 中现有的 Hbase 表?
我正在尝试重命名现有的 HBase 表,但 MapR 不支持我在 google 上搜索到的任何现有解决方案。例如导出、快照等。有人可以发布正确的重命名步骤吗...
我想为我的元表创建快照,就像其他用户表一样。 但出现错误: hbase(main):003:0> 快照 'hbase:meta','hbase_meta_snapshot' 错误:系统表快照是...
Google Big Table 中的每一列是否都按索引键索引?
从谷歌云文档中,我看到: 每个表只有一个索引,即行键 但是,我看到有人提到(我找不到来源了)大表的每一列都有索引。
Spark 创建 hfile 时出现问题 - 添加了一个在词法上不大于先前单元格的键
我正在尝试创建 hfiles 以批量加载到 Hbase 中,尽管一切看起来都很好,但它仍然不断抛出行键错误。 我正在使用以下代码: val df = sqlContext.read....
我刚刚在 EC2 服务器上安装了 hbase(我还安装了 HDFS,它正在工作)。 我的问题是我不知道如何检查我的 Hbase 是否安装正确。 要安装 hbase,我遵循了这个
有谁知道如何根据某些扫描过滤器扫描记录,即: 列:某事=“某个值” 像这样的东西,但是来自 HBase shell?
使用 HFileOutputFormat2 时出现 ClassCastException
我正在尝试使用 HFileOutputFormat2 作为 OutputFormat 将数据从 hdfs 中的文件上传到 hbase 表,但出现以下异常, java.lang.Exception:java.lang.
我们需要创建企业产品,需要选择分析数据的存储选项,最初数据将为 tb(10-40tb),但在未来几年可能会达到几个 PB。 要求: 高
仅加载部分 HBase/Phoenix 表作为 Spark Datafrom
我在 Spark 中使用以下代码将我的 HBase/Phoenix 表的指定列加载到 Spark Dataframe 中。我可以指定要加载的列,但我可以指定哪些行吗?还是我...
Bucket cache accesses/hits 和 cachingAccesses/cachingHits stat 之间有什么不同?
以下是 Hbase L2 块缓存统计信息。有人可以解释访问/命中和缓存访问/缓存命中之间的区别吗?我找不到有关块缓存统计信息的文档。会是
MIniHBaseCluster 因 java.lang.RuntimeException 关闭:Master 在 200000 毫秒后未初始化
给个背景,我们的项目用的是bigtable。对于单元测试,我们使用包 hbase-testing-util:2.2.3 创建本地迷你 hbase 集群。 我们的代码库是 Java 8,我正在尝试...
我正在尝试执行将数据帧写入 Bigtable 的 Pyspark 作业,但出现以下错误。 我在 Google Dataproc 集群上执行它 将数据写入 BigTable 的代码
每当我对某些列执行选择查询时(少数列为空,其他列不为空)我在 Phoenix 中得到空表作为响应 选择 t.PARTY_KEY 作为 PK_on_t,t.ID 作为 I1_on_t,tt.
APACHE PHOENIX 错误:org.apache.phoenix.mapreduce.CsvBulkLoadTool - 约束错误
I 在 CLI 中执行下一个命令: hbase org.apache.phoenix.mapreduce.CsvBulkLoadTool -Dhbase.mapreduce.bulkload.max.hfiles.perRegion.perFamily=1024 -t TABLE -c ID,c1,c2,c3 -i /hive_to_hbase/输出...
是否有兼容 Java 11 的 Phoenix 或 HBase 客户端向后兼容 HBase 1.0 客户端写入的数据?
我有一个 Web 应用程序,它一直在使用 org.apache.phoenix:phoenix-core:4.8.0-HBase-1.0 使用 Phoenix 4.14.3(EMR 5.32.1) 读取和写入 HBASE 服务器 1.4.13,而没有任何问题。 我们现在
2023-03-21 18:51:39 DEBUG 调用异常,尝试=7,重试=16,开始=8233 毫秒前,取消=false,消息=没有可用的元 znode,详细信息=表上的“人口普查”行'hbase:meta' 为 null,请参阅 https://s.a...
我有以下 hbase 表 hbase(main):104:0> 扫描“driver_data” 行列+单元格...