Cloudera Inc.是一家位于Palo Alto的企业软件公司,提供基于Apache Hadoop的软件和服务。
获得从CDH Hadoop群集连接到S3的“对等未认证”异常
我正在尝试在Hadoop CDH群集上运行hadoop作业,并且当Hadoop作业尝试从S3存储桶读取数据时,出现以下错误。看起来它正在尝试通过SSL连接。有什么办法...
我已经按照同伴的指示安装了HortonWorks Docker沙箱。当我键入以下命令时,它似乎正在运行:sudo docker ps显示沙盒正在运行:容器ID图像...
每次重新启动都会替换Cloudera节点/etc/krb5.conf
我有一个问题,为什么我的cloudera节点每次重新启动都替换文件/etc/krb5.conf?我正在尝试进行修改,并且当有人发出重新引导文件时,该文件再次由...
例如,我在CSV上获得了数据:“女”,“ 44”,“ 0”,“ 0”,“是”,“政府工作”,“城市”,“ 103.59”,“ 32.7”,“以前吸烟”我把它和hdfs dfs一起放在hdfs上,现在我想从它在...
我有一个cloudera VM,能够设置aws CLI和设置密钥。但是,我无法使用hadoop fs -ls s3:// gft-ri或任何hadoop命令读取s3文件或访问s3文件。我可以看到目录/ ...
Cloudera到HDP SOLR(版本5.5.2)数据迁移|在solr云上还原后无法更新solr索引
SOLR版本-5.5.2我的项目要求是将solr云索引从cloudera集群传输到HDP集群。数据量巨大(生产中有10亿条索引记录,因此重新索引不是...
我的问题很简单,但很复杂,在我目前的公司中,我们正在评估将卡夫卡与汇合使用或将卡夫卡与cloudera一起使用。我发现了您所在的融合版本的主题...
在Cloudera Impala(虚拟机)中创建数据库时出错
我已经下载并使用impala启动了cloudera虚拟机。在执行数据库创建语句时,出现了与目录和状态存储服务有关的错误。 ...
我通过URI访问Cloudera Manager的位置:http:// cmhostname:7180 /重定向到IP地址http://xxx.xxx.xxx.xxx:7180/如何更改,以便CM使用主机名而不是DNS? DNS和解析器有效...
PySpark无法从hdfs读取csv:HiveExternalCatalog错误
我是火花新手,在尝试调试错误时遇到了麻烦。我正在尝试从hdfs读取多个文件。我为此使用sparksession.read.csv,但出现错误:py4j.protocol.Py4JJavaError:An ...
我正在运行100个查询(测试用例)以检查Spark Scala中的数据质量。我正在从配置单元表查询数据。对于这些示例查询,预期结果为空数据框:SELECT ...
我不知道为什么我的Hadoop项目无法在命令行下执行 异常消息显示对我没有有用的信息 任何方向或想法 谢谢 在日食下完美运作 通过命令行运行的部分异常日志 完...
hadoop将int数组从map传递到reducer并作为输出
我正在学习使用hadoop并遇到以下问题:我需要将一个int数组从map函数传递给reducer,然后作为输出传递。所以看起来像这样:public ...
[我正在尝试在SSIS 2015中使用Hadoop Hive Task运行Hive查询。我尝试运行的查询是:如果不存在table_a,则创建table_a作为select * from(select code,md,name,...
默认的spark-shell --conf spark.hadoop.metastore.catalog.default = hive val df:Dataframe = ... df.write.saveAsTable(“ db.table”)尝试写入内部/时失败托管/交易...
[这是我之前提出的问题的扩展:是否可以在由AVRO模式文件定义的EXTERNAL表上更改现有列的元数据?问题:在Hive 2.1.1中,如何...
是否可以在由AVRO模式文件定义的EXTERNAL表上更改现有列的元数据?
这是我问过的上一个问题的扩展:是否可以更改Hive分区表上的列的元数据?问题:是否可以更改现有列的...
我必须将一个文件移到Unix目录中的几个文件中。我知道copyFromLocal命令:用法:hadoop fs -copyFromLocal URI,但这使我可以一一移动。有没有...
这是我之前问的问题的扩展:如何比较具有不同数据类型组的两列我们正在探索改变表上元数据的想法,而不是...
Apache nifi将年,月和日时间戳附加到合并的输出文件中
我正在创建端到端流,以通过对通过Tealium事件流接收的Json文件使用Consume Kafka来将数据消耗到HDFS中。目前,我已经使用Consum Kafka->评估Json路径-> ...