apache-zeppelin 相关问题

Apache Zeppelin是一款基于Web的笔记本电脑,支持数据驱动的交互式数据分析。您可以使用SQL,Python,Scala等制作精美的数据驱动,交互式和协作文档。它还支持Markdown语法。

通过 VS Code 修改 Zeppelin Notebooks

我最近加入了一家公司,该公司的所有数据摄取都是使用我们通过 SSH 隧道访问的 Zeppelin 笔记本进行的。 是否可以使用 VS Code 维护和版本化此代码? 我怎样才能

回答 1 投票 0

在 Spark 中读取 Avro 文件

我已将 avro 文件读入 Spark RDD,并需要将其转换为 sql 数据帧。我该怎么做。 这就是我到目前为止所做的。 导入 org.apache.avro.generic.GenericRecord 导入 org.apache.a...

回答 3 投票 0

Zeppelin 0.11.1 与 Spark 3.3 - Spark 解释器因 NoSuchFileException 失败

通过 Zeppelin 提交 Spark 作业时收到 InterpreterException: org.apache.zeppelin.interpreter.InterpreterException:java.io.IOException:无法启动解释器进程: 错误

回答 1 投票 0

org.apache.spark.SparkException ... java.io.IOException:无法连接到/IP_ADDRESS

我想使用apache-zeppelin,但我无法使简单的 RDD.collect() 工作。 问题是这样的: org.apache.spark.SparkException:作业因阶段失败而中止:阶段 0.0 中的任务 2 失败 1 ...

回答 1 投票 0

Pac4j-core:在 Apache Zeppelin 中的 Keycloak 和 Shiro 集成期间,DefaultAjaxRequestResolver.buildAjaxResponse 返回为 null

我正在将 Apache Zeppelin 版本 0.11.1 与 Keycloak 集成以进行身份验证和授权。为了支持这种集成,我使用了额外的库(pac4j 和 buji pac4j),因为 Zeppe...

回答 1 投票 0

PKCE 验证失败:代码与 Apache Shiro 和 Pac4j 不匹配

我在尝试使用 Keycloak、Apache Shiro 和 Pac4j 与 Apache Zeppelin 集成进行身份验证时遇到 PKCE 验证问题。我收到的错误是: HTTP 错误 500 javax。

回答 1 投票 0

单列中多个日期范围之间的总和

我正在尝试弄清楚如何通过 90 天内的交易日期获取价值总和,并在一年的交易日期中重复。 这就是我所拥有的 交易日期 价值...

回答 1 投票 0

计算一个日期与同一列中多个日期之间的日差

我有一个像这样的输入表 日期 数量 2011-01-02 50 2011-01-03 40 2011-01-04 20 2011-01-05 10 我希望将其分组并创建一个一对多,比较日期 A1 的差异...

回答 1 投票 0

Apache Zeppelin V 0.11.1 执行段落时出现 InterpreterException

问题描述: 我们尝试在以下服务器上启动 Apache Zeppelin 0.11.1。 我们按照 Apache Zepplin 官方网站上的安装说明进行操作。 Apache Zeppelin 可以启动...

回答 1 投票 0

在 zeppelin 0.8 + Spark 中读取 csv 文件

我正在尝试使用这样的spark来读取zeppelin笔记中的csv文件(我还尝试了使用\或//的路径的多种语法): 这是我的代码: %火花 值按钮2 = 我正在尝试使用这样的 Spark 读取飞艇注释中的 csv 文件(我还尝试了使用 \ 或 // 的路径的多种语法): 这是我的代码: %spark val button2 = <div class="btn btn-success btn-sm">READ CSV</div>.onClick{() => try { //val df = spark.read.option("header", "true").csv("C://Users/ut00xzh7/Documents/TEST_CSV_AC_CREATION/ac_lst.csv") val df = spark.read.format("com.databricks.spark.csv").option("header", "true").load("C://Users/ut00xzh7/Documents/TEST_CSV_AC_CREATION/ac_lst.csv") val res= df.collectAsList() AngularModel("result", res) } 我收到此错误: java.io.IOException: No FileSystem for scheme: C 经过一些研究后,我发现我可以使用 %dep 添加库,但我没有任何权利这样做,所以我有点坚持这个。 您需要将路径指定为file:///C:/Users/...,在 URI 中强制执行本地文件方案。否则,磁盘 C 被视为 URI 方案(scheme:authority/path 的一般表示) 我在尝试加载文本文件时在 Zeppelin 中遇到错误。错误消息为 org.apache.spark.sql.AnalysisException: 路径不存在: file:/C:/doc/mytext.txt

回答 2 投票 0

当我在本地计算机 [Windows 11] 中安装 Apache Zeppelin 时,Zeppelin 服务器已启动,但未加载 UI。它抛出角度/距离 404 错误

java.io.FileNotFoundException:C:\ Users \ PRIYA \ Downloads \ zeppelin-0.11.0-bin-all \ zeppelin-0.11.0-bin-all \ zeppelin-0.11.0-bin-all in \ zeppelin-web-角度\dist 在 org.eclipse.jetty.webapp.

回答 1 投票 0

运行 Zeppelin 时无法识别 VM 选项“MaxPermSize=512m”

当我尝试通过以下任一方式运行 Zeppelin 时 bin/zeppelin.sh 或者 bin/zeppelin-deamon.sh 启动 我收到以下错误消息。 无法识别的 VM 选项“MaxPermSize=512m” 错误:无法创建...

回答 5 投票 0

Docker 上的 bitnami/spark 和 zeppelin 的 SPARK_HOME 配置错误

我在使用 Docker 和 Zeppelin 实现 Spark 时遇到问题,需要一些解决方案 我的 docker-compose.yml: 版本:“3.7” 服务: 火花大师: 图片:bitnami/spark:l...

回答 1 投票 0

Apache Zeppelin 有智能感知吗?

Apache Zeppelin 在其笔记本用户界面中是否支持智能感知/自动完成? 如果是这样我该如何使用它? 我尝试在互联网上搜索,但未能找到有效的来源。这个

回答 3 投票 0

Zeppelin 笔记本中出现错误,指出无法创建接收器

我正在尝试在 Apache Flink 中处理后从 1 个 KDS 写入另一个 KDS。我使用 Zeppelin 笔记本通过以下查询创建接收器表: %flink.ssql 创建表 seller_revenu...

回答 1 投票 0

K8S 解释器上的 Apache Zeppelin 由于 UnknownHostException 崩溃

嗨,需要帮助! 我已经在 k8s 集群上的 zeppelin 命名空间下部署了 apache/zeppelin:0.9.0,遵循文档,这是我的 zeppeling-server.yaml 文件: api版本:v1 种类:

回答 2 投票 0

如何将 Zeppelin 设置为 CentOS 上启动服务的一部分?

OP答案如下(希望对社区有帮助) 下面你将看到我的真实答案。 (我发布这个问题是为了传递答案。)我花了一段时间才找到正确的答案,所以我...

回答 1 投票 0

无法在 Windows Server 上的 Zeppelin 中运行 python 代码

我可以在我的 Windows Server 2019 上配置 Zeppelin 并成功启动它。 我的环境变量配置如下: HADOOP_HOME C:\hadoop\ JAVA_HOME C:\Programm Files\Zulu\zulu-8\jre\

回答 1 投票 0

zeppelin (0.9.0) helium s3 文件夹不可用

在 zeppelin-site.xml 中启用 helium 文件夹时,默认 s3 存储桶返回 403 为了 错误 [2023-08-01 14:23:24,964] ({qtp1383547042-15} HeliumOnlineRegistry.java[getAll]:103) - https://s3.

回答 0 投票 0

PySpark 获取检查点目录(版本< 3.1.0)

我们可以使用下面的代码在PySpark中设置检查点目录路径: spark.sparkContext.setCheckpointDir('/检查点') 由于 SparkContext.getCheckpointDir() 仅在 PySpark 版本中引入...

回答 2 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.