大数据是处理极端数据集的概念。问题可能倾向于与基础设施,算法,统计数据和数据结构相关。
我正在尝试对 df.summary() 数据帧执行舍入函数,不包括摘要列。到目前为止,我已经尝试使用 select() 和理解列表,例如 代码 df2 = df.select(*[圆形(列...
使用to_datetime转换大型CSV数据库中的混合日期格式时出现转换错误
我有一个大型 csv 合约数据库(2500 万行,大约 7 GB)。我需要过滤掉过期的合同,以减少进一步计算的大小。到期日期数组包含...
考虑这样一种情况:有一个非常大的表(高达几个 TB),并且由于某种原因应用程序想要完整扫描该表。应用程序上都有多个 CPU 核心...
AWS 有多个可用的公共“大数据”数据集。有些数据免费托管在 EBS 上,而其他数据(例如 NASA NEX 气候数据)则托管在 S3 上。我发现了更多关于如何使用这些的讨论
我正在 Gathr 中创建一个管道,以使用多个处理器将数据从 JDBC 传输到 Kafka。现在我想复制现有的管道并在其间添加更多处理器。聚集吗
第一个列表中的每个对象根据属性值相等的条件与第二个列表中的对象匹配
想象一下我们的房屋数量有限。每个房子都有一个号码。每栋房子里住着一男一女。 我们为代表人员提供以下类别: 类人: def __init__(s...
需要比 MMDS 更好的解释 MapReduce 的通信成本模型
我正在浏览 MMDS 书籍,该书有一个同名的在线 MOOC。我无法理解主题 2.5 中提到的通信成本模型和连接操作计算,并且
我希望能够通过指定通配符查找从巨大(100GB+)JSON 文件中提取特定的 JSON 对象。 (虽然我的最终目标是拥有一个用于查找的路径类型字符串,但我非常乐意
python pandas df.loc 函数是否受数据帧大小的限制?它适用于小索引,但不适用于大索引
我有一个相当大的 3D 地图作为数据框(rawDF:1392640 行 x 3 列(名为:“X”、“Y”、“Z”))。我想访问 Y 点并分析相应的 X-Z 轮廓。 我正在使用 pandas (pd) df.loc
我有一个相当大的数据集需要上传到数据库(在我的例子中是Postgres)。如果我使用块大小为 5000 的标准 to_sql,则会出现一些坏行,因为某些数据已损坏...
从 AMFI 网站提取每日共同基金资产净值数据并将其存储在 MongoDB 中
我想从AMFI网站下载所有方案的每日NAV(资产净值)并将其全部存储在MongoDB中。但使用我当前的代码,下载和pus花费的时间太长了近5天......
我有一个大表,我想将其转换为Python字典,但我不想将所有数据加载到内存中。 是否可以在不构建对象的情况下主动写入pickle转储
Azure databricks 自动加载器 Spark Streaming 无法读取输入文件
我已经使用自动加载器功能设置了流作业,输入位于 azure adls gen2 中,采用 parquet 格式。下面是代码。 df = Spark.readStream.format("cloudFiles")\ .选择...
如何循环clickhouse数据库中的表? Clickhouse 没有针对某些可迭代场景的循环和存储过程。 我想将 pandas queris 更改为 SQL,但表格上有 for 循环...
我必须构建 posts 表的结构来处理大量数据(比方说,100 万行),特别是这两个字段: 纬度 经度 我想做的是优化...
有没有办法从 ASC 文件中逐行读取并在特定子字符串后检查它?
我有一个包含多行的文件,我想在数据框中进行转换以进行一些数据科学。 逐行阅读我发现了一个小代码片段,它似乎运行得不好。布...
Apache Nifi:从 REST 加载数据到 Druid
我正在使用 Apache NiFi。 从 REST API 向 Druid 加载数据的正确方法是什么?
如何(高效)查询 Apache Druid 的 __time 毫秒精度?
这是我在 Druid 的 Web GUI 中运行的 Apache Druid 查询: 选择 * 来自我的表 哪里 __time >= '2023-10-19T09:29:58.613Z' 和__时间<= '2023-10-19T09:30:13.613Z' and my_string_field...
Mongodb Spark Connector 调用 o67.showString 时出错
我使用下面的Python代码从Spark中的“MongoDB”读取数据并将其转换为DataFrame: 从 pyspark.sql 导入 SparkSession # 初始化 Spark 会话 火花 = SparkSession.b...