如何下载.gz格式的CHIRPS降水量数据?

问题描述 投票:0回答:1

我正在尝试从ftp://ftp.chg.ucsb.edu/pub/org/chg/products/CHIRPS-2.0/africa_daily/tifs/p25/2010/下载CHIRPS数据。 heavyRain包已过时,并且EarthEngineGrabR包(用于从Google的Earth Engine中提取数据,https://developers.google.com/earth-engine)似乎有一些错误。这是我的一些尝试。

lst.files <- list(
 list(
url2 = "ftp://chg-ftpout.geog.ucsb.edu/pub/org/chg/products/CHIRPS -2.0/africa_daily/tifs/p25/2010/chirps-v2.0.2010.01.01.tif.gz"
, target = "chirps-v2.0.2010.01.01.tif.gz"))

#download gzipped files (only if file does not exist)
lapply(lst.files, function(x)
 if(!file.exists(x$target)) download.file(x$url2, x$target))

#open files
lst <- lapply(lst.files, function(x) {
  df <- readr::read_table2(x$target)
  })

以下是错误消息:guess_header_(数据源,令牌生成器,语言环境)中的错误:字符串中嵌入nul:“ II *”

这是另一种尝试:

library(RCurl)
library(foreign)
library(plyr)
library(dplyr)

setwd <- "C://Desktop"
url <- "ftp://chg-ftpout.geog.ucsb.edu"
years = c("2010", "2011", "2012", "2013", "2014", "2015", "2016", "2017", "2018", "2019")

lapply(years, function (x){
  url <- paste(url, "/pub/org/chg/products/CHIRPS-2.0/africa_daily/tifs/p25/", x, ".gz", sep = "")
  filename <- paste("CHIRPS", x, ".gz", sep = "")
  foldername <- paste("CHIRPS", x, sep = "")
  filename

  if (file.exists(filename)==FALSE){
    download.file(url, filename)
  }

  if (file.exists(foldername)==FALSE){
    dir.create(foldername)
  }

  if(length(list.files(path = foldername, pattern="*.gz")) == 0){
    unzip(filename)
    }

  for (fl in (list.files(pattern=".gz"))){
      file.copy(fl, foldername)

    file.remove(fl)
}})

以下是错误消息:尝试使用网址“ ftp://chg-ftpout.geog.ucsb.edu/pub/org/chg/products/CHIRPS-2.0/africa_daily/tifs/p25/2010.gz”download.file(url,filename)中的错误:无法打开URL“ ftp://chg-ftpout.geog.ucsb.edu/pub/org/chg/products/CHIRPS-2.0/africa_daily/tifs/p25/2010.gz”另外:警告消息:在download.file(url,filename)中:download.file(url,filename)中的错误:无法打开URL“ ftp://chg-ftpout.geog.ucsb.edu/pub/org/chg/products/CHIRPS-2.0/africa_daily/tifs/p25/2010.gz

这是使用github自述文件中earthEngineGrabR https://github.com/JesJehle/earthEngineGrabR提供的示例会发生的事情:

> library(earthEngineGrabR)
> library(tidyverse)
> library(sf)
> Chirps_data <- ee_grab(data = ee_data_collection(datasetID = 'UCSB-CHG/CHIRPS/DAILY'
+                                          , spatialReducer = 'mean'
+                                          , temporalReducer = 'sum'
+                                          , timeStart = "2016-01-01"
+                                          , timeEnd = "2016-12-31"
+                                          , resolution = 200)
+                        , targetArea = system.file('data/territories.shp', package = 'earthEngineGrabR'))

这里是代码的开始输出,但随后被卡住:

自动刷新陈旧的OAuth令牌。

上传:地区已上传是否应该删除文件并重新上传? [是/否]:是文件已删除:*地区:1AOc2yzIV1DGDgfUULNA6Co1M37xcWTFLRbdKOegs创建融合表:地区

错误:使用给定的产品参数无法请求有效数据。另外:警告消息:1:在(功能(文​​本)中:截断超长输出的打印2:地球引擎服务器上的数据产品错误:UCSB-CHG-CHIRPS-DAILY_s-mean_t-sum_2016-01-01to2016-12-31py_call_impl(可调用,dots $ args,dots $ keywords)中的错误:EEException:意外的HTTP错误:[SSL:CERTIFICATE_VERIFY_FAILED]证书验证失败(_ssl.c:727)

任何人都可以帮助我访问这些数据源之一吗?

r ftp google-earth-engine
1个回答
0
投票

我找到了一种方法,可以改编此视频https://www.youtube.com/watch?v=EBfx1L16qlM中的代码。使用下面的代码,我可以下载给定年份的所有文件,然后通过调整url手动重复下一年的代码。这不是一个优雅的解决方案,但它可以工作。

library(RCurl)
setwd("working directory file name")
url <- "ftp://chg-ftpout.geog.ucsb.edu/pub/org/chg/products/CHIRPS-2.0/africa_daily/tifs/p25/2010/" 
filenames <- getURL(url, ftp.use.epsv = FALSE, dirlistonly = TRUE)
filenames <- strsplit(filenames, "\r\n")
filenames = unlist(filenames)
filenames

for (filename in filenames) {
  download.file(paste(url, filename, sep = ""), paste(getwd(), "/", filename, sep = ""))
}

这会将所有.gz文件下载到我的工作目录中。欢迎使用更快的解决方案,但这确实有效。

© www.soinside.com 2019 - 2024. All rights reserved.