qupload
是用来将本地目录中的文件同步到七牛空间中的命令。
qshell qupload [-c <ThreadCount>] [--success-list <SuccessFileName>] [--failure-list <FailureFileName>] [--overwrite-list <OverFileName>] [--callback-urls <CallbackUrls>] [--callback-host <CallbackHost>]
<LocalUploadConfig>
可以在命令行输入如下命令获取帮助文档:
// 简单描述
$ qshell qupload -h
// 详细文档(此文档)
$ qshell qupload --doc
需要使用 qshell account
或者 qshell user add
命令设置鉴权信息 AccessKey
, SecretKey
和 Name
。
- LocalUploadConfig:数据同步的配置文件,该配置文件里面包含了一些诸如本地同步目录,目标空间名称等信息,详情参考配置文件的讲解 【必选】
- -c/--worker:配置下载的并发协程数量(ThreadCount),默认为 1,即文件一个一个上传,对于大量小文件来说,可以通过提高该参数值来提升同步速度。关于
ThreadCount
的值,并不是越大越好,所以工具里面限制了范围[1, 2000]
(如果不在范围内则重置为 5),在实际情况下最好根据所拥有的上传带宽和文件的平均大小来计算下这个并发数,最简单的算法就是带宽除以平均文件大小即可得到并发数。 假设上传带宽有 10Mbps,文件平均大小 500KB,那么利用 10*1024/8/500 = 2.56,那么并发数差不多就是 3~6 左右。 - --accelerate:启用上传加速
- -s/--success-list:指定一个文件名字,导入上传成功的文件列表到该文件。
- -e/--failure-list:指定一个文件名字, 导入上传失败的文件列表到该文件。
- -w/--overwrite-list:指定一个文件名字, 导入存储空间中被覆盖的文件列表到该文件。
- -l/--callback-urls:指定上传回调的地址,可以指定多个地址,以逗号分开。
- -T/--callback-host:上传回调HOST, 必须和CallbackUrls一起指定。
qupload
功能需要配置文件的支持,配置文件支持的全部参数如下:
{
"src_dir" : "<LocalPath>",
"bucket" : "<Bucket>",
"file_list" : "<FileList>",
"key_prefix" : "<Key Prefix>",
"up_host" : "<Upload Host>",
"ignore_dir" : false,
"overwrite" : false,
"check_exists" : true,
"check_hash" : false,
"check_size" : true,
"rescan_local" : false,
"skip_file_prefixes" : "test,demo,",
"skip_path_prefixes" : "hello/,temp/",
"skip_fixed_strings" : ".svn,.git",
"skip_suffixes" : ".DS_Store,.exe",
"log_file" : "upload.log",
"log_level" : "info",
"log_rotate" : 10,
"log_stdout" : true,
"file_type" : 0,
"resumable_api_v2" : false,
"resumable_api_v2_part_size" : 4194304,
"uploading_acceleration" : true
}
参数说明:
- src_dir:本地同步路径,为全路径格式,工具将同步该目录下面所有的文件;不支持本地路径下的目录软连接。在 Windows 系统下面使用的时候,注意
src_dir
的设置遵循D:\\jemy\\backup
这种方式。也就是路径里面的\
要有两个(\\
)。【必选】 - bucket:同步数据的目标空间名称,可以为公开空间或私有空间。 【必选】
- file_list:待同步文件列表,该文件列表内容必须是相对于
src_dir
的文件相对路径列表,可以不指定,工具将自动获取src_dir
下面的文件列表。请使用dircache
命令生成这个文件列表,生成之后可以手动删除不需要的行。 【可选】 - up_host:上传域名,可选设置,一般情况下不需要指定。【可选】
- ignore_dir:保存文件在七牛空间时,使用的文件名是否忽略本地路径,默认为
false
。 【可选】 - key_prefix:在保存文件在七牛空间时,使用的文件名的前缀,默认为空字符串【可选】
- overwrite:是否覆盖空间中已有的同名文件,默认为
false
(不覆盖)。【可选】 - check_exists:每个文件上传之前是否检查空间中是否存在同名文件,默认为
false
(检查文件是否在空间中存在)。 【可选】 - check_hash:在
check_exists
设置为true
的情况下生效,是否检查本地文件 hash 和空间文件 hash 一致;默认为false
(不检查 hash),节约同步时间。 【可选】 - check_size:在
check_exists
设置为true
的情况下生效,是否检查本地大小和空间文件大小一致,优先级低于check_hash
;检查耗时小于check_hash
;默认为false
(检查文件大小是否一致)。 【可选】 - skip_file_prefixes:跳过所有文件名(不带相对路径)以该前缀列表里面字符串为前缀的文件,默认为空字符。 【可选】
- skip_path_prefixes:跳过所有文件路径(相对路径)以该前缀列表里面字符串为前缀的文件,默认为空字符。 【可选】
- skip_fixed_strings:跳过所有文件路径(相对路径)中包含该字符串列表中字符串的文件,默认为空字符。 【可选】
- skip_suffixes:跳过所有以该后缀列表里面字符串为后缀的文件或者目录,默认为空字符。 【可选】
- rescan_local:执行命令时,是否重新扫描指定文件夹中需要上传的文件并缓存生成的上传列表,默认为
false
,即在本地不存在缓存文件列表的情况下才进行扫描;如果本地有新增的文件需要上传,此字段需要设置为true
。 【可选】 - log_level:上传日志输出级别,可选值为
debug
,info
,warn
,error
其他任何字段均会导致不输出日志。默认debug
。【可选】 - log_file:上传日志的输出文件,默认为输出到
record_root
指定的文件中,具体文件路径可以在终端输出看到。 【可选】 - log_rotate:上传日志文件的切换周期,单位为天,默认为 7 天即切换到新的上传日志文件。 【可选】
- log_stdout:上传日志是否同时输出一份到标准终端,默认为
true
。 【可选】 - file_type:文件存储类型;
0
:标准存储,1
:低频存储,2
:归档存储,3
:深度归档存储,4
:归档直读存储;默认为0
(标准存储)。 【可选】 - delete_on_success:上传成功的文件,同时删除本地文件,以达到节约磁盘的目的,比如日志归档的场景,默认为
false
,如果需要开启功能,设置为true
即可。【可选】 - resumable_api_v2:使用分片 V2 进行上传,默认为
false
使用分片 V1 。【可选】 - resumable_api_v2_part_size:使用分片 V2 进行上传时定制分片大小,默认 4194304(4M) 。【可选】
- uploading_acceleration:启用上传加速。【可选】
- put_threshold:上传阈值,上传文件大小超过此值会使用分片上传,不超过使用表单上传;单位:B,默认为 8388608(8M) 。【可选】
- sequential_read_file: 文件读为顺序读,不涉及跳读;开启后,上传中的分片数据会被加载至内存。此选项可能会增加挂载网络文件系统的文件上传速度。默认是:false。 【可选】
- record_root:上传记录信息保存路径,包括日志文件和上传进度文件;默认为
qshell
上传目录;【可选】- 通过
-L
指定工作目录时,record_root
则为此工作目录/qdownload/$jobId, - 未通过
-L
指定工作目录时为用户目录/.qshell/users/$CurrentUserName/qdownload/$jobId
- 注意
jobId
是根据上传任务动态生成;具体方式为 MD5("$SrcDir:$Bucket:$FileList");CurrentUserName
当前用户的名称
- 通过
- worker_count:分片上传中单个文件并发上传的分片数;默认为 3。【可选】
- callback_urls:上传回调地址,可以指定多个地址,以逗号分开。【可选】
- callback_host:上传回调HOST, 必须和 CallbackUrls 一起指定。 【可选】
- callback_body:上传成功后,七牛云向业务服务器发送 Content-Type: application/x-www-form-urlencoded 的 POST 请求。业务服务器可以通过直接读取请求的 query 来获得该字段,支持魔法变量和自定义变量。callbackBody 要求是合法的 url query string。例如key=$(key)&hash=$(etag)&w=$(imageInfo.width)&h=$(imageInfo.height)。如果callbackBodyType指定为application/json,则callbackBody应为json格式,例如:{“key”:"$(key)",“hash”:"$(etag)",“w”:"$(imageInfo.width)",“h”:"$(imageInfo.height)"}。【可选】
- callback_body_type:上传成功后,七牛云向业务服务器发送回调通知 callbackBody 的 Content-Type。默认为 application/x-www-form-urlencoded,也可设置为 application/json。【可选】
- end_user:上传成功后,七牛云向业务服务器发送回调通知 callbackBody 的 Content-Type。默认为 application/x-www-form-urlencoded,也可设置为 application/json。【可选】
- persistent_ops:资源上传成功后触发执行的预转持久化处理指令列表。fileType=2或3(上传归档存储或深度归档存储文件)时,不支持使用该参数。支持魔法变量和自定义变量。每个指令是一个 API 规格字符串,多个指令用;分隔。【可选】
- persistent_notify_url:接收持久化处理结果通知的 URL。必须是公网上可以正常进行 POST 请求并能成功响应的有效 URL。该 URL 获取的内容和持久化处理状态查询的处理结果一致。发送 body 格式是 Content-Type 为 application/json 的 POST 请求,需要按照读取流的形式读取请求的 body 才能获取。【可选】
- persistent_pipeline:转码队列名。资源上传成功后,触发转码时指定独立的队列进行转码。为空则表示使用公用队列,处理速度比较慢。建议使用专用队列。【可选】
- detect_mime:开启 MimeType 侦测功能,并按照下述规则进行侦测;如不能侦测出正确的值,会默认使用 application/octet-stream 。【可选】
1. 设为 1 值,则忽略上传端传递的文件 MimeType 信息,并按如下顺序侦测 MimeType 值:
1) 侦测内容;
2) 检查文件扩展名;
3) 检查 Key 扩展名。
2. 默认设为 0 值,如上传端指定了 MimeType(application/octet-stream 除外)则直接使用该值,否则按如下顺序侦测 MimeType 值:
1) 检查文件扩展名;
2) 检查 Key 扩展名;
3) 侦测内容。
3. 设为 -1 值,无论上传端指定了何值直接使用该值。
- traffic_limit:上传请求单链接速度限制,控制客户端带宽占用。限速值取值范围为 819200 ~ 838860800,单位为 bit/s。【可选】
对于那么多的参数,我们可以分为几类来解释:
最基本的上传功能和必须要指定的参数
{
"src_dir" : "xxx",
"bucket" : "xxx"
}
最基本的参数就是上面的这几个,分别为本地待上传的目录,上传的目标空间,指定这几个参数就可以将一个本地目录中的文件全部同步到空间中去。其余的一些参数,只是同步任务的其他场景下的可选参数。
假设有目录 /Users/jemy/Temp/uptest
,下面的文件结构为:
.
├── 2017
│ ├── 01
│ │ └── 03
│ │ ├── cut1.png
│ │ ├── cut2.png
│ │ ├── demo1.png
│ │ └── demo2.gif
│ ├── cut1.png
│ ├── cut2.png
│ ├── demo1.png
│ └── demo2.gif
├── cut1.png
├── cut2.png
├── demo1.png
└── demo2.gif
在上面的目录结构中,我们模拟了一些拥有子目录的情况,这种情况下,如果指定 src_dir
为 /Users/jemy/Temp/uptest
,那么默认上传到七牛空间的文件名都会带上从 src_dir
开始的文件的相对路径作为前缀,即上传的结果为:
2017/01/03/cut1.png
2017/01/03/cut2.png
2017/01/03/demo1.png
2017/01/03/demo2.gif
2017/cut1.png
2017/cut2.png
2017/demo1.png
2017/demo2.gif
cut1.png
cut2.png
demo1.png
demo2.gif
在上传的过程中,我们把上传的进度信息输出到标准输出,所以你可以看到它们,当然还有就是其他的上传日志信息,如果在不指定 log_file
参数的情况下,会默认写入到上传任务所在的目录中,这个日志文件的路径在上传的终端第一行输出和最后一行输出都可以看到。
Writing upload log to file /Users/jemy/.qshell/qupload/290438bcd0bcc7121bb22a56b1c95926/290438bcd0bcc7121bb22a56b1c95926.log
...
...
See upload log at path /Users/jemy/.qshell/qupload/290438bcd0bcc7121bb22a56b1c95926/290438bcd0bcc7121bb22a56b1c95926.log
上面的演示,我们的图片比较少,所以很容易成功,那么在大量文件要上传的情况下,怎么样保证上传完成的文件不再继续上传呢?我们在本地使用了一个 leveldb 数据库用来记录这个已上传成功的文件信息。 这个纪录的格式为 (k, v) => (MD5(bucket,uploadFileKey,localFilePath), 文件上传相关的 Json 信息),也就是说记录的 key 为上传的空间名、本地文件的路径加上上传到空间中的文件名构成的,而 value 则是文件上传相关的 Json 信息,这个用来在下次上传的时候检查文件是否已发生过变化。这个 leveldb 的数据库保存在上传任务的目录之下,每个上传的任务相关的文件都保存在以任务 ID 命名的目录之下。任务 ID 的生成算法为 MD5(SrcDir+":"+Bucket+":"+FileList)。
通过上面的方法,我们在每次上传之前,都会去检查是否已有文件上传成功,如果存在本地文件上传成功的记录,而且本地文件的最后修改时间没有变化的话,我们就认为该文件已上传过了,可以不用再传。
查看本地是否有上传记录
- 无,则直接上传
- 有,查看本地文件时间戳是否变化,检测服务文件修改时间是否变化,
- 二者均未发生变化则认为文件未发生变化,不再上传
- 本地/服务文件任一文件时间戳发生变化,则触发上传
上传
- 是否配置检查文件是否存在(
check_exists
)- 未配置,直接上传
- 配置,查看文件是否配置检测 Hash(
check_hash
)。- 配置检测 Hash,则检查本地文件 Hash 是否和服务 Hash 一致
- 一致则认为文件无变化,跳过上传
- 不一致则认为文件有变化,上传文件
- 未配置检测 Hash,检测本地文件和服务文件的大小是否一致
- 一致则认为文件无变化,跳过上传
- 不一致则认为文件有变化,上传文件
- 配置检测 Hash,则检查本地文件 Hash 是否和服务 Hash 一致
- 上传文件
上面说过我们可以处理中断的上传过程,从中断的地方继续上传,但是这里存在的问题是,在这个中断后的时间里面,本地文件内容是否发生过改变,如果发生过改变该怎么处理的问题?这种情况下,我们会比对文件当前的最后修改时间和 leveldb 数据库中记录的最后修改时间,如果时间不一致,我们认为该文件已被修改。这个时候,你可以指定一个参数 overwrite
来强制覆盖这个文件,否则的话,工具会给一个警告级别的日志信息,并记录为没有覆盖的文件。
{
"overwrite" : true
}
错误信息:
[E] Upload failed:./file/1K.tmp => [qshell-z0-01:1024K.tmp] error:upload source => form upload => file exists
overwrite
这个参数设置为 true
的时候,覆盖操作会在两种情况下发生:
- 本地文件的最后修改时间发生了改变(认为该文件内容已变化),并且在设置了
rescan_local
为true
的情况下; - 当开启了
check_exists
选项,发现空间已存在同名文件,而且在check_hash
或者check_size
发现文件内容 hash 或者大小不同的情况下;
总之,当本地文件发生改动的时候,如果你希望将改动后的文件覆盖空间已有的文件,那么请设置 overwrite
为 true
,否则默认情况下,不会去覆盖,因为这个操作很危险。
在上面的例子中,我们把相同的文件名都放在了不同的路径之下来演示默认的命名方式,有些情况下,你可能不需要文件名之前带上相对路径,这种情况下,你可以使用 ignore_dir
参数。
{
"src_dir" : "xxx",
"bucket" : "xxx",
"ignore_dir" : true
}
上传的结果为:
cut1.png
cut2.png
demo1.png
demo2.gif
在这个例子中,其实会存在一种情况,A 目录下的文件和 B 目录下的文件同名,但是内容不同,如果设置了 ignore_dir
为 true
的话,在 A 下面的文件先上传成功,B 下面的文件后上传的情况下,会演变为是否覆盖空间中同名文件的问题,这种情况下,如果你设置了 overwrite
为 true
那么就会去覆盖,否则就不去覆盖,参考上面的解释。
某些情况下,你可能需要为批量上传的文件指定统一的前缀,本工具为这种需求提供了支持,可以通过指定参数 key_prefix
来为上传的文件指定统一的前缀。前缀的添加规则如下:
- 在没有指定
ignore_dir
为true
的情况下,该前缀附加在文件相对路径的前面,假设待上传到空间的文件名是2017/01/03/demo1.png
,指定的key_prefix
为demo/
,那么最终落在空间中的文件名是demo/2017/01/03/demo1.png
; - 在指定了
ignore_dir
为true
的情况下,该前缀附加在文件名的前面,假设待上传到空间的文件名是demo1.png
,指定的key_prefix
为demo/
,那么最终落在空间中的文件名是demo/demo1.png
;
很多情况下,该工具的使用者的网络和七牛的网络都不是在一个内网,或者是机房或者是普通的办公网络和家庭网络。这种情况下,为了保证上传的速度和效率,必须走加速上传通道。目前本工具中使用的空间所在机房和对应的上传加速域名如下:
- 华东: http://upload.qiniu.com
- 华北: http://upload-z1.qiniu.com
- 华南: http://upload-z2.qiniu.com
- 北美: http://upload-na0.qiniu.com
- 东南亚: http://upload-as0.qiniup.com
本工具会根据配置文件中指定的空间参数,自动获取所应该使用的默认加速域名,所以不需要担心是否需要额外设置上传域名。
有些情况下,你可能想自己指定上传的入口域名,工具也为这种需求提供了参数 up_host
,你可以自行指定上传的域名来从这个入口上传文件。当然你需要根据空间所在的机房选择正确的上传入口域名,可选的域名列表如下:
- 华东
- 上传加速域名:http(s)://upload.qiniup.com
- 源站上传域名:http(s)://up.qiniup.com
- 华北
- 上传加速域名:http(s)://upload-z1.qiniup.com
- 源站上传域名:http(s)://up-z1.qiniup.com
- 华南
- 上传加速域名:http(s)://upload-z2.qiniup.com
- 源站上传域名:http(s)://up-z2.qiniup.com
- 北美
- 上传加速域名:http(s)://upload-na0.qiniup.com
- 源站上传域名:http(s)://up-na0.qiniup.com
- 东南亚
- 上传加速域名:http(s)://upload-as0.qiniup.com
- 源站上传域名:http(s)://up-as0.qiniup.com
一般来说,如果你的网络是机房网络,而且带宽比较大,那么可以选择七牛的源站上传域名来上传,否则都选择上传加速域名即可。
某些情况下,我们可能需要跳过某些文件或者目录不上传,比如 .git
或者 .svn
目录或者 Mac 下的 .DS_Store
文件等。本工具提供了 4 种根据文件名中字符串匹配的方式来跳过这些文件或者目录。
这 4 种参数,每种都可以指定多个值,每个值之间通过英文逗号( ,
)来分隔。特别提示,由于 qupload
中待上传的文件列表,都是相对于 src_dir
的相对路径,所以我们下面所说的文件名或者路径都默认不带 src_dir
前缀。
- 参数
skip_file_prefixes
可以忽略所有文件名(不带相对路径的文件名)以该参数中指定的字符串为前缀的文件。比如对于文件路径2017/01/03/demo1.png
,我们取出demo1.png
来进行检查,如果skip_file_prefixes
里面指定忽略前缀demo
,那么这个文件就会跳过不上传; - 参数
skip_path_prefixes
可以忽略所有文件路径(带相对路径的文件名)以该参数中指定的字符串为前缀的文件。比如对于文件路径2017/01/03/demo1.png
,我们检查这个文件路径是否有以skip_path_prefixes
中指定的字符串为前缀,如果是的话,那么这个文件就会跳过不上传; - 参数
skip_fixed_strings
可以忽略所有文件路径中存在该参数中指定的字符串的文件。比如对于文件路径2017/01/03/demo1.png
,在skip_fixed_strings
设置了2017,2018
的情况下,因为该文件路径出现了字符串2017
,所以会被跳过不上传; - 参数
skip_suffixes
可以忽略所有文件路径以该参数中指定的字符串为结尾的文件。比如如果我们想忽略图片文件不上传,我们可以设置skip_suffixes
为.png,.jpg,.gif
,那么上面的文件2017/01/03/demo1.png
就会被跳过不上传。
在某些情况下,我们在上传文件之前,可能需要先去检查下空间是否已存在同名的文件。如果存在的话,可能不再上传;也有可能再判断下是否内容相同或者文件大小相同,如果不同再上传。
我们提供了 check_exists
, check_hash
和 check_size
三个额外的参数来支持该功能。其中 check_hash
和 check_size
在设置了 check_exists
为 true
的情况下,才生效。
- 当设置了
check_exists
为true
的情况下,工具不再检查本地的 leveldb 数据库该文件是否已上传成功,而是去查询空间中是否存在同名文件。 - 如果发现空间中已存在同名文件,并且
check_hash
和check_size
都设置为false
的情况下,那么工具认为该文件已上传成功,无需再传。 - 如果上面指定了
check_hash
或者check_size
为true
的话,会进行进一步的检查,其中优先使用check_hash
选项,该选项会将从空间获取的文件 hash 和本地计算得到的文件 hash 进行比较,如果相同,则认为该文件已上传成功,无需再传。 - 当
check_hash
没有设置或者设置为false
的情况下,才去检查check_size
是否设置为true
,如果设置为true
,则比较空间中获取的文件大小和本地文件的大小,如果大小相同,则认为该文件已上传成功,无需再传。
上面的这些检查,当认为该文件已上传成功,无需再传的时候,都会去同时更新 leveldb 数据库,记录下这个状态。
当我们思考如何设置上面的选项的时候,我们只需要根据几个场景来进行选择即可:
- 待同步的文件是否存在从多个地方进行同步的情况,并且这种情况下之后,是否会存在同名文件?如果存在,那么可以设置
check_exists
为true
; - 在第
1
步确认之后,我们再想一下,多个地方存在的这些同名文件,是否内容是相同的,如果相同,那么我们就可以不再考虑设置check_hash
和check_size
; - 如果进行到了第
3
步,那么肯定存在文件名相同,但是内容不同的情况,这个时候为了提升上传的检查效率,我们区分一下检查方式只是简单地比对下文件大小还是去根据内容进行比较,即计算文件的 hash 值进行比较。很显然,计算文件的 hash 值进行比较,是需要将文件内容加载到内存进行计算,对于大文件例如视频文件,这种方式的效率肯定不如检查文件大小。所以第3
步里面选择check_hash
还是check_size
设置为true
,根据实际需要进行。当同时设置了check_hash
和check_size
为true
的情况下,则仅会检查文件的 hash 而不是文件大小。
上面我们讲解过默认日志文件的内容,默认日志文件的日志级别是 INFO,保存在以上传任务 ID 命名的目录之下,通过终端输出的方式告诉你日志文件的所在位置。这个主要是避免有些用户着急上传,然后遇到问题难以调查,所以工具默认写入一个日志文件,方便后面协查问题。
当然,你也可以自行指定日志文件的级别和保存的文件路径。工具提供了 log_level
和 log_file
两个参数选项来支持这种设置。
log_level
的可选值依次为debug
,info
,warn
,error
,不指定的情况下,默认为info
级别的日志。log_file
的值为日志保存的文件路径,可以指定任意一个使用者拥有写入权限的文件。
有些情况下,我们希望能上传指定的文件列表,比如遇到上面的跳过规则无法覆盖的场合或者是其他的情况,这种情况下,我们可以指定 file_list
参数来上传指定的文件列表。这个 file_list
参数所指定的文件列表必须使用 dir_cache
命令来生成,你可以对这个生成的列表进行删除操作,删除掉不需要上传的文件。
增量上传主要解决两个问题,第一就是文件的新增,第二就是文件的内容已改动。
这两种情况下,需要设置参数 rescan_local
为 true
去重新获取本地目录下的文件列表信息,然后再同步。默认情况下这个参数设置为 false
,也就是说如果本地目录不存在文件的更新操作,那么如果上传中断的话,会使用上一次完整获取的文件列表。之所以这样做,是因为对于海量的数据同步,获取一次完整的文件列表也是十分耗费时间的。
目前该工具支持增量上传的方式,仍然是重新运行上传命令,尚不支持后台常驻,自动检测更新进行同步的功能。
目前尚不支持本地文件删除,同步删除空间中的文件的操作。因为很多情况下,这个操作十分危险,如果需要批量删除空间中的文件的话,可以使用本工具的 batchdelete
。
对于某些场景下,比如日志的归档,可能需要在文件上传成功之后,需要删除本地磁盘上面的文件以达到节约空间的目的。默认情况下,该功能是禁用状态,可以开启delete_on_success
选项来支持该功能。
对于上传的文件,我们可以导出各个结果的列表,所以 qupload
额外支持三个命令行选项参数,分别是:success-list
,failure-list
和 overwrite-list
。
其中 success-list
表示所有上传成功的文件列表,而 failure-list
则表示所有上传失败的文件列表。另外 overwrite-list
表示所有上传是覆盖了空间已有文件的列表,这个列表的意义在于可以用来拼接 CDN 的域名,进行 CDN 资源的刷新操作,以及时更新节点文件。
命令格式:
$ qshell qupload --success-list success.txt upload.conf
特别提示:由于这些选项所指定的文件在每次运行命令时,如果文件已存在,则已有内容会被清空然后写入新的内容,所以注意每次命令运行指定不同的文件。