From c6d61368cf90126916a5ac4485e7635da5b23684 Mon Sep 17 00:00:00 2001 From: LiuZhian Date: Sat, 10 Jul 2021 12:38:39 +0800 Subject: [PATCH 1/8] [Doc] Add Chinese translation of install.md --- docs_zh-CN/install.md | 93 +++++++++++++++++++++++++++++++++++++++++-- 1 file changed, 89 insertions(+), 4 deletions(-) diff --git a/docs_zh-CN/install.md b/docs_zh-CN/install.md index 2e2d906318..befc0c117f 100644 --- a/docs_zh-CN/install.md +++ b/docs_zh-CN/install.md @@ -1,11 +1,96 @@ ## 依赖 -- Linux (Windows is not officially supported) +- Linux (目前Windows不是官方支持) - Python 3.6+ -- PyTorch 1.3 or higher -- CUDA 9.0 or higher +- PyTorch 1.3 或更高 +- CUDA 9.0 或更高 - NCCL 2 -- GCC 4.9 or higher +- GCC 4.9 或更高 - [mmcv](https://github.com/open-mmlab/mmcv) ## 安装 +a. 创建并激活 conda 虚拟环境,如: + +```shell script +conda create -n open-mmlab python=3.7 -y +conda activate open-mmlab +``` +b. 安装[PyTorch官方文档](https://pytorch.org/)安装PyTorch和torchvision,如: + +```shell script +conda install pytorch torchvision -c pytorch +``` +注意:确保你的 CUDA 编译版本和 CUDA 运行版本相匹配。 用户可以参照 [PyTorch官网](https://pytorch.org/) 对预编译包所支持的 CUDA 版本进行核对。 + +`例1`:如果你在 `/usr/local/cuda` 文件夹下已安装了 CUDA 10.1 版本,并且想要安装 PyTorch 1.5 版本,则需要安装 CUDA 10.1 下预编译的 PyTorch。 +```shell script +conda install pytorch cudatoolkit=10.1 torchvision -c pytorch +``` +`例2`:如果你在 /usr/local/cuda 文件夹下已安装 CUDA 9.2 版本,并且想要安装 PyTorch 1.3.1 版本,则需要安装 CUDA 9.2 下预编译的 PyTorch。 +```shell script +conda install pytorch=1.3.1 cudatoolkit=9.2 torchvision=0.4.2 -c pytorch +``` +如果你从源码编译PyTorch而不是安装的预编译版本的话,你可以使用更多CUDA版本(例如9.0)。 + +c. 克隆MMEditing仓库 +```shell script +git clone https://github.com/open-mmlab/mmediting.git +cd mmediting +``` + +d. 安装相关依赖和MMEditing +```shell script +pip install -r requirements.txt +pip install -v -e . # or "python setup.py develop" +``` +如果你是在 macOS 环境安装,则需将上述命令的最后一行替换为: +```shell script +CC=clang CXX=clang++ CFLAGS='-stdlib=libc++' pip install -e . +``` +注意: +1. git commit 的 id 将会被写到版本号中,如 0.6.0+2e7045c。这个版本号也会被保存到训练好的模型中。 推荐用户每次在对本地代码和 github 上的源码进行同步后,执行一次步骤 b。如果 C++/CUDA 代码被修改,就必须进行这一步骤。 +> 重要:如果你在一个新的 CUDA/PyTorch 版本下重新安装了mmedit,请确保删除了`./build`文件夹 +```shell script +pip uninstall mmedit +rm -rf ./build +find . -name "*.so" | xargs rm +``` +2. 根据上述步骤,MMEditing 就会以 `dev` 模式被安装,任何本地的代码修改都会立刻生效,不需要再重新安装一遍(除非用户提交了 commits,并且想更新版本号)。 + +3. 如果用户想使用 `opencv-python-headless` 而不是 `opencv-python`,可在安装 `MMCV` 前安装 `opencv-python-headless`。 + +4. 有些模型(例如图像修复任务中的`EDVR`)依赖于`mmcv-full`中的一些CUDA算子,具体的依赖可在`requirements.txt`中找到。 +使用默认的命令`pip install -r requirements.txt`安装过程中,会在本地编译CUDA算子,这个过程大概需要10分钟。 +另一种方案是安装预编译版本的`mmcv-full`,请参考[MMCV主页](https://github.com/open-mmlab/mmcv#install-with-pip)获取具体的安装指令。 +此外,如果你要使用的模型不依赖于CUDA算子,那么你也可以使用`pip install mmcv`来安装轻量版本的mmcv,其中CUDA算子被移除了。 +## CPU 环境下的安装步骤 +MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环境)。 + +然而在这种环境下,有些功能将被移除: +- Deformable Convolution(可变形卷积) + +因此,如果您尝试使用一些包含可变形卷积的模型进行推理,则会出现错误。 + +## 利用 Docker 镜像安装 MMEditing +MMEditing 提供了一个[Dockerfile](https://github.com/open-mmlab/mmediting/blob/master/docker/Dockerfile)来创建docker镜像 +```shell script +# build an image with PyTorch 1.5, CUDA 10.1 +docker build -t mmediting docker/ +``` +运行以下命令: +```shell script +docker run --gpus all --shm-size=8g -it -v {DATA_DIR}:/mmediting/data mmediting +``` + +## 完整的安装脚本 +```shell script +conda create -n open-mmlab python=3.7 -y +conda activate open-mmlab + +# install latest pytorch prebuilt with the default prebuilt CUDA version (usually the latest) +conda install -c pytorch pytorch torchvision -y +git clone https://github.com/open-mmlab/mmediting.git +cd mmediting +pip install -r requirements.txt +pip install -v -e . +``` From 059f18e7d1c6c14438a73916aa7ec65a68c0264a Mon Sep 17 00:00:00 2001 From: LiuZhian Date: Sat, 10 Jul 2021 22:04:55 +0800 Subject: [PATCH 2/8] [Doc] Add Chinese translation of super-resolution datasets description files --- tools/data/super-resolution/README_zh-CN.md | 10 ++- .../super-resolution/div2k/README_zh-CN.md | 79 +++++++++++++++++++ .../super-resolution/reds/README_zh-CN.md | 41 ++++++++++ .../super-resolution/vid4/README_zh-CN.md | 6 ++ .../super-resolution/vimeo90k/README_zh-CN.md | 33 ++++++++ 5 files changed, 168 insertions(+), 1 deletion(-) diff --git a/tools/data/super-resolution/README_zh-CN.md b/tools/data/super-resolution/README_zh-CN.md index b39b3a37b1..ceffa3c223 100644 --- a/tools/data/super-resolution/README_zh-CN.md +++ b/tools/data/super-resolution/README_zh-CN.md @@ -1 +1,9 @@ -# 数据集 - 复原 +# 超分辨数据集 +建议将数据集的根目录链接到`$MMEDITING/data`下,如果你的文件目录结构不一致,那么你可能需要在配置文件中修改对应的文件路径。 + +MMEditing支持下列超分辨数据集: +- 图像超分辨 + - [DIV2K](div2k/README.md) \[ [Homepage](https://data.vision.ee.ethz.ch/cvl/DIV2K/) \] +- 视频超分辨 + - [REDS](reds/README.md) \[ [Homepage](https://seungjunnah.github.io/Datasets/reds.html) \] + - [Vimeo90K](vimeo90k/README.md) \[ [Homepage](http://toflow.csail.mit.edu) \] diff --git a/tools/data/super-resolution/div2k/README_zh-CN.md b/tools/data/super-resolution/div2k/README_zh-CN.md index 3fd493c393..eb467ac382 100644 --- a/tools/data/super-resolution/div2k/README_zh-CN.md +++ b/tools/data/super-resolution/div2k/README_zh-CN.md @@ -11,3 +11,82 @@ year = {2017} } ``` + +- 训练集: [DIV2K dataset](https://data.vision.ee.ethz.ch/cvl/DIV2K/). +- 验证集: Set5 and Set14. + +```text +mmediting +├── mmedit +├── tools +├── configs +├── data +│ ├── DIV2K +│ │ ├── DIV2K_train_HR +│ │ ├── DIV2K_train_LR_bicubic +│ │ │ ├── X2 +│ │ │ ├── X3 +│ │ │ ├── X4 +│ │ ├── DIV2K_valid_HR +│ │ ├── DIV2K_valid_LR_bicubic +│ │ │ ├── X2 +│ │ │ ├── X3 +│ │ │ ├── X4 +│ ├── val_set5 +│ │ ├── Set5_bicLRx2 +│ │ ├── Set5_bicLRx3 +│ │ ├── Set5_bicLRx4 +│ ├── val_set14 +│ │ ├── Set14_bicLRx2 +│ │ ├── Set14_bicLRx3 +│ │ ├── Set14_bicLRx4 +``` + +## 裁剪子图 +为了加快IO,建议将DIV2K中的图片裁剪为一系列子图,为此,我们提供了一个脚本: +```shell +python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K +``` +生成的数据保存在`DIV2K`目录下,其文件结构如下所示,其中`_sub` 表示子图: + +```text +mmediting +├── mmedit +├── tools +├── configs +├── data +│ ├── DIV2K +│ │ ├── DIV2K_train_HR +│ │ ├── DIV2K_train_HR_sub +│ │ ├── DIV2K_train_LR_bicubic +│ │ │ ├── X2 +│ │ │ ├── X3 +│ │ │ ├── X4 +│ │ │ ├── X2_sub +│ │ │ ├── X3_sub +│ │ │ ├── X4_sub +│ │ ├── DIV2K_valid_HR +│ │ ├── ... +... +``` + +## 准备标注列表文件 +如果你想使用`标注模式`来处理数据集,你需要先准备一个 `txt` 格式的标注文件。 + +标准文件中的每一行包含了图片名以及图片尺寸(这些通常是ground-truth图片),这两个字段用空格间隔开。 + +标注文件示例: + +```text +0001_s001.png (480,480,3) +0001_s002.png (480,480,3) +``` + +## 准备LMDB格式的DIV2K数据集 + +如果你想使用`LMDB`以获得更快的IO速度,可以通过以下脚本来构建LMDB文件 + +```shell +python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K --make-lmdb +``` + diff --git a/tools/data/super-resolution/reds/README_zh-CN.md b/tools/data/super-resolution/reds/README_zh-CN.md index a2f608cf0b..29a5cf3679 100644 --- a/tools/data/super-resolution/reds/README_zh-CN.md +++ b/tools/data/super-resolution/reds/README_zh-CN.md @@ -11,3 +11,44 @@ year = {2019} } ``` + +- 训练集: [REDS 数据集](https://seungjunnah.github.io/Datasets/reds.html). +- 验证集: [REDS 数据集](https://seungjunnah.github.io/Datasets/reds.html) 和 Vid4. + +请注意,我们合并了 REDS 的训练集和验证集,以便在 REDS4划分(在`EDVR`中使用到)和 官方验证集划分 之间切换。 + +原始的验证集名称被修改了(clip 000 到 029),以避免与训练集发生冲突(总共 240 个clip)。具体而言,验证集中的clips被改名为 240、241、... 269。 + +可通过运行以下命令来准备REDS数据集: + +```shell +python tools/data/super-resolution/reds/preprocess_reds_dataset.py ./data/REDS +``` + +```text +mmediting +├── mmedit +├── tools +├── configs +├── data +│ ├── REDS +│ │ ├── train_sharp +│ │ │ ├── 000 +│ │ │ ├── 001 +│ │ │ ├── ... +│ │ ├── train_sharp_bicubic +│ │ │ ├── 000 +│ │ │ ├── 001 +│ │ │ ├── ... +│ ├── REDS4 +│ │ ├── GT +│ │ ├── sharp_bicubic +``` + +## 准备LMDB格式的REDS数据集 + +如果你想使用`LMDB`以获得更快的IO速度,可以通过以下脚本来构建LMDB文件: +```shell +python tools/data/super-resolution/reds/preprocess_reds_dataset.py --root-path ./data/REDS --make-lmdb +``` + diff --git a/tools/data/super-resolution/vid4/README_zh-CN.md b/tools/data/super-resolution/vid4/README_zh-CN.md index 3203fd3df3..bffbdf03e7 100644 --- a/tools/data/super-resolution/vid4/README_zh-CN.md +++ b/tools/data/super-resolution/vid4/README_zh-CN.md @@ -14,3 +14,9 @@ publisher={IEEE} } ``` + +可以从[此处](https://drive.google.com/file/d/1ZuvNNLgR85TV_whJoHM7uVb-XW1y70DW/view?usp=sharing) 下载Vid4数据集, +其中包含了两种下采样方法得到的图片: + +1. BIx4 包含了由双线性插值下采样得到的图片 +2. BDx4 包含了由`σ=1.6`的高斯核模糊,然后每4个像素进行一次采样得到的图片 \ No newline at end of file diff --git a/tools/data/super-resolution/vimeo90k/README_zh-CN.md b/tools/data/super-resolution/vimeo90k/README_zh-CN.md index c0452d7b33..2a6b11325a 100644 --- a/tools/data/super-resolution/vimeo90k/README_zh-CN.md +++ b/tools/data/super-resolution/vimeo90k/README_zh-CN.md @@ -14,3 +14,36 @@ publisher={Springer} } ``` +训练集和测试集可以从 [此处](http://toflow.csail.mit.edu/) 下载。 + +Vimeo90K 数据集包含了如下所示的`clip/sequence/img`目录结构: +```text +├── GT/LQ +│ ├── 00001 +│ │ ├── 0001 +│ │ │ ├── im1.png +│ │ │ ├── im2.png +│ │ │ ├── ... +│ │ ├── 0002 +│ │ ├── 0003 +│ │ ├── ... +│ ├── 00002 +│ ├── ... +``` + +## 准备Vimeo90K数据集的标注文件 +为了准备好训练所需的标注文件,请先从Vimeo90K数据集官网下载训练路径列表,随后执行如下命令: + +```shell +python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./data/Vimeo90K/official_train_list.txt +``` + +测试集的标注文件可通过类似方式生成. + + +## 准备LMDB格式的Vimeo90K数据集 + +如果你想使用`LMDB`以获得更快的IO速度,可以通过以下脚本来构建LMDB文件 +```shell +python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./data/Vimeo90K/official_train_list.txt --gt_path ./data/Vimeo90K/GT --lq_path ./data/Vimeo90K/LQ --make-lmdb +``` From d87e53e41bc0cbd41669e1a0ee9ea18eee70df2d Mon Sep 17 00:00:00 2001 From: liuzhian Date: Sun, 11 Jul 2021 15:02:08 +0800 Subject: [PATCH 3/8] [Doc] insert a space bwtween Chinese and English --- docs_zh-CN/install.md | 30 +++++++++---------- tools/data/super-resolution/README_zh-CN.md | 2 +- .../super-resolution/div2k/README_zh-CN.md | 10 +++---- .../super-resolution/reds/README_zh-CN.md | 10 +++---- .../super-resolution/vid4/README_zh-CN.md | 4 +-- .../super-resolution/vimeo90k/README_zh-CN.md | 8 ++--- 6 files changed, 32 insertions(+), 32 deletions(-) diff --git a/docs_zh-CN/install.md b/docs_zh-CN/install.md index befc0c117f..42bb6567b6 100644 --- a/docs_zh-CN/install.md +++ b/docs_zh-CN/install.md @@ -1,6 +1,6 @@ ## 依赖 -- Linux (目前Windows不是官方支持) +- Linux (目前 Windows 不是官方支持) - Python 3.6+ - PyTorch 1.3 或更高 - CUDA 9.0 或更高 @@ -15,7 +15,7 @@ a. 创建并激活 conda 虚拟环境,如: conda create -n open-mmlab python=3.7 -y conda activate open-mmlab ``` -b. 安装[PyTorch官方文档](https://pytorch.org/)安装PyTorch和torchvision,如: +b. 按照 [PyTorch官方文档](https://pytorch.org/) 安装 PyTorch 和 torchvision,如: ```shell script conda install pytorch torchvision -c pytorch @@ -26,53 +26,53 @@ conda install pytorch torchvision -c pytorch ```shell script conda install pytorch cudatoolkit=10.1 torchvision -c pytorch ``` -`例2`:如果你在 /usr/local/cuda 文件夹下已安装 CUDA 9.2 版本,并且想要安装 PyTorch 1.3.1 版本,则需要安装 CUDA 9.2 下预编译的 PyTorch。 +`例2`:如果你在 `/usr/local/cuda` 文件夹下已安装 CUDA 9.2 版本,并且想要安装 PyTorch 1.3.1 版本,则需要安装 CUDA 9.2 下预编译的 PyTorch。 ```shell script conda install pytorch=1.3.1 cudatoolkit=9.2 torchvision=0.4.2 -c pytorch ``` -如果你从源码编译PyTorch而不是安装的预编译版本的话,你可以使用更多CUDA版本(例如9.0)。 +如果你从源码编译 PyTorch 而不是安装的预编译版本的话,你可以使用更多 CUDA 版本(例如9.0)。 -c. 克隆MMEditing仓库 +c. 克隆 MMEditing 仓库 ```shell script git clone https://github.com/open-mmlab/mmediting.git cd mmediting ``` -d. 安装相关依赖和MMEditing +d. 安装相关依赖和 MMEditing ```shell script pip install -r requirements.txt pip install -v -e . # or "python setup.py develop" ``` -如果你是在 macOS 环境安装,则需将上述命令的最后一行替换为: +如果你是在 macOS 环境下安装,则需将上述命令的最后一行替换为: ```shell script CC=clang CXX=clang++ CFLAGS='-stdlib=libc++' pip install -e . ``` 注意: 1. git commit 的 id 将会被写到版本号中,如 0.6.0+2e7045c。这个版本号也会被保存到训练好的模型中。 推荐用户每次在对本地代码和 github 上的源码进行同步后,执行一次步骤 b。如果 C++/CUDA 代码被修改,就必须进行这一步骤。 -> 重要:如果你在一个新的 CUDA/PyTorch 版本下重新安装了mmedit,请确保删除了`./build`文件夹 +> 重要:如果你在一个新的 CUDA/PyTorch 版本下重新安装了 mmedit ,请确保删除了`./build`文件夹 ```shell script pip uninstall mmedit rm -rf ./build find . -name "*.so" | xargs rm ``` -2. 根据上述步骤,MMEditing 就会以 `dev` 模式被安装,任何本地的代码修改都会立刻生效,不需要再重新安装一遍(除非用户提交了 commits,并且想更新版本号)。 +2. 根据上述步骤, MMEditing 就会以 `dev` 模式被安装,任何本地的代码修改都会立刻生效,不需要再重新安装一遍(除非用户提交了 commits,并且想更新版本号)。 3. 如果用户想使用 `opencv-python-headless` 而不是 `opencv-python`,可在安装 `MMCV` 前安装 `opencv-python-headless`。 -4. 有些模型(例如图像修复任务中的`EDVR`)依赖于`mmcv-full`中的一些CUDA算子,具体的依赖可在`requirements.txt`中找到。 -使用默认的命令`pip install -r requirements.txt`安装过程中,会在本地编译CUDA算子,这个过程大概需要10分钟。 -另一种方案是安装预编译版本的`mmcv-full`,请参考[MMCV主页](https://github.com/open-mmlab/mmcv#install-with-pip)获取具体的安装指令。 -此外,如果你要使用的模型不依赖于CUDA算子,那么你也可以使用`pip install mmcv`来安装轻量版本的mmcv,其中CUDA算子被移除了。 +4. 有些模型(例如图像修复任务中的 `EDVR`)依赖于`mmcv-full`中的一些 CUDA 算子,具体的依赖可在`requirements.txt`中找到。 +如需要,请通过 `pip install -r requirements.txt`命令来安装`mmcv-full`,安装过程中会在本地编译 CUDA 算子,这个过程大概需要10分钟。 +另一种方案是安装预编译版本的`mmcv-full`,请参考 [MMCV主页](https://github.com/open-mmlab/mmcv#install-with-pip) 获取具体的安装指令。 +此外,如果你要使用的模型不依赖于 CUDA 算子,那么也可以使用`pip install mmcv`来安装轻量版本的 mmcv,其中 CUDA 算子被移除了。 ## CPU 环境下的安装步骤 MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环境)。 -然而在这种环境下,有些功能将被移除: +然而在该环境下,有些功能将被移除,例如: - Deformable Convolution(可变形卷积) 因此,如果您尝试使用一些包含可变形卷积的模型进行推理,则会出现错误。 ## 利用 Docker 镜像安装 MMEditing -MMEditing 提供了一个[Dockerfile](https://github.com/open-mmlab/mmediting/blob/master/docker/Dockerfile)来创建docker镜像 +MMEditing 提供了一个 [Dockerfile](https://github.com/open-mmlab/mmediting/blob/master/docker/Dockerfile) 来创建 docker 镜像 ```shell script # build an image with PyTorch 1.5, CUDA 10.1 docker build -t mmediting docker/ diff --git a/tools/data/super-resolution/README_zh-CN.md b/tools/data/super-resolution/README_zh-CN.md index ceffa3c223..024fa572d1 100644 --- a/tools/data/super-resolution/README_zh-CN.md +++ b/tools/data/super-resolution/README_zh-CN.md @@ -1,7 +1,7 @@ # 超分辨数据集 建议将数据集的根目录链接到`$MMEDITING/data`下,如果你的文件目录结构不一致,那么你可能需要在配置文件中修改对应的文件路径。 -MMEditing支持下列超分辨数据集: +MMEditing 支持下列超分辨数据集: - 图像超分辨 - [DIV2K](div2k/README.md) \[ [Homepage](https://data.vision.ee.ethz.ch/cvl/DIV2K/) \] - 视频超分辨 diff --git a/tools/data/super-resolution/div2k/README_zh-CN.md b/tools/data/super-resolution/div2k/README_zh-CN.md index eb467ac382..23bb68697c 100644 --- a/tools/data/super-resolution/div2k/README_zh-CN.md +++ b/tools/data/super-resolution/div2k/README_zh-CN.md @@ -43,11 +43,11 @@ mmediting ``` ## 裁剪子图 -为了加快IO,建议将DIV2K中的图片裁剪为一系列子图,为此,我们提供了一个脚本: +为了加快 IO,建议将 DIV2K 中的图片裁剪为一系列子图,为此,我们提供了一个脚本: ```shell python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K ``` -生成的数据保存在`DIV2K`目录下,其文件结构如下所示,其中`_sub` 表示子图: +生成的数据保存在 `DIV2K` 目录下,其文件结构如下所示,其中 `_sub` 表示子图: ```text mmediting @@ -73,7 +73,7 @@ mmediting ## 准备标注列表文件 如果你想使用`标注模式`来处理数据集,你需要先准备一个 `txt` 格式的标注文件。 -标准文件中的每一行包含了图片名以及图片尺寸(这些通常是ground-truth图片),这两个字段用空格间隔开。 +标准文件中的每一行包含了图片名以及图片尺寸(这些通常是 ground-truth 图片),这两个字段用空格间隔开。 标注文件示例: @@ -82,9 +82,9 @@ mmediting 0001_s002.png (480,480,3) ``` -## 准备LMDB格式的DIV2K数据集 +## 准备 LMDB 格式的 DIV2K 数据集 -如果你想使用`LMDB`以获得更快的IO速度,可以通过以下脚本来构建LMDB文件 +如果你想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件 ```shell python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K --make-lmdb diff --git a/tools/data/super-resolution/reds/README_zh-CN.md b/tools/data/super-resolution/reds/README_zh-CN.md index 29a5cf3679..8f12176882 100644 --- a/tools/data/super-resolution/reds/README_zh-CN.md +++ b/tools/data/super-resolution/reds/README_zh-CN.md @@ -15,11 +15,11 @@ - 训练集: [REDS 数据集](https://seungjunnah.github.io/Datasets/reds.html). - 验证集: [REDS 数据集](https://seungjunnah.github.io/Datasets/reds.html) 和 Vid4. -请注意,我们合并了 REDS 的训练集和验证集,以便在 REDS4划分(在`EDVR`中使用到)和 官方验证集划分 之间切换。 +请注意,我们合并了 REDS 的训练集和验证集,以便在 REDS4 划分(在`EDVR`中会使用到)和官方验证集划分之间切换。 -原始的验证集名称被修改了(clip 000 到 029),以避免与训练集发生冲突(总共 240 个clip)。具体而言,验证集中的clips被改名为 240、241、... 269。 +原始验证集的名称被修改了(clip 000 到 029),以避免与训练集发生冲突(总共 240 个clip)。具体而言,验证集中的 clips 被改名为 240、241、... 269。 -可通过运行以下命令来准备REDS数据集: +可通过运行以下命令来准备 REDS 数据集: ```shell python tools/data/super-resolution/reds/preprocess_reds_dataset.py ./data/REDS @@ -45,9 +45,9 @@ mmediting │ │ ├── sharp_bicubic ``` -## 准备LMDB格式的REDS数据集 +## 准备 LMDB 格式的 REDS 数据集 -如果你想使用`LMDB`以获得更快的IO速度,可以通过以下脚本来构建LMDB文件: +如果你想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件: ```shell python tools/data/super-resolution/reds/preprocess_reds_dataset.py --root-path ./data/REDS --make-lmdb ``` diff --git a/tools/data/super-resolution/vid4/README_zh-CN.md b/tools/data/super-resolution/vid4/README_zh-CN.md index bffbdf03e7..0cacc86fec 100644 --- a/tools/data/super-resolution/vid4/README_zh-CN.md +++ b/tools/data/super-resolution/vid4/README_zh-CN.md @@ -15,8 +15,8 @@ } ``` -可以从[此处](https://drive.google.com/file/d/1ZuvNNLgR85TV_whJoHM7uVb-XW1y70DW/view?usp=sharing) 下载Vid4数据集, +可以从 [此处](https://drive.google.com/file/d/1ZuvNNLgR85TV_whJoHM7uVb-XW1y70DW/view?usp=sharing) 下载 Vid4 数据集, 其中包含了两种下采样方法得到的图片: 1. BIx4 包含了由双线性插值下采样得到的图片 -2. BDx4 包含了由`σ=1.6`的高斯核模糊,然后每4个像素进行一次采样得到的图片 \ No newline at end of file +2. BDx4 包含了由 `σ=1.6` 的高斯核模糊,然后每4个像素进行一次采样得到的图片 \ No newline at end of file diff --git a/tools/data/super-resolution/vimeo90k/README_zh-CN.md b/tools/data/super-resolution/vimeo90k/README_zh-CN.md index 2a6b11325a..330c0134bc 100644 --- a/tools/data/super-resolution/vimeo90k/README_zh-CN.md +++ b/tools/data/super-resolution/vimeo90k/README_zh-CN.md @@ -31,8 +31,8 @@ Vimeo90K 数据集包含了如下所示的`clip/sequence/img`目录结构: │ ├── ... ``` -## 准备Vimeo90K数据集的标注文件 -为了准备好训练所需的标注文件,请先从Vimeo90K数据集官网下载训练路径列表,随后执行如下命令: +## 准备 Vimeo90K 数据集的标注文件 +为了准备好训练所需的标注文件,请先从 Vimeo90K 数据集官网下载训练路径列表,随后执行如下命令: ```shell python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./data/Vimeo90K/official_train_list.txt @@ -41,9 +41,9 @@ python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./dat 测试集的标注文件可通过类似方式生成. -## 准备LMDB格式的Vimeo90K数据集 +## 准备 LMDB 格式的 Vimeo90K 数据集 -如果你想使用`LMDB`以获得更快的IO速度,可以通过以下脚本来构建LMDB文件 +如果你想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件 ```shell python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./data/Vimeo90K/official_train_list.txt --gt_path ./data/Vimeo90K/GT --lq_path ./data/Vimeo90K/LQ --make-lmdb ``` From 55c8390c0e8749f687766c3c78bff5e6577dec11 Mon Sep 17 00:00:00 2001 From: liuzhian Date: Sun, 11 Jul 2021 16:07:38 +0800 Subject: [PATCH 4/8] [Doc] Add missing space between Chinese and English --- docs_zh-CN/install.md | 12 ++++++------ tools/data/super-resolution/README_zh-CN.md | 2 +- tools/data/super-resolution/reds/README_zh-CN.md | 4 ++-- tools/data/super-resolution/vid4/README_zh-CN.md | 2 +- tools/data/super-resolution/vimeo90k/README_zh-CN.md | 2 +- 5 files changed, 11 insertions(+), 11 deletions(-) diff --git a/docs_zh-CN/install.md b/docs_zh-CN/install.md index 42bb6567b6..2b6bbc02bb 100644 --- a/docs_zh-CN/install.md +++ b/docs_zh-CN/install.md @@ -15,12 +15,12 @@ a. 创建并激活 conda 虚拟环境,如: conda create -n open-mmlab python=3.7 -y conda activate open-mmlab ``` -b. 按照 [PyTorch官方文档](https://pytorch.org/) 安装 PyTorch 和 torchvision,如: +b. 按照 [PyTorch 官方文档](https://pytorch.org/) 安装 PyTorch 和 torchvision,如: ```shell script conda install pytorch torchvision -c pytorch ``` -注意:确保你的 CUDA 编译版本和 CUDA 运行版本相匹配。 用户可以参照 [PyTorch官网](https://pytorch.org/) 对预编译包所支持的 CUDA 版本进行核对。 +注意:确保你的 CUDA 编译版本和 CUDA 运行版本相匹配。 用户可以参照 [PyTorch 官网](https://pytorch.org/) 对预编译包所支持的 CUDA 版本进行核对。 `例1`:如果你在 `/usr/local/cuda` 文件夹下已安装了 CUDA 10.1 版本,并且想要安装 PyTorch 1.5 版本,则需要安装 CUDA 10.1 下预编译的 PyTorch。 ```shell script @@ -59,10 +59,10 @@ find . -name "*.so" | xargs rm 3. 如果用户想使用 `opencv-python-headless` 而不是 `opencv-python`,可在安装 `MMCV` 前安装 `opencv-python-headless`。 -4. 有些模型(例如图像修复任务中的 `EDVR`)依赖于`mmcv-full`中的一些 CUDA 算子,具体的依赖可在`requirements.txt`中找到。 -如需要,请通过 `pip install -r requirements.txt`命令来安装`mmcv-full`,安装过程中会在本地编译 CUDA 算子,这个过程大概需要10分钟。 -另一种方案是安装预编译版本的`mmcv-full`,请参考 [MMCV主页](https://github.com/open-mmlab/mmcv#install-with-pip) 获取具体的安装指令。 -此外,如果你要使用的模型不依赖于 CUDA 算子,那么也可以使用`pip install mmcv`来安装轻量版本的 mmcv,其中 CUDA 算子被移除了。 +4. 有些模型(例如图像修复任务中的 `EDVR`)依赖于 `mmcv-full` 中的一些 CUDA 算子,具体的依赖可在 `requirements.txt` 中找到。 +如需要,请通过 `pip install -r requirements.txt` 命令来安装 `mmcv-full`,安装过程中会在本地编译 CUDA 算子,这个过程大概需要10分钟。 +另一种方案是安装预编译版本的 `mmcv-full`,请参考 [MMCV 主页](https://github.com/open-mmlab/mmcv#install-with-pip) 获取具体的安装指令。 +此外,如果你要使用的模型不依赖于 CUDA 算子,那么也可以使用 `pip install mmcv`来安装轻量版本的 mmcv,其中 CUDA 算子被移除了。 ## CPU 环境下的安装步骤 MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环境)。 diff --git a/tools/data/super-resolution/README_zh-CN.md b/tools/data/super-resolution/README_zh-CN.md index 024fa572d1..04fe99e324 100644 --- a/tools/data/super-resolution/README_zh-CN.md +++ b/tools/data/super-resolution/README_zh-CN.md @@ -1,5 +1,5 @@ # 超分辨数据集 -建议将数据集的根目录链接到`$MMEDITING/data`下,如果你的文件目录结构不一致,那么你可能需要在配置文件中修改对应的文件路径。 +建议将数据集的根目录链接到 `$MMEDITING/data` 下,如果你的文件目录结构不一致,那么你可能需要在配置文件中修改对应的文件路径。 MMEditing 支持下列超分辨数据集: - 图像超分辨 diff --git a/tools/data/super-resolution/reds/README_zh-CN.md b/tools/data/super-resolution/reds/README_zh-CN.md index 8f12176882..2db63bfda7 100644 --- a/tools/data/super-resolution/reds/README_zh-CN.md +++ b/tools/data/super-resolution/reds/README_zh-CN.md @@ -15,9 +15,9 @@ - 训练集: [REDS 数据集](https://seungjunnah.github.io/Datasets/reds.html). - 验证集: [REDS 数据集](https://seungjunnah.github.io/Datasets/reds.html) 和 Vid4. -请注意,我们合并了 REDS 的训练集和验证集,以便在 REDS4 划分(在`EDVR`中会使用到)和官方验证集划分之间切换。 +请注意,我们合并了 REDS 的训练集和验证集,以便在 REDS4 划分(在 `EDVR` 中会使用到)和官方验证集划分之间切换。 -原始验证集的名称被修改了(clip 000 到 029),以避免与训练集发生冲突(总共 240 个clip)。具体而言,验证集中的 clips 被改名为 240、241、... 269。 +原始验证集的名称被修改了(clip 000 到 029),以避免与训练集发生冲突(总共 240 个 clip)。具体而言,验证集中的 clips 被改名为 240、241、... 269。 可通过运行以下命令来准备 REDS 数据集: diff --git a/tools/data/super-resolution/vid4/README_zh-CN.md b/tools/data/super-resolution/vid4/README_zh-CN.md index 0cacc86fec..7bcc1c23ea 100644 --- a/tools/data/super-resolution/vid4/README_zh-CN.md +++ b/tools/data/super-resolution/vid4/README_zh-CN.md @@ -16,7 +16,7 @@ ``` 可以从 [此处](https://drive.google.com/file/d/1ZuvNNLgR85TV_whJoHM7uVb-XW1y70DW/view?usp=sharing) 下载 Vid4 数据集, -其中包含了两种下采样方法得到的图片: +其中包含了由两种下采样方法得到的图片: 1. BIx4 包含了由双线性插值下采样得到的图片 2. BDx4 包含了由 `σ=1.6` 的高斯核模糊,然后每4个像素进行一次采样得到的图片 \ No newline at end of file diff --git a/tools/data/super-resolution/vimeo90k/README_zh-CN.md b/tools/data/super-resolution/vimeo90k/README_zh-CN.md index 330c0134bc..72d5113c04 100644 --- a/tools/data/super-resolution/vimeo90k/README_zh-CN.md +++ b/tools/data/super-resolution/vimeo90k/README_zh-CN.md @@ -16,7 +16,7 @@ ``` 训练集和测试集可以从 [此处](http://toflow.csail.mit.edu/) 下载。 -Vimeo90K 数据集包含了如下所示的`clip/sequence/img`目录结构: +Vimeo90K 数据集包含了如下所示的 `clip/sequence/img` 目录结构: ```text ├── GT/LQ │ ├── 00001 From a8422113c16698f034513cf2cae5423302b898cc Mon Sep 17 00:00:00 2001 From: liuzhian Date: Sun, 11 Jul 2021 17:43:26 +0800 Subject: [PATCH 5/8] [Doc] Add mising EOF line --- tools/data/super-resolution/div2k/README_zh-CN.md | 1 - tools/data/super-resolution/reds/README_zh-CN.md | 1 - tools/data/super-resolution/vid4/README_zh-CN.md | 2 +- 3 files changed, 1 insertion(+), 3 deletions(-) diff --git a/tools/data/super-resolution/div2k/README_zh-CN.md b/tools/data/super-resolution/div2k/README_zh-CN.md index 23bb68697c..06ae17109b 100644 --- a/tools/data/super-resolution/div2k/README_zh-CN.md +++ b/tools/data/super-resolution/div2k/README_zh-CN.md @@ -89,4 +89,3 @@ mmediting ```shell python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K --make-lmdb ``` - diff --git a/tools/data/super-resolution/reds/README_zh-CN.md b/tools/data/super-resolution/reds/README_zh-CN.md index 2db63bfda7..4df0a4c9cf 100644 --- a/tools/data/super-resolution/reds/README_zh-CN.md +++ b/tools/data/super-resolution/reds/README_zh-CN.md @@ -51,4 +51,3 @@ mmediting ```shell python tools/data/super-resolution/reds/preprocess_reds_dataset.py --root-path ./data/REDS --make-lmdb ``` - diff --git a/tools/data/super-resolution/vid4/README_zh-CN.md b/tools/data/super-resolution/vid4/README_zh-CN.md index 7bcc1c23ea..5cc787444c 100644 --- a/tools/data/super-resolution/vid4/README_zh-CN.md +++ b/tools/data/super-resolution/vid4/README_zh-CN.md @@ -19,4 +19,4 @@ 其中包含了由两种下采样方法得到的图片: 1. BIx4 包含了由双线性插值下采样得到的图片 -2. BDx4 包含了由 `σ=1.6` 的高斯核模糊,然后每4个像素进行一次采样得到的图片 \ No newline at end of file +2. BDx4 包含了由 `σ=1.6` 的高斯核模糊,然后每4个像素进行一次采样得到的图片 From 9d96d0c706af17c1ba6a5b930bf7aadfe1d925ae Mon Sep 17 00:00:00 2001 From: liuzhian Date: Thu, 15 Jul 2021 10:46:58 +0800 Subject: [PATCH 6/8] fix typo --- docs_zh-CN/install.md | 4 ++++ tools/data/super-resolution/README_zh-CN.md | 8 ++++---- tools/data/super-resolution/div2k/README_zh-CN.md | 4 +++- 3 files changed, 11 insertions(+), 5 deletions(-) diff --git a/docs_zh-CN/install.md b/docs_zh-CN/install.md index 2b6bbc02bb..b404a0fd1c 100644 --- a/docs_zh-CN/install.md +++ b/docs_zh-CN/install.md @@ -9,6 +9,7 @@ - [mmcv](https://github.com/open-mmlab/mmcv) ## 安装 + a. 创建并激活 conda 虚拟环境,如: ```shell script @@ -64,6 +65,7 @@ find . -name "*.so" | xargs rm 另一种方案是安装预编译版本的 `mmcv-full`,请参考 [MMCV 主页](https://github.com/open-mmlab/mmcv#install-with-pip) 获取具体的安装指令。 此外,如果你要使用的模型不依赖于 CUDA 算子,那么也可以使用 `pip install mmcv`来安装轻量版本的 mmcv,其中 CUDA 算子被移除了。 ## CPU 环境下的安装步骤 + MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环境)。 然而在该环境下,有些功能将被移除,例如: @@ -72,6 +74,7 @@ MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环 因此,如果您尝试使用一些包含可变形卷积的模型进行推理,则会出现错误。 ## 利用 Docker 镜像安装 MMEditing + MMEditing 提供了一个 [Dockerfile](https://github.com/open-mmlab/mmediting/blob/master/docker/Dockerfile) 来创建 docker 镜像 ```shell script # build an image with PyTorch 1.5, CUDA 10.1 @@ -83,6 +86,7 @@ docker run --gpus all --shm-size=8g -it -v {DATA_DIR}:/mmediting/data mmediting ``` ## 完整的安装脚本 + ```shell script conda create -n open-mmlab python=3.7 -y conda activate open-mmlab diff --git a/tools/data/super-resolution/README_zh-CN.md b/tools/data/super-resolution/README_zh-CN.md index 04fe99e324..4e14992ea2 100644 --- a/tools/data/super-resolution/README_zh-CN.md +++ b/tools/data/super-resolution/README_zh-CN.md @@ -1,9 +1,9 @@ -# 超分辨数据集 +# 超分辨率数据集 建议将数据集的根目录链接到 `$MMEDITING/data` 下,如果你的文件目录结构不一致,那么你可能需要在配置文件中修改对应的文件路径。 -MMEditing 支持下列超分辨数据集: -- 图像超分辨 +MMEditing 支持下列超分辨率数据集: +- 图像超分辨率 - [DIV2K](div2k/README.md) \[ [Homepage](https://data.vision.ee.ethz.ch/cvl/DIV2K/) \] -- 视频超分辨 +- 视频超分辨率 - [REDS](reds/README.md) \[ [Homepage](https://seungjunnah.github.io/Datasets/reds.html) \] - [Vimeo90K](vimeo90k/README.md) \[ [Homepage](http://toflow.csail.mit.edu) \] diff --git a/tools/data/super-resolution/div2k/README_zh-CN.md b/tools/data/super-resolution/div2k/README_zh-CN.md index 06ae17109b..218e1b3274 100644 --- a/tools/data/super-resolution/div2k/README_zh-CN.md +++ b/tools/data/super-resolution/div2k/README_zh-CN.md @@ -43,6 +43,7 @@ mmediting ``` ## 裁剪子图 + 为了加快 IO,建议将 DIV2K 中的图片裁剪为一系列子图,为此,我们提供了一个脚本: ```shell python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K @@ -71,9 +72,10 @@ mmediting ``` ## 准备标注列表文件 + 如果你想使用`标注模式`来处理数据集,你需要先准备一个 `txt` 格式的标注文件。 -标准文件中的每一行包含了图片名以及图片尺寸(这些通常是 ground-truth 图片),这两个字段用空格间隔开。 +标注文件中的每一行包含了图片名以及图片尺寸(这些通常是 ground-truth 图片),这两个字段用空格间隔开。 标注文件示例: From 368ea38715089329f93dfa33a8433b13dc592928 Mon Sep 17 00:00:00 2001 From: lizz Date: Wed, 21 Jul 2021 15:25:48 +0800 Subject: [PATCH 7/8] Format Signed-off-by: lizz --- docs/install.md | 3 +-- docs_zh-CN/install.md | 56 +++++++++++++++++++++++++++---------------- 2 files changed, 37 insertions(+), 22 deletions(-) diff --git a/docs/install.md b/docs/install.md index a59a73154b..efa5beb532 100644 --- a/docs/install.md +++ b/docs/install.md @@ -26,8 +26,7 @@ conda install pytorch torchvision -c pytorch Note: Make sure that your compilation CUDA version and runtime CUDA version match. You can check the supported CUDA version for precompiled packages on the [PyTorch website](https://pytorch.org/). -`E.g. 1` If you have CUDA 10.1 installed under `/usr/local/cuda` and would like to install -PyTorch 1.5, you need to install the prebuilt PyTorch with CUDA 10.1. +`E.g. 1` If you have CUDA 10.1 installed under `/usr/local/cuda`, you need to install the prebuilt PyTorch with CUDA 10.1. ```python conda install pytorch cudatoolkit=10.1 torchvision -c pytorch diff --git a/docs_zh-CN/install.md b/docs_zh-CN/install.md index b404a0fd1c..1ec804f4e8 100644 --- a/docs_zh-CN/install.md +++ b/docs_zh-CN/install.md @@ -1,6 +1,6 @@ ## 依赖 -- Linux (目前 Windows 不是官方支持) +- Linux (目前 Windows 暂无官方支持) - Python 3.6+ - PyTorch 1.3 或更高 - CUDA 9.0 或更高 @@ -12,50 +12,62 @@ a. 创建并激活 conda 虚拟环境,如: -```shell script +```shell conda create -n open-mmlab python=3.7 -y conda activate open-mmlab ``` + b. 按照 [PyTorch 官方文档](https://pytorch.org/) 安装 PyTorch 和 torchvision,如: -```shell script +```shell conda install pytorch torchvision -c pytorch ``` -注意:确保你的 CUDA 编译版本和 CUDA 运行版本相匹配。 用户可以参照 [PyTorch 官网](https://pytorch.org/) 对预编译包所支持的 CUDA 版本进行核对。 -`例1`:如果你在 `/usr/local/cuda` 文件夹下已安装了 CUDA 10.1 版本,并且想要安装 PyTorch 1.5 版本,则需要安装 CUDA 10.1 下预编译的 PyTorch。 -```shell script +注:确保 CUDA 编译版本和 CUDA 运行版本相匹配。 用户可以参照 [PyTorch 官网](https://pytorch.org/) 对预编译包所支持的 CUDA 版本进行核对。 + +`例1`:如果 `/usr/local/cuda` 文件夹下已安装了 CUDA 10.1 版本,则需要安装 CUDA 10.1 下预编译的 PyTorch。 + +```shell conda install pytorch cudatoolkit=10.1 torchvision -c pytorch ``` + `例2`:如果你在 `/usr/local/cuda` 文件夹下已安装 CUDA 9.2 版本,并且想要安装 PyTorch 1.3.1 版本,则需要安装 CUDA 9.2 下预编译的 PyTorch。 -```shell script +```shell conda install pytorch=1.3.1 cudatoolkit=9.2 torchvision=0.4.2 -c pytorch ``` + 如果你从源码编译 PyTorch 而不是安装的预编译版本的话,你可以使用更多 CUDA 版本(例如9.0)。 c. 克隆 MMEditing 仓库 -```shell script + +```shell git clone https://github.com/open-mmlab/mmediting.git cd mmediting ``` d. 安装相关依赖和 MMEditing -```shell script + +```shell pip install -r requirements.txt pip install -v -e . # or "python setup.py develop" ``` + 如果你是在 macOS 环境下安装,则需将上述命令的最后一行替换为: -```shell script + +```shell CC=clang CXX=clang++ CFLAGS='-stdlib=libc++' pip install -e . ``` -注意: + +注: 1. git commit 的 id 将会被写到版本号中,如 0.6.0+2e7045c。这个版本号也会被保存到训练好的模型中。 推荐用户每次在对本地代码和 github 上的源码进行同步后,执行一次步骤 b。如果 C++/CUDA 代码被修改,就必须进行这一步骤。 -> 重要:如果你在一个新的 CUDA/PyTorch 版本下重新安装了 mmedit ,请确保删除了`./build`文件夹 -```shell script -pip uninstall mmedit -rm -rf ./build -find . -name "*.so" | xargs rm -``` + + > 重要:如果你在一个新的 CUDA/PyTorch 版本下重新安装了 mmedit ,请确保删除了`./build`文件夹 + ```shell + pip uninstall mmedit + rm -rf ./build + find . -name "*.so" | xargs rm + ``` + 2. 根据上述步骤, MMEditing 就会以 `dev` 模式被安装,任何本地的代码修改都会立刻生效,不需要再重新安装一遍(除非用户提交了 commits,并且想更新版本号)。 3. 如果用户想使用 `opencv-python-headless` 而不是 `opencv-python`,可在安装 `MMCV` 前安装 `opencv-python-headless`。 @@ -64,6 +76,7 @@ find . -name "*.so" | xargs rm 如需要,请通过 `pip install -r requirements.txt` 命令来安装 `mmcv-full`,安装过程中会在本地编译 CUDA 算子,这个过程大概需要10分钟。 另一种方案是安装预编译版本的 `mmcv-full`,请参考 [MMCV 主页](https://github.com/open-mmlab/mmcv#install-with-pip) 获取具体的安装指令。 此外,如果你要使用的模型不依赖于 CUDA 算子,那么也可以使用 `pip install mmcv`来安装轻量版本的 mmcv,其中 CUDA 算子被移除了。 + ## CPU 环境下的安装步骤 MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环境)。 @@ -76,18 +89,21 @@ MMEditing 也可以在只有 CPU 的环境下安装(即无法使用 GPU 的环 ## 利用 Docker 镜像安装 MMEditing MMEditing 提供了一个 [Dockerfile](https://github.com/open-mmlab/mmediting/blob/master/docker/Dockerfile) 来创建 docker 镜像 -```shell script + +```shell # build an image with PyTorch 1.5, CUDA 10.1 docker build -t mmediting docker/ ``` + 运行以下命令: -```shell script + +```shell docker run --gpus all --shm-size=8g -it -v {DATA_DIR}:/mmediting/data mmediting ``` ## 完整的安装脚本 -```shell script +```shell conda create -n open-mmlab python=3.7 -y conda activate open-mmlab From 0c8b62b18c40fce1b5fb4ecdf5112289570143ea Mon Sep 17 00:00:00 2001 From: lizz Date: Wed, 21 Jul 2021 15:32:05 +0800 Subject: [PATCH 8/8] More formats Signed-off-by: lizz --- tools/data/super-resolution/README_zh-CN.md | 4 +++- tools/data/super-resolution/div2k/README_zh-CN.md | 6 ++++-- tools/data/super-resolution/reds/README_zh-CN.md | 3 ++- tools/data/super-resolution/vimeo90k/README_zh-CN.md | 7 +++++-- 4 files changed, 14 insertions(+), 6 deletions(-) diff --git a/tools/data/super-resolution/README_zh-CN.md b/tools/data/super-resolution/README_zh-CN.md index 4e14992ea2..96be6a99ac 100644 --- a/tools/data/super-resolution/README_zh-CN.md +++ b/tools/data/super-resolution/README_zh-CN.md @@ -1,7 +1,9 @@ # 超分辨率数据集 -建议将数据集的根目录链接到 `$MMEDITING/data` 下,如果你的文件目录结构不一致,那么你可能需要在配置文件中修改对应的文件路径。 + +建议将数据集的根目录链接到 `$MMEDITING/data` 下,如果您的文件目录结构不一致,那么可能需要在配置文件中修改对应的文件路径。 MMEditing 支持下列超分辨率数据集: + - 图像超分辨率 - [DIV2K](div2k/README.md) \[ [Homepage](https://data.vision.ee.ethz.ch/cvl/DIV2K/) \] - 视频超分辨率 diff --git a/tools/data/super-resolution/div2k/README_zh-CN.md b/tools/data/super-resolution/div2k/README_zh-CN.md index 218e1b3274..aac04edf70 100644 --- a/tools/data/super-resolution/div2k/README_zh-CN.md +++ b/tools/data/super-resolution/div2k/README_zh-CN.md @@ -45,9 +45,11 @@ mmediting ## 裁剪子图 为了加快 IO,建议将 DIV2K 中的图片裁剪为一系列子图,为此,我们提供了一个脚本: + ```shell python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K ``` + 生成的数据保存在 `DIV2K` 目录下,其文件结构如下所示,其中 `_sub` 表示子图: ```text @@ -73,7 +75,7 @@ mmediting ## 准备标注列表文件 -如果你想使用`标注模式`来处理数据集,你需要先准备一个 `txt` 格式的标注文件。 +如果您想使用`标注模式`来处理数据集,需要先准备一个 `txt` 格式的标注文件。 标注文件中的每一行包含了图片名以及图片尺寸(这些通常是 ground-truth 图片),这两个字段用空格间隔开。 @@ -86,7 +88,7 @@ mmediting ## 准备 LMDB 格式的 DIV2K 数据集 -如果你想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件 +如果您想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件 ```shell python tools/data/super-resolution/div2k/preprocess_div2k_dataset.py --data-root ./data/DIV2K --make-lmdb diff --git a/tools/data/super-resolution/reds/README_zh-CN.md b/tools/data/super-resolution/reds/README_zh-CN.md index 4df0a4c9cf..6bc70e8b02 100644 --- a/tools/data/super-resolution/reds/README_zh-CN.md +++ b/tools/data/super-resolution/reds/README_zh-CN.md @@ -47,7 +47,8 @@ mmediting ## 准备 LMDB 格式的 REDS 数据集 -如果你想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件: +如果您想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件: + ```shell python tools/data/super-resolution/reds/preprocess_reds_dataset.py --root-path ./data/REDS --make-lmdb ``` diff --git a/tools/data/super-resolution/vimeo90k/README_zh-CN.md b/tools/data/super-resolution/vimeo90k/README_zh-CN.md index 72d5113c04..1af453217c 100644 --- a/tools/data/super-resolution/vimeo90k/README_zh-CN.md +++ b/tools/data/super-resolution/vimeo90k/README_zh-CN.md @@ -14,9 +14,11 @@ publisher={Springer} } ``` + 训练集和测试集可以从 [此处](http://toflow.csail.mit.edu/) 下载。 Vimeo90K 数据集包含了如下所示的 `clip/sequence/img` 目录结构: + ```text ├── GT/LQ │ ├── 00001 @@ -32,6 +34,7 @@ Vimeo90K 数据集包含了如下所示的 `clip/sequence/img` 目录结构: ``` ## 准备 Vimeo90K 数据集的标注文件 + 为了准备好训练所需的标注文件,请先从 Vimeo90K 数据集官网下载训练路径列表,随后执行如下命令: ```shell @@ -40,10 +43,10 @@ python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./dat 测试集的标注文件可通过类似方式生成. - ## 准备 LMDB 格式的 Vimeo90K 数据集 -如果你想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件 +如果您想使用 `LMDB` 以获得更快的 IO 速度,可以通过以下脚本来构建 LMDB 文件 + ```shell python tools/data/super-resolution/vimeo90k/preprocess_vimeo90k_dataset.py ./data/Vimeo90K/official_train_list.txt --gt_path ./data/Vimeo90K/GT --lq_path ./data/Vimeo90K/LQ --make-lmdb ```